La enfermería comenzó como una responsabilidad doméstica, donde las mujeres cuidaban a los enfermos usando remedios naturales. El concepto de enfermedad evolucionó a entenderse como un desequilibrio del cuerpo, y las mujeres y sanadores se encargaban del cuidado de la salud y el mantenimiento de la vida de los pacientes.