La educación física se define como el conjunto de disciplinas escolares que tienen como fin el desarrollo del cuerpo mediante el deporte. Proporciona beneficios para la salud como la regulación de peso y la prevención de enfermedades. Entre los beneficios se encuentran la mejora de la condición física, el desarrollo de habilidades motrices y la promoción de valores. Además, la educación física ayuda a reducir el estrés y mejorar la autoestima y el estado de ánimo.