Respuesta:
La educación física es una disciplina que trata de ofrecer una educación integral sobre el cuerpo humano contribuyendo al cuidado de la salud.