Definicion de la anatomia
DEFINICION DE ANATOMIA
La
anatomía es una ciencia que estudia sistemáticamente todos los órganos y los
tejidos del cuerpo, así como el funcionamiento y el papel que cumplen para
llevar una vida normal.
Es
también una ciencia muy antigua que se remonta a la prehistoria.
Se
subdivide en: Anatomía Animal, que comprende de dos campos (Anatomía Humana y Anatomía
comparada) y Anatomía de las plantas.


0 comentarios