Definicion de la anatomia

by - junio 29, 2017


DEFINICION DE ANATOMIA


La anatomía es una ciencia que estudia sistemáticamente todos los órganos y los tejidos del cuerpo, así como el funcionamiento y el papel que cumplen para llevar una vida normal.
Es también una ciencia muy antigua que se remonta a la prehistoria.
Se subdivide en: Anatomía Animal, que comprende de dos campos (Anatomía Humana y Anatomía comparada) y Anatomía de las plantas.

You May Also Like

0 comentarios