Fachbegriffs-Lexikon

Anatomie

Lehre, die sich mit dem Bau des Körpers und seiner Organe befasst.

Zurück