Deutschfür Deutschsprachige
-dermie
Deutsch
Bedeutung -dermie Bedeutung
Was bedeutet -dermie?
-dermie
Gebundenes Lexem
—
nachgestelltes Wortbildungselement in Fremdwörtern aus dem Griechischen mit der Bedeutung: Haut, (krankhafte) Veränderung der Haut
Die Taxidermie ist ein Teilgebiet der Tierpräparation, zugrunde liegt die Gestaltung der Haut.
Suchen Sie vielleicht...?