organicismo

or·ga·ni·cis·mo

Significado de Organicismo

m. Theoria dos que attribuem qualquer doença à lesão material de um órgão. (De orgânico)

Definição de Organicismo

Classificação gramatical: nome masculino
Divisão silábica de organicismo: or·ga·ni·cis·mo