organicismo
or·ga·ni·cis·mo
Significado de Organicismo
m. Theoria dos que attribuem qualquer doença à lesão material de um órgão. (De orgânico)
Definição de Organicismo
Classificação gramatical: nome masculino
Divisão silábica de organicismo: or·ga·ni·cis·mo
organicismo