« organicisme », définition dans le dictionnaire Littré

organicisme

Définition dans d'autres dictionnaires :

Fac-simile de l'édition originale du Littré (BNF)

organicisme

(or-ga-ni-si-sm') s. m.
  • Théorie médicale qui s'efforce de rattacher toute maladie à une lésion matérielle d'un organe.

ÉTYMOLOGIE

Organique.