« californie », définition dans le dictionnaire Littré

californie

Définition dans d'autres dictionnaires :

Fac-simile de l'édition originale du Littré (BNF)

californie

(ka-li-for-nie) s. f.
  • Contrée de l'Amérique du Nord où l'on a trouvé de riches mines d'or.

    Fig. C'est une Californie, se dit pour exprimer la richesse d'un lieu, d'une maison, d'une entreprise.