![](https://aleph.land/system/accounts/avatars/000/122/908/original/01a46b83ddec96c9.png)
![](https://jlai.lu/pictrs/image/bf05fc72-518c-436c-870f-e2cf0465014e.png)
2·
7 days ago@Professeur_Falken @Ziggurat Ce qu’on peut retenir par contre, c’est qu’on a un modèle bien plus adapté au langage français que les modèles américains ou chinois.
Et un modèle open-source, avec toutes les données d’entraînement publiques sous licence libre.
@mtchristo @Ziggurat
Ce modèle de langage a été entraîné sur des fonds privés, ceux de Linagora.
Néanmoins, pour l’entraînement, le supercalculateur Jean-zay a été utilisé. C’est effectivement une infrastructure publique sous l’égide de l’IDRIS.
Dur de quantifier combien cela a coûté d’utiliser ce supercalculateur, il est partagé pour de nombreux projets de recherche.