Dès son lancement en mai 2023, la start-up Mistral AI a rapidement fait parler d’elle. Seulement quatre semaines après sa création, la start-up française d’intelligence artificielle (IA) avait levé 105 millions d’euros. Le 10 décembre dernier, elle a annoncé avoir levé 385 millions d’euros lors de son dernier tour de table.
Défiant OpenAI et Meta, elle est aujourd’hui valorisée à plus de 2 milliards de dollars (environ 1,8 milliard d’euros). Elle se place au rang des licornes françaises, qui sont des entreprises ayant moins de dix ans et dont la valeur dépasse un milliard de dollars.
Quelles sont les raisons de son succès ?
- Une entreprise cofondée par des experts français de l’IA, anciennement embauchés par des géants américains
Le PDG, Arthur Mensch, âgé de 31 ans, a passé près de trois ans dans le laboratoire d’IA « DeepMind » de Google. Ses associés, Guillaume Lample et Timothée Lacroix, sont des spécialistes de l’IA de chez Meta, la maison mère de Facebook. Guillaume Lample est, par ailleurs, un des créateurs du modèle de langage LLaMA, dévoilé par Meta en février 2023.
Forts de leurs expériences au sein des grandes entreprises américaines, les trois experts sont retournés en France. En mettant à profit leurs compétences dans le domaine de l’IA en Europe, ils ont pour ambition de se hisser au sommet.
Mistral AI compte 22 salariés et propose des modèles de langage, alimentés par des données publiques, en open source. Un modèle de langage (LLM) est un modèle statistique représentant la distribution de symboles distincts (lettres, phonèmes, mots) dans une langue naturelle. Son objectif fondamental est de prédire le mot suivant dans une séquence de mots.
- Une volonté de s’imposer en tant que champion européen
Le dirigeant Arthur Mensch a déclaré dans un communiqué : « Depuis la création de Mistral AI en mai, nous suivons une ambition claire : créer un champion européen à vocation mondiale dans l’intelligence artificielle (…) ».
À ce jour, seule l’entreprise allemande « Aleph Alpha » est aussi proéminente en Europe, après avoir réussi à lever près de 500 millions d’euros début novembre.
Les intérêts de la jeune start-up sont particulièrement défendus auprès du gouvernement par le biais de Cédric O, ancien secrétaire d’État au numérique. Il est désormais membre du comité interministériel sur l’IA générative créé en septembre 2023, et joue un rôle de « conseiller cofondateur » auprès de la start-up.
En décembre dernier, l’Union européenne s’est accordée sur une future régulation du secteur nommée « IA Act ». Une régulation visant à encadrer et encourager l’innovation européenne.
Mistral AI compte bien dépasser les acteurs dominant le marché de l’IA. Ayant réussi à mobiliser les grands acteurs de la Silicon Valley, les médias américains la considèrent déjà comme un concurrent potentiel d’OpenAI, créateur de ChatGPT.
- Les deux modèles principaux disponibles
Fin septembre, leur premier grand modèle de langage, appelé « Mistral 7B », a vu le jour. Comme l’indique son nom, il contient 7 milliards de paramètres. Ce LLM est disponible en open source, il est possible de le télécharger, de le déployer sur des instances de cloud public, ou d’y accéder sur Hugging Face.
La plateforme Hugging Face est une start-up franco-américaine développant des outils afin d’utiliser l’apprentissage automatique. L’apprentissage automatique se fonde sur les approches mathématiques et statistiques permettant de donner aux ordinateurs la capacité d’apprendre à partir de données et d’améliorer leurs performances, sans être explicitement programmés.
En interne, ce LLM a fait l’objet de benchmarks (analyses) sur des thématiques, telles que la connaissance, le raisonnement, la compréhension ou encore les mathématiques. Les résultats ont donné un avantage à Mistral 7B en termes de précision.
Entraîné pour le chat avec des datasets (ensemble de données organisées) disponibles sur Hugging Face, le modèle Mistral Instruct 7B a fait l’objet d’un même constat.
La start-up souligne que cela est « une démonstration rapide que le modèle de base peut être facilement ajusté pour obtenir des performances convaincantes ».
La start-up a récemment publié un nouveau modèle, appelé « Mixtral 8x7B ». Ce dernier intègre huit modèles experts dans un seul cadre et utilise jusqu’à 45 milliards de paramètres. Il peut gérer 32 000 tokens, ce sont des unités numériques échangeables sur un réseau décentralisé, afin de représenter des actifs numériques tels que des cryptomonnaies, des biens virtuels ou des droits d’accès à des services en ligne.
Il se démarque aussi par sa polyvalence linguistique puisqu’il peut traiter l’anglais, le français, l’allemand, l’italien et l’espagnol.
Mistral AI affirme que Mixtral surpasse GPT3.5 sur la plupart des benchmarks, avec une inférence 6 fois plus rapide, et qu’il est le meilleur « en termes de compromis coût/performance ».
- Un LLM en open source : vers la démocratisation de l’IA
Timothée Lacroix explique que l’objectif est de « développer des modèles utiles, donc faire beaucoup d’open source pour que la communauté puisse trouver les usages derrière ».
La mise à disposition de modèles de « poids ouvert » permet aux utilisateurs de télécharger, d’expérimenter et d’adapter le modèle de langage à leurs besoins. Leur site indique que « ces modèles ne sont pas réglés pour la sécurité car nous voulons permettre aux utilisateurs de tester et d’affiner la modération en fonction de leurs cas d’utilisation ».
Cet engagement pour une IA ouverte s’illustre grâce au partenariat entre Mixtral et Google Cloud. Elle distribue ainsi des LLM optimisés sur une infrastructure performante, facilitant une utilisation par la communauté mondiale.
Étant une entité relativement nouvelle et plus modeste que ses concurrents, Mixtral a besoin de temps pour évoluer et établir une base de recherche et d’utilisation plus robuste.
Néanmoins, l’utilisation offerte par Mistral AI fraie un chemin vers une IA plus innovante et plus collaborative.
Noor RAFOUK
M2 Cyberjustice – Promotion 2023/2024
Sources :
https://www.blogdumoderateur.com/mistral-ai-interview-cto-timothee-lacroix/
https://fr.wikipedia.org/wiki/Apprentissage_automatique
https://anthemcreation.com/intelligence-artificielle/chat-gpt-francais-mixtral/
https://docs.mistral.ai/models/