Mistral Small 3 positionne Mistral AI comme une alternative compétitive face aux géants américains et chinois, grâce à une consommation énergétique inférieure à celle des modèles d’OpenAI et de Google.
Le 30 janvier, Mistral a présenté son dernier modèle, Small 3, se positionnant ainsi comme une réponse stratégique face à DeepSeek, l’acteur chinois dont le modèle DeepSeek-R1 a bouleversé le secteur technologique en ébranlant la domination américaine avec une solution aussi performante que ChatGPT-o1, mais 27 fois plus économe en énergie.
Mistral, déjà reconnu pour ses contributions dans le domaine des modèles open source, applique la même architecture « mixture-of-experts » (MoE) que DeepSeek, permettant l’entraînement de modèles pour des tâches spécifiques.
Bien que le DeepSeek-R1 domine avec ses 671 milliards de paramètres, Small 3, mesurant 47,16 Go, ne cherche pas à rivaliser en taille. Avec 24 milliards de paramètres, il préfère s’imposer par sa rapidité et sa capacité d’exécution locale, visant une vitesse de traitement de 150 tokens par seconde.
Encouragé par les résultats des benchmarks, Mistral Small 3 se distingue par sa performance qui surpasse d’autres modèles compacts comme le Gemma 2, Qwen 2.5, et GPT-4o-mini.
En dépit de sa taille réduite, Small 3 se positionne au niveau du LLaMA 3.3 de Meta avec ses 70 milliards de paramètres. Cette prouesse signale la capacité de Mistral à offrir un modèle compétitif grâce à une conception optimisée, promue sous licence Apache 2.0.
L’une des forces majeures de Small 3 réside dans sa capacité à fonctionner en local sur du matériel standard, tel qu’un MacBook avec 32 Go de RAM ou un PC équipé d’une carte Nvidia RTX 4090. Cette approche économe en ressources permet à Mistral de cibler des secteurs privés qui privilégient la protection des données et nécessitent une solution IA fonctionnant en local.
Mistral AI se positionne ainsi comme une alternative viable aux grands acteurs américains et chinois, en proposant un modèle qui consomme moins que ceux d’OpenAI ou de Google.
Le modèle Small 3 se distingue avant tout par sa rapidité et son efficience énergétique, plutôt que par sa puissance brute. C’est sur ce terrain que Mistral souhaite se démarquer, offrant une solution qui réponde aux besoins croissants de l’industrie en matière de durabilité énergétique et de respect de la confidentialité des données.
Cette orientation stratégique représente une opportunité pour Mistral de réaffirmer son rôle de leader dans le domaine de l’IA open source, tout en renforçant l’offre européenne face à la suprématie de la technologie américaine et chinoise.
Mistral positionne Small 3 comme un « complément aux grands modèles open source de raisonnement », tels que les dernières innovations de DeepSeek.
En Bref
- Mistral a lancé le modèle Small 3 comme réponse à DeepSeek et ses innovations.
- Le modèle se distingue par une consommation énergétique inférieure à celle des géants comme OpenAI et Google.
- Small 3 privilégie la rapidité et l’efficacité énergétique tout en étant conçu pour fonctionner sur du matériel standard.
- Mistral se positionne comme une alternative viable face aux acteurs américains et chinois dans le domaine de l’IA.