La startup française Mistral AI a présenté ses premiers modèles d’IA génératifs, conçus pour fonctionner sur des appareils mobiles et des ordinateurs portables. Appelés « Les Ministraux », ces modèles offrent une exécution locale, respectueuse de la vie privée, avec une faible consommation de ressources.
Les modèles Ministraux : deux versions disponibles
Mistral AI propose deux versions de ses modèles : Ministral 3B et Ministral 8B. Ces modèles sont capables de traiter jusqu’à 128 000 jetons, soit l’équivalent d’un livre de 50 pages. Ces modèles répondent à des usages variés, allant de la simple génération de texte à des tâches plus complexes qui nécessitent une collaboration avec des modèles plus performants.
Répondre aux besoins de confidentialité et d’efficacité
Les clients de Mistral souhaitent des solutions locales et respectueuses de la vie privée pour des applications comme la traduction sur appareil, les assistants intelligents sans Internet, l’analyse locale et la robotique autonome. Les modèles Ministraux sont conçus pour offrir des performances élevées, avec une faible latence et une efficacité de calcul.
Disponibilité et options d’utilisation
Ministral 8B est disponible en téléchargement, mais uniquement pour la recherche. Les entreprises et développeurs souhaitant une utilisation commerciale doivent obtenir une licence auprès de Mistral AI. Les deux modèles sont disponibles sur la plateforme cloud de Mistral, « La Platforme », ainsi que sur d’autres clouds partenaires. Ministral 8B coûte 10 centimes par million de jetons, et Ministral 3B coûte 4 centimes par million de jetons.
La tendance vers les modèles d’IA plus petits
Le secteur de l’IA se tourne de plus en plus vers des modèles de plus petite taille, car ils sont moins coûteux et plus rapides à entraîner et à ajuster. Par exemple, Google a introduit les modèles Gemma, Microsoft les modèles Phi, et Meta a optimisé les modèles Llama. Ces modèles plus petits permettent des déploiements plus souples et consomment moins de ressources.
Performances des modèles Ministraux
Mistral affirme que Ministral 3B et 8B surpassent les modèles concurrents comme Llama et Gemma, ainsi que leur propre modèle précédent, Mistral 7B, sur des tests de suivi des instructions et de résolution de problèmes. Les Ministaux ont donc l’ambition de devenir une référence pour l’exécution locale des tâches d’IA.
Optimisme pour l’avenir
Les cofondateurs de Mistral AI anciens de Meta et DeepMind, voient un avenir prometteur pour l’entreprise et son rôle dans le secteur de l’IA. Bien que le chemin vers la rentabilité reste incertain, Mistral aurait commencé à générer des revenus depuis cet été, signalant un bon début dans cette industrie en pleine expansion.