OpenAI a annoncé la sortie de deux modèles de langage open-weight, GPT-OSS-120B et GPT-OSS-20B, disponibles désormais sous licence Apache 2.0. Ce retour à plus de transparence rappelle l’époque de GPT-2 et permet aujourd’hui à la communauté de l’intelligence artificielle d’accéder directement aux poids via Hugging Face.
IA et performance : des modèles pensés pour le raisonnement
Basés sur une architecture Mixture-of-Experts (MoE), ces modèles comptent 117 milliards et 21 milliards de paramètres, mais n’activent qu’une partie de ces ressources à chaque traitement (5,1 milliards pour le 120B, 3,6 milliards pour le 20B). Ce fonctionnement allie puissance et efficacité.
Ils peuvent gérer un contexte de 128 000 tokens, un atout pour les documents longs ou complexes. Le GPT-OSS-120B atteint des résultats proches du modèle propriétaire o4-mini et peut tourner sur un seul GPU de 80 Go. Le GPT-OSS-20B, plus léger, se contente de 16 Go, ce qui facilite son usage en local ou sur des appareils embarqués adaptés aux besoins IT.
Cas d’usage IT des modèles open-weight d’OpenAI
Ces modèles fonctionnent avec l’API Responses d’OpenAI et proposent des capacités avancées comme le Chain-of-Thought, les appels de fonctions ou la génération structurée. Ils peuvent être utilisés pour :
- créer des assistants intelligents plus performants,
- automatiser des workflows IT complexes,
- soutenir la recherche scientifique,
- être déployés en local pour répondre à des enjeux de sécurité des données et de souveraineté numérique.
Ainsi, AI Sweden, Orange et Snowflake ont déjà exploré leur intégration dans des environnements concrets.
IA et cybersécurité : une vigilance essentielle
OpenAI avait fermé ses modèles pour des raisons de sécurité. Avec GPT-OSS, l’entreprise propose un cadre plus sûr grâce à des filtres et des ajustements post-formation. Des experts externes ont évalué ces modèles dans des contextes sensibles (cybersécurité, biologie). Les conclusions montrent qu’ils restent maîtrisés.
Un challenge de red teaming de 500 000 dollars a aussi été lancé sur Kaggle pour renforcer la détection des vulnérabilités.
Avec GPT-OSS-120B et 20B, OpenAI cherche un équilibre entre innovation propriétaire et ouverture. La licence permissive, la compatibilité multi-environnements (PyTorch, Metal, Azure) et les optimisations fournies facilitent leur adoption.
Reste à savoir si cette ouverture séduira la communauté IT et les chercheurs, alors que Mistral, LLaMA ou Mixtral misent sur une ouverture totale. Cette décision pose une vraie question : l’approche d’OpenAI suffira-t-elle à convaincre face à ces concurrents ?