Le paysage technologique mondial évolue avec l’arrivée de FoxBrain. Ce modèle de langue chinoise traditionnelle (LLM) a été développé par l’Institut de recherche Hon Hai, une branche du groupe Hon Hai Technology, plus connu sous le nom de Foxconn. Ce modèle marque une avancée dans la compétition technologique entre l’Occident et l’Orient.
Un LLM optimisé pour la gestion industrielle
FoxBrain répond aux besoins internes de Foxconn. Il est utilisé pour la gestion de la fabrication, la chaîne d’approvisionnement et la prise de décision. L’équipe de développement a formé le modèle en quatre semaines, un exploit qui démontre l’efficacité de sa stratégie d’optimisation des ressources.
Le Dr Yung-Hui Li, directeur du Centre de recherche sur l’IA de l’Institut de recherche Hon Hai, insiste sur l’importance de la méthode de formation. Foxconn ne mise pas sur l’augmentation brute de la puissance de calcul, mais privilégie une formation plus efficace. Cette approche améliore les performances des modèles tout en optimisant les coûts et les ressources mobilisées pour leur développement.
Nvidia et Meta au cœur du développement
FoxBrain tire parti de l’architecture de Meta, le Llama 3.1, et des capacités de calcul des GPU Nvidia. Ce modèle comprend 70 milliards de paramètres, qui sont les éléments clés du processus d’apprentissage de l’IA. Lors des tests comparatifs, FoxBrain a démontré des performances supérieures dans plusieurs domaines par rapport à d’autres modèles de taille similaire, notamment en matière de raisonnement logique et de calcul mathématique.
Les ressources de Nvidia ont joué un rôle crucial dans cette réussite. Foxconn a utilisé 120 GPU Nvidia H100, reliés par la technologie de réseau Quantum-2 InfiniBand, pour accélérer la formation de FoxBrain. L’entreprise a aussi exploité le framework NeMo de Nvidia pour personnaliser et concevoir ses modèles d’IA. Cette approche lui a permis d’améliorer considérablement leurs performances.
Un modèle puissant pour l’analyse et la prise de décision
FoxBrain excelle dans la résolution de problèmes mathématiques complexes et dans le raisonnement logique. Ces compétences sont essentielles pour gérer efficacement la chaîne d’approvisionnement, où la rapidité et la précision des décisions sont cruciales. L’équipe a testé FoxBrain avec le benchmark TMMLU+, qui mesure les performances des modèles IA dans plusieurs domaines de connaissances.
Grâce à une formation avancée et à des techniques d’augmentation de données, FoxBrain peut traiter des quantités massives d’informations. Il dispose d’une fenêtre contextuelle de 128 000 jetons, ce qui lui permet de gérer une plus grande quantité de données en mémoire par rapport aux modèles traditionnels. Cela permet au modèle de conserver une meilleure compréhension du contexte et de l’historique des conversations ou des documents.
FoxBrain bientôt accessible en open source
Foxconn a d’abord développé FoxBrain pour un usage interne. L’entreprise prévoit désormais de rendre ce modèle open source. Cette décision permettrait à de nombreux acteurs industriels, notamment dans la fabrication et la gestion de la chaîne d’approvisionnement, d’accéder à cette technologie et de l’adapter à leurs besoins.
Foxconn prévoit également de présenter les résultats de FoxBrain lors de la conférence Nvidia GTC 2025. L’entreprise y abordera les applications possibles du modèle, notamment pour la personnalisation de l’IA et l’extension des modèles de base afin de répondre aux défis du secteur.
Un impact majeur sur l’IA industrielle
FoxBrain apporte des avancées majeures dans la gestion de la fabrication et de la chaîne d’approvisionnement. Foxconn a développé ce modèle avec une approche optimisée et des technologies de pointe.
Grâce à cette stratégie, FoxBrain devient un outil incontournable pour les entreprises cherchant à améliorer l’efficacité de leur chaîne d’approvisionnement. Sa mise à disposition en open source pourrait accélérer la démocratisation des technologies avancées d’IA et renforcer leur adoption dans l’industrie.