22/08/2025 @ 18:46:39: Programmation - DeepSeek V3.1 surpasse ChatGPT. Le modèle open source chinois se renforce
Dans le monde de l'intelligence artificielle, les choses se passent rarement en catimini ; les lancements s'accompagnent généralement d'un battage médiatique considérable (et parfois d'une excitation malsaine). Cette fois, sans battage médiatique, sans conférences ni annonces, le modèle DeepSeek V3.1 vient d'apparaître sur la plateforme Hugging Face. Une startup chinoise de Hangzhou a lancé une solution comportant 685 milliards de paramètres. Lors des premiers tests, ses performances sont similaires à celles des systèmes phares d'OpenAI (qui a récemment subi un revers avec le lancement de GPT-5) et d'Anthropic. Cependant, la différence est fondamentale : DeepSeek étant open source, chacun peut le télécharger, l'utiliser et même le modifier à sa guise. Il est également rapide : DeepSeek V3.1 a obtenu 71,6 % au benchmark d'encodage Aider , ce qui le place parmi les meilleurs modèles disponibles. C'est impressionnant ; il ne s'agit pas d'une solution médiocre parmi tant d'autres, mais d'un concurrent capable de rivaliser avec les meilleurs.

L'aspect le plus surprenant du projet réside dans son aspect économique. Actuellement, le coût d'une tâche d'encodage est d'environ 1,01 $, alors que les systèmes concurrents coûtent près de 70 $ pour une charge de travail similaire. Un coût 68 fois supérieur à la moyenne pour une qualité de résultats comparable est un facteur surprenant, que l'industrie n'avait probablement pas anticipé. Le modèle peut gérer jusqu'à 128 000 jetons, ce qui équivaut à environ 400 pages de texte traitées simultanément. Il conserve une vitesse de réponse relativement satisfaisante, ce qui lui confère un avantage sur les systèmes plus lents basés sur le raisonnement. L'architecture hybride représente une véritable innovation. DeepSeek a créé un système combinant efficacement les fonctions de chat, de raisonnement et de codage en un modèle unique et cohérent, alors que les précédentes tentatives dans ce sens ont abouti à des modèles globalement peu performants. La communauté a découvert plusieurs innovations techniques « sous le capot » : quatre nouveaux jetons spéciaux cachés dans le framework : des fonctions de recherche permettant l'intégration réseau en temps réel et des jetons « pensants » permettant des processus de raisonnement interne. Le modèle prend en charge différents formats de précision, du BF16 standard au FP8 expérimental, dont la précision et les besoins de calcul sont moindres.
Auteur: Nic007