Écrit par
Alexis Laporte
2x Cofounder - 1x Board Member - Tech Specialist
Subscribe to newsletter
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Si on s’en tient aux chiffres avancés par DeepSeek, il suffit de 2 000 GPU et d’une équipe d’excellence pour produire un modèle compétitif en performance et en coût. C'est une excellente nouvelle pour un usage corporate car la méthode de DeepSeek permet de concevoir un LLM in-house d'un niveau de o1.
Il s'agit aussi une excellente nouvelle pour l'indépendance de la France et de l'Europe face aux champions d'Intelligence Artificielle étrangers. Car la France dispose de cette puissance de GPUs, ne serait-ce qu'entre Scaleway et le CNRS. Ce qui manque, ce sont trois éléments clés :
DeepSeek est un laboratoire d'IA chinois qui a conçu R1, un modèle équivalent à ChatGPT o1, pour seulement 2 000 GPU H100, soit un coût100 fois inférieur à OpenAI.
Toutefois le milieu académique et économique soupçonnent que le nombre de GPU réellement utilisés soient bien plus élevé.
DeepSeek V3 et R1 sont des modèles de pointe qui prouvent qu'il est possible de rivaliser avec OpenAI en termes de performance et de coût.
DeepSeek a rendu publics sa méthode et les poids du modèle, ce qui a permis à d'autres laboratoires (Berkeley) de reproduire certaines avancées, notamment en Reinforcement Learning (RL).
DeepSeek illustre l'importance stratégique et géopolitique des modèles fondationnels.
DeepSeek V3 repose sur une architecture Mixture of Experts (MoE), activant uniquement certains sous-modèles spécialisés en fonction de la tâche. Mistral utilise une approche similaire avec Mixtral.
R1 est un modèle de raisonnement qui a innové en démarrant son apprentissage directement en Reinforcement Learning (RL) plutôt qu'en Apprentissage Supervisé (SFT), ce qui était jusque-là jugé trop coûteux. Il ne s'appuie pas sur des exemples mais reçoit un bonus ou un malus selon ses réponses.
DeepSeek-V3 aurait été entraîné avec 2 048 GPU H800 pendant deux mois, pour un coût estimé à 5,6 millions de dollars. Certaines sources suggèrent néanmoins que jusqu'à 50 000 GPU H100 auraient été mobilisés, un niveau de puissance similaire à Google ou Amazon.
Des chercheurs de Berkeley ont repris la méthode de DeepSeek, ce qui pourrait influencer les prochaines évolutions d'OpenAI, Gemini et Claude.
Lucie est un projet de recherche visant à produire une Intelligence Artificielle totalement open-source, bien que toujours en phase expérimentale. Elle a été entraînée sur 512 GPU H100 du CNRS.
Le lancement de ce projet a été totalement prématuré : Lucie est un modèle brut par encore destiné au public, le modèle a été présenté trop tôt, générant des attentes irréalistes et une déception sur ses performances.
Son lancement coïncide malheureusement avec DeepSeek et met en lumière le problème de la communication : la publication de Lucie est intervenue alors que DeepSeek faisait sensation, renforçant la perception d’un échec.
Non seulement la présentation de Lucie ne correspond pas à la réalité du modèle, mais elle souligne notre manque de clarté sur les enjeux de l’intelligence artificielle
Lucie vise à respecter le standard Open Source Initiative (OSI), garantissant un accès libre et transparent à son code, sa méthode et ses données d'entraînement.
Bien que son lancement ait été mal géré, Lucie remplit son objectif initial en établissant les bases d’un LLM européen transparent. Cependant, cet effort ne suffit pas à compenser le retard accumulé face aux grands acteurs internationaux.
En parallèle, tandis que les initiatives publiques rencontrent des difficultés, des entreprises comme Kyutai et Mistral progressent grâce à des stratégies plus efficaces, s'appuyant sur un financement plus dynamique et une approche plus pragmatique.
Ce décalage met en évidence un déficit en infrastructures et en moyens techniques pour la recherche en IA en France, freinant son développement et limitant sa compétitivité face aux grandes puissances comme les États-Unis et la Chine. La question demeure : comment structurer un effort collectif pour inverser cette tendance ?
REjoignez notre club dédié au corporate venture building