Écrit par

Alexis Laporte
2x Cofounder - 1x Board Member - Tech Specialist
Subscribe to newsletter
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
- OpenAI o1-o3
- DeepSeek R1
- Google Gemini 2.0 Flash Thinking
- Mistral Pixtral Large
- xAI Grok 3
Les Reasoning Models sont les modèles plus performants, car ils sont plus sophistiqués que les LLMs.
Les Reasoning Models :
- Sont entraînés sur des raisonnements détaillés (*chain of thought*)
- Font appel à de l’algorithmique logique (*Prolog,* un langage français)
- Manipulent des *concepts* et pas seulement du langage
OpenAI donne des exemples très précis dans son guide de bonnes pratiques :
“Pour analyser l'acquisition d'une entreprise, o1 a examiné des dizaines de documents de l'entreprise, tels que des contrats et des baux, pour détecter les conditions délicates susceptibles d'affecter la transaction. Le modèle était chargé de signaler les termes clés et, ce faisant, a identifié une disposition cruciale de « changement de contrôle » dans les notes de bas de page : si l'entreprise était vendue, elle devrait rembourser immédiatement un prêt de 75 millions de dollars. L'extrême attention portée aux détails d'o1 permet à nos agents IA de soutenir les professionnels de la finance en identifiant les informations critiques pour leur mission.”
Endex, plateforme de renseignement financier Intelligence Artificielle
« Nous automatisons les examens des risques et de la conformité pour des millions de produits en ligne, notamment les bijoux de luxe dupés, les espèces menacées et les substances contrôlées. GPT-4o a atteint une précision de 50 % sur nos tâches de classification d'images les plus difficiles. o1 a atteint une précision impressionnante de 88 % sans aucune modification de notre pipeline."
SafetyKit, plateforme de gestion des risques et de conformité basée sur l'Intelligence Artificielle
Pour le moment ces modèles sont plus lents, et surtout beaucoup plus coûteux à faire fonctionner :
- GPT-4o mini : 0.6 $ / 1M tokens
- GPT-4o : 10 $ / 1M tokens
- o1 : 60 $ / 1M tokens
- o3-mini : 4.4 $ / 1M tokens
- o3 : plusieurs dizaines de dollars pour une seule requête
Les éditeurs proposent en général 3 modèles aux performances différentes : petit / moyen / grand.
- On passe à 6 modèles, car ils sont mis à jour : petit1, petit2, moyen1, etc.
- On passe à 12 modèles avec l’arrivée des modèles de raisonnement : petit-reasoning1, etc.
- Et encore plus de modèles avec la spécialisation des modèles : mini-reasoning-code, large-reasoning-deepresearch, etc.
- Pour le grand public, le choix du modèle va certainement très bientôt disparaître, au profit d’un seul modèle unique (=GPT-5) qui décidera lui-même du sous-modèle et du degré d’effort, avec la possibilité pour l’utilisateur de paramétrer ses choix.
- Pour les expérimentations, la question ne se pose pas, en général les modèles classiques (GPT-4o) suffisent, ou bien au contraire o3 est l’évidence, et la question du coût à l’usage n’est pas encore un sujet.
- En phase d’industrialisation il faut effectivement optimiser et choisir les modèles à utiliser, à la fois pour des questions de coût, de rapidité, et de performance.
REjoignez notre club dédié au corporate venture building