Au début de l’année 2024, j’ai donné une conférence à Orlando sur la feuille de route de l’IA pour les prochaines années.
J’avais dit qu’avant d’atteindre l’intelligence artificielle générale (AGI), puis la superintelligence artificielle (ASI), nous passerions par différents niveaux d’intelligence artificielle.
C’est à ce moment-là que l’IA commencera à résoudre des problèmes complexes nécessitant de nombreuses étapes, pour finalement aboutir à une superintelligence capable de s’améliorer davantage que l’être humain.
Je dis également depuis un certain temps que la prochaine grande avancée en matière d’IA ne se limitera pas à des modèles plus grands.
Elle viendra d’un raisonnement plus intelligent.
La capacité à réfléchir de manière interdisciplinaire, à former des idées originales, à résoudre des problèmes qui n’ont pas de réponse évidente.
C’est à ce moment-là que nous verrons de réelles avancées dans le domaine de l’IA.
Et c’est maintenant que cela se produit.
Lundi dernier, OpenAI a lancé une vague de nouveaux modèles qui ne sont pas seulement plus rapides ou moins chers que ses modèles précédents.
GPT-4.1 et ses petits frères (GPT-4.1 mini et nano) sont également plus intelligents.
À l’instar du R1 de DeepSeek, ces modèles marquent un tournant, passant d’un calcul brut à des modèles qui en font plus avec moins.
Par exemple, le GPT-4.1 mini est environ 83 % moins cher à utiliser que le GPT-4o, tout en le surpassant dans des tâches clés de codage et de raisonnement.
Ces modèles offrent des interactions plus rapides, peuvent traiter des problèmes plus complexes et fournissent de meilleurs résultats dans tous les domaines.
Mais aussi passionnante que soit la gamme 4.1, je suis encore plus enthousiasmé par ce qu’OpenAI a annoncé deux jours plus tard.
Car il semble s’agir de la prochaine évolution des machines raisonnantes…
Et de notre premier pas important vers l’intelligence artificielle générale.
La série O – une avancée vers l’AGI
Je parle des modèles « o-series » d’OpenAI, dont les dernières versions ont été publiées mercredi.
Pour une fois, le PDG d’OpenAI pourrait bien sous-estimer ce que son entreprise vient de sortir.
En effet, contrairement à la famille GPT-4 à usage général, la série o est spécialement conçue pour le raisonnement.
Considérez ces modèles comme des moteurs spécialement conçus pour résoudre des problèmes difficiles. Ils excellent dans des domaines tels que les sciences, le codage, les mathématiques et la résolution de problèmes.
Et ils surpassent largement les performances du premier modèle de raisonnement d’OpenAI, o1.
En fait, OpenAI affirme que o3 est le modèle de raisonnement le plus puissant de l’entreprise à ce jour.
Mais il ne se contente pas de fournir des réponses plausibles. Il démontre réellement sa capacité à abstraire, à généraliser et même à relier des idées entre différents domaines.
En d’autres termes, il effectue le type de travail cognitif intense que nous avons toujours imaginé lorsque nous parlons d’intelligence artificielle générale.
Pour rappel, l’AGI désigne le moment où une machine peut égaler ou dépasser les capacités humaines.
Et c’est exactement ce qui se passe ici.
Sur le benchmark ARC-AGI, un test réputé difficile conçu pour mesurer l’intelligence générale en mettant l’accent sur le raisonnement humain plutôt que sur la mémorisation brute, le modèle o1 d’OpenAI a peiné à atteindre les 32 %.
Mais le modèle o3 a obtenu un score de 88 %.
Ce n’est pas seulement un bon résultat. C’est un résultat supérieur à la performance humaine de référence.
Pour mettre cela en contexte, la plupart des diplômés d’écoles d’ingénieur obtiennent des scores aux alentours des 90.
Un site web qui teste chaque semaine 20 IA verbales et 6 IA visuelles suggère que seulement 1 % des humains sont plus intelligents que le modèle o3.
Et bien que le QI ne soit pas la meilleure représentation de l’intelligence artificielle, ces scores représentent un véritable changement dans les capacités de l’IA.
Ils montrent que ces machines commencent déjà à penser davantage comme nous.
OpenAI o3 a franchi un cap : il est désormais capable de résoudre des problèmes prédéfinis et commence à comprendre comment aborder les problèmes.
C’est pourquoi je suis si enthousiaste à propos de ces nouveaux modèles. Parce qu’ils ne se contentent pas de régurgiter des faits…
Ils les relient entre eux.
C’est cette capacité qui permettra à l’IA de passer du statut d’outil utile à celui de véritable partenaire de raisonnement.
Au Laboratoire national d’Argonne, des scientifiques ont déjà utilisé les premières versions du modèle o3 pour concevoir des expériences complexes en quelques heures au lieu de plusieurs jours. Cela prouve que l’o3 peut être un multiplicateur de productivité.
Et cela a des implications considérables pour de nombreux secteurs.
Dans la R&D pharmaceutique, où le temps est littéralement de l’argent, une IA capable de proposer de nouveaux composés et de simuler des voies de réaction pendant la nuit pourrait accélérer la découverte de médicaments de plusieurs mois.
Dans le domaine de la modélisation climatique, imaginez que vous alimentiez un modèle de raisonnement avec des années de données satellitaires, des cartes topographiques et des relevés atmosphériques afin qu’il propose de nouvelles hypothèses sur les changements climatiques régionaux.
Cette même IA pourrait ensuite contrôler un simulateur pour tester ces hypothèses avant même qu’un être humain ne les voie.
Dans le domaine de l’éducation, les plateformes de tutorat pourraient passer de la question « Quelle est la dérivée de cette fonction ? » à « Pourquoi cette stratégie de résolution fonctionne-t-elle et quelles sont ses limites ? ».
C’est le type de raisonnement approfondi dont les étudiants ont besoin. Et grâce à des modèles de raisonnement IA avancés, nous serons en mesure d’offrir ce niveau de tutorat à grande échelle.
Cela va véritablement changer la donne pour les développeurs de logiciels.
Ces nouveaux modèles peuvent suggérer des architectures système complètes. Ils peuvent expliquer pourquoi certains compromis sont judicieux et même repérer des cas limites dans le code que les développeurs pourraient ne pas remarquer avant la mise en production.
Mais ces capacités de raisonnement avancées ont un coût élevé.
Le prix de o-3 est de 40 $ par million de tokens.
À titre de comparaison, GPT-4.1 nano ne coûte que 40 centimes par million de tokens.
Selon certaines rumeurs, OpenAI prévoit de facturer jusqu’à 20 000 $ par mois pour un accès professionnel à ces outils de raisonnement avancés.
C’est environ 1 000 fois le prix d’un abonnement standard à ChatGPT, ce qui correspond aux coûts de production que je viens de mentionner.
Néanmoins, ce n’est qu’une goutte d’eau pour les entreprises qui mènent des recherches à haut risque ou qui construisent des infrastructures essentielles à leur mission.
Surtout si ces nouveaux modèles de raisonnement peuvent accomplir un travail qui nécessitait auparavant des équipes entières.
Mon avis
La vitesse à laquelle nous nous dirigeons vers la superintelligence artificielle (ASI) est à la fois passionnante et un peu inquiétante.
L’AGI est la première étape. Et nous sommes beaucoup plus proches de l’AGI aujourd’hui que nous ne l’étions la semaine dernière.
J’avais évoqué le fait que 2025 serait l’année des agents IA. Ces modèles de raisonnement de série O contribueront à faire de cette vision une réalité.
Après tout, ils surpassent déjà la plupart des humains dans les tests de référence de niveau universitaire en sciences, technologie, ingénierie et mathématiques.
Il semble donc que nous soyons sur le point de connaître un changement fondamental dans la manière dont le travail intellectuel est effectué.
Et si ce rythme de progression se maintient, nous pourrions nous retrouver dans un monde très différent d’ici un an.
Au printemps prochain, je pourrais vous parler de modèles de raisonnement IA qui aident à la fois à planifier des expériences et à les mener à bien.
Nous pourrions voir apparaître des systèmes hybrides dans lesquels un modèle de raisonnement propose un nouveau matériau, le simule, puis ordonne à un robot de le synthétiser.
La publication universitaire pourrait passer d’un processus de révision par les pairs qui dure plusieurs mois à une vérification assistée par l’IA qui ne prend que quelques jours.
Les petites start-ups disposant des bons modèles d’IA pourraient même surpasser les équipes de R&D géantes.
Et tout cela pourrait se produire sans grande intervention humaine.
Je sais que cela ressemble à de la science-fiction. Mais pensez à où nous en étions il y a seulement un an avec l’IA.
Vous pouvez voir visuellement les progrès de l’IA en 18 mois grâce à cette vidéo générative de Will Smith mangeant des pâtes…
Je ne fais que projeter la suite logique de ce que nous observons déjà.
Parfois, l’avenir arrive à grands pas.
Pour moi, nous sommes à l’un de ces moments.
A très vite,
Ian King
P.S. : Tous ces progrès de l’IA sont en train de changer la donne sur le marché crypto…
Si vous souhaitez profiter du boom de l’IA combiné à la puissance du marché crypto…
Je vous partage mon dossier spécial sur le sujet.
2 réponses
Bonjour
Merci et bravo.Je regrette d’avoir aujourd’hui 82. ans l’aventure du futur est passionnante et angoissante.mzis il semblerait que la majorité des jeunes sont déconnecté de cette certitude
Sans compter que les robots sont là et que l’ordinateur quantique va se montrer
Alors ma question : existe il des instituts ou . l’on étudie ce domaine
Merci beaucoup
Cordialement Michel ALONSO
Bonjour Michel,
Un grand merci pour votre message.
Vous avez raison : l’aventure de l’intelligence artificielle, des robots, et demain, de l’informatique quantique, est à la fois fascinante et vertigineuse. Beaucoup de jeunes s’y intéressent, parfois sans toujours en percevoir les enjeux à long terme — mais heureusement, il existe aussi une belle communauté intergénérationnelle de passionnés, chercheurs, et curieux comme vous, qui nourrissent la réflexion autour de ces sujets.
Pour répondre à votre question, la plupart de la recherche et développement en IA est désormais réalisée dans les milieux privés (Deepmind Google, Microsoft, Amazon, Meta, Nvidia, OpenAI, IBM…). Une étude de 2023 indique qu’environ 70 % des titulaires d’un doctorat en intelligence artificielle trouvent un emploi dans le secteur privé.
Il existe toutefois des universités actives dans la recherche sur l’IA comme l’université Stanford, l’université Carnegie Mellon ou le MIT aux États-Unis et l’université Tsinghua en Chine. Ces deux pays étant de loin les plus avancés dans la recherche sur l’intelligence artificielle à l’heure actuelle.
Amicalement,
Elie Bauer