OpenAI dévoile un calendrier précis pour atteindre la superintelligence. Avec des objectifs clés pour 2026 (assistants-chercheurs IA) et 2028 (chercheurs entièrement autonomes), l'entreprise de Sam Altman engage des investissements colossaux pour transformer l'IA d'un simple outil conversationnel en un véritable moteur de découverte scientifique.
Lors d'une conférence en direct, Sam Altman et Jakub Pachocki, respectivement PDG et scientifique en chef d'OpenAI, ont pour la première fois présenté un calendrier précis adossé à une nouvelle structure d'entreprise.
Loin des annonces de produits comme ChatGPT, cette feuille de route dessine une transformation profonde de l'IA. Il s'agit désormais de passer d'un simple assistant répondant à des requêtes à un véritable partenaire de travail capable d'innover.
Pour y parvenir, l'entreprise prévoit des investissements qui donnent le tournis, parlant d'un engagement initial de 1400 milliards de dollars dans les infrastructures.
Un calendrier en deux temps : de l'assistant au chercheur
Le plan d'OpenAI se décompose en deux échéances majeures. Le premier jalon, fixé à septembre 2026, est la création d'assistants-chercheurs IA. Ce ne seront plus de simples chatbots, mais de modèles dotés de capacités de raisonnement étendues, capables de lire un document, de le comparer à d'autres travaux et de mettre en lumière des nouveautés ou des points à améliorer.
Ces IA pourraient suggérer des pistes de réflexion et prendre des décisions utiles de manière autonome, accélérant ainsi de manière significative le travail des chercheurs humains.
L'automatisation de la science, un objectif pour 2028 ?
L'étape suivante, prévue pour mars 2028, est bien plus radicale : l'avènement de chercheurs IA entièrement autonomes. Ici, l'IA ne se contente plus d'assister ; elle agit comme un scientifique à part entière.
Elle pourrait concevoir des expériences, les tester de manière indépendante et présenter ses résultats à un humain. Sam Altman imagine des systèmes capables de repousser les frontières de la science, transformant l'IA en un collègue plutôt qu'un outil. Cette vision soulève évidemment des questions profondes sur l'avenir du travail et le rôle de l'humain dans la découverte scientifique.
Une infrastructure pharaonique pour nourrir l'ambition
Pour concrétiser cette vision, OpenAI ne lésine pas sur les moyens et s'engage dans des investissements colossaux. L'entreprise a annoncé avoir déjà engagé plus de 30 gigawatts (GW) d'infrastructures.
Altman a précisé que ce chiffre n'était qu'un point de départ. L'objectif à terme est de créer des "usines d'infrastructure" capables de générer une puissance de calcul de 1 GW par semaine.
Une telle puissance est indispensable pour entraîner des modèles toujours plus complexes et soutenir le développement de la superintelligence.
Au-delà de la technique, les enjeux de sécurité
Conscient des risques associés à des systèmes aussi puissants, Jakub Pachocki a présenté un cadre de sécurité à cinq niveaux. Ce cadre va bien au-delà de la simple modération et s'attaque aux fondements même du comportement de l'IA.
La pierre angulaire est l'alignement des valeurs, qui vise à garantir que les objectifs profonds de l'IA restent bénéfiques pour l'humanité, même lorsqu'elle résout des problèmes hors de notre portée.
D'autres couches incluent la fiabilité, la robustesse face aux attaques et la sécurité systémique, encadrant l'accès de l'IA aux données et aux outils externes. Cette approche veut répondre aux critiques et démontrer que pour OpenAI, la course à la puissance ne peut se faire sans garde-fous solides.
Sam Altman insiste sur le fait que l'arrivée de l'AGI ne sera pas un événement ponctuel, mais une transition étalée sur plusieurs années. Avec ce calendrier, OpenAI veut autant prédire l'avenir que le construire activement.
Il reste à voir comment la société s'adaptera à une ère où l'intelligence artificielle ne se contentera plus de nous répondre, mais travaillera à nos côtés, et si les investisseurs suivront tout au long de ce périple vers la superintelligence, alors que certains prédisent l'éclatement d'une bulle spéculative autour de l'IA.