OpenAI, l’un des leaders mondiaux dans le domaine de l’intelligence artificielle (IA), a récemment annoncé qu’elle offrirait 10 millions de dollars en subventions pour soutenir la recherche technique visant à contrôler les futurs systèmes d’IA qui surpassent largement les capacités humaines.
L’entreprise espère que ces subventions permettront de mieux comprendre comment les modèles puissants de généralisation peuvent évoluer à partir d’une supervision faible et comment il est possible d’utiliser les systèmes d’IA pour évaluer les résultats d’autres systèmes d’IA plus récents ou détecter les mensonges.
Table des matières
ToggleAlignement des systèmes d’IA avec les objectifs humains
Il est difficile d’évaluer correctement des millions de lignes de code. Pourtant, c’est une question cruciale lorsqu’il s’agit de garantir que l’ensemble du système soit conforme aux buts et aspirations de ses utilisateurs humains et responsable de leurs actions.
Dans ce contexte, OpenAI a lancé les « Superalignment Fast Grants » en collaboration avec Eric Schmidt, ancien PDG de Google.
Ces subventions, qui totalisent 10 millions de dollars, ont pour but de financer des recherches techniques sur l’alignement des systèmes d’IA surhumains, la généralisation faible à forte, l’interprétabilité, le contrôle évolutif et bien plus encore.
Les candidats ont jusqu’au 18 février pour soumettre leur demande.
Des bénéficiaires principalement académiques
Les subventions sont principalement destinées à soutenir les laboratoires universitaires, les organisations à but non lucratif et les chercheurs individuels. OpenAI a identifié sept pratiques clés pour assurer l’éthique et la responsabilité de l’IA et souhaite contribuer à financer les recherches permettant de répondre aux questions émergentes dans ce domaine.
Les bourses Superalignment visent ainsi à financer des projets de recherche allant de 10 000 à 100 000 dollars pour explorer l’impact des systèmes d’IA superintelligents et mettre en place des pratiques visant à assurer leur sécurité.
Un pas vers l’IA agentic : une intelligence artificielle autonome et fiable
Le PDG d’OpenAI, Sam Altman, a déclaré que l’entreprise avait commencé à entraîner sa prochaine génération de modèles qui pourrait être qualifiée de « superintelligente ».
Ce type d’intelligence artificielle est appelé un système IA « agentic », c’est-à-dire capable de réaliser une large gamme d’actions et suffisamment fiable pour que les utilisateurs puissent lui faire confiance et lui donner des objectifs complexes à accomplir de manière autonome.
Assurer la sécurité des systèmes d’IA de demain
Les chercheurs d’OpenAI estiment que la société ne pourra tirer pleinement parti des avantages offerts par ces systèmes d’IA superintelligents que si elle parvient à les rendre sûrs en atténuant leurs échecs, vulnérabilités et abus potentiels.
Il est donc essentiel de travailler dès maintenant sur l’évaluation de leur fiabilité et sur leurs mécanismes internes, notamment dans les cas où certaines actions devraient nécessiter une approbation humaine.
D’une IA impressionnante à une IA superintelligente
Les systèmes d’IA actuellement disponibles sont certes impressionnants, mais ils n’ont pas encore atteint le niveau de « superintelligence » auquel aspire OpenAI.
Le PDG Sam Altman affirme toutefois que l’entreprise s’en approche, et ce futur modèle pourrait bien détenir des indices précieux sur la manière de créer une intelligence artificielle véritablement capable de surpasser l’intelligence humaine.
OpenAI cherche donc à anticiper les défis liés à cette évolution et à contribuer activement à la recherche qui façonnera les normes éthiques et les cadres techniques de l’avenir de l’intelligence artificielle.