OpenAI met en garde contre les IA « super intelligentes »
La Commission européenne et le Conseil de l’Europe ont signé un protocole d’accord.
OpenAI, cofondée par Elon Musk, a récemment publié un article de blog discutant des facteurs importants qui doivent être pris en compte lors du développement de l’intelligence artificielle (IA) à l’avenir. Le PDG, Sam Altman, le président Greg Brockman et le scientifique en chef Ilya Sutskever ont évoqué la nécessité d’une réglementation stricte en ce qui concerne l’émergence potentielle d’une IA « superintelligente », qui, selon eux, pourrait se produire au cours des dix prochaines années.
« La gouvernance de la superintelligence »
Le trio a proposé trois points cruciaux qui doivent être pris en compte dans la poursuite de la planification stratégique future. Premièrement, OpenAI préconise un équilibre entre le contrôle et l’innovation, qui maintiendra la sécurité tout en facilitant l’intégration de l’IA dans la société. Deuxièmement, ils ont proposé la création d’une « autorité internationale » qui superviserait l’inspection des systèmes d’IA, l’application des normes de sécurité, les tests de conformité et les restrictions de sécurité en matière de déploiement.
Maintenir le contrôle sur la superintelligence
Enfin, l’OpenAI a souligné l’importance du maintien des capacités techniques pour assurer le contrôle de la superintelligence tout en la gardant en sécurité. Les auteurs du billet de blog mettent en garde contre les mesures réglementaires onéreuses qui pourraient conduire à l’audit et à l’octroi de licences pour des technologies qui ne répondent pas aux critères de qualification de la superintelligence.
L’objectif est d’éviter un « scénario foom », c’est-à-dire une explosion incontrôlable des capacités de l’IA qui pourrait dépasser le contrôle humain. L’OpenAI souligne l’impact catastrophique potentiel que le développement incontrôlé de modèles d’IA pourrait avoir sur les sociétés futures. Toutefois, si des mesures de protection efficaces sont mises en œuvre et que les trois points sont pris en compte lors du développement de l’IA, les auteurs reconnaissent que le potentiel de la technologie pour améliorer la société est immense.
Défis à venir
Les dirigeants de l’OpenAI reconnaissent le rythme accéléré auquel l’espace se développe et soulignent la nécessité de relever les défis liés à un développement incontrôlé, tels que l’émergence d’un « scénario foom ». Les auteurs reconnaissent que si l’espace se développe rapidement, il serait impossible d’arrêter ou d’entraver les progrès de l’IA sans prendre des mesures drastiques telles qu’un régime de surveillance mondial.
L’appel à une gouvernance et à une réglementation proactives de l’IA
L’appel urgent du billet de blog en faveur d’une approche proactive de la gouvernance et de la réglementation de l’IA a attiré l’attention des régulateurs du monde entier. Les dirigeants de l’OpenAI estiment qu’une fois les problèmes de gouvernance, de gestion des risques et de conformité résolus, le potentiel de l’IA pour améliorer nos sociétés est immense. Cependant, le défi reste de savoir comment développer les capacités techniques nécessaires pour assurer la sécurité de la superintelligence. La réponse n’est pas encore connue, mais les dirigeants de l’OpenAI s’engagent à la trouver.