Le patron de ChatGPT dit aux législateurs américains que l’IA « peut mal tourner »
Le chef de la société d’intelligence artificielle qui fabrique ChatGPT a déclaré mardi au Congrès que l’intervention du gouvernement sera essentielle pour atténuer les risques de systèmes d’IA de plus en plus puissants.
« Alors que cette technologie progresse, nous comprenons que les gens s’inquiètent de la façon dont cela pourrait changer notre façon de vivre. Nous le sommes aussi », a déclaré le PDG d’OpenAI, Sam Altman, lors d’une audience au Sénat.
Altman a proposé la création d’une agence américaine ou mondiale qui accorderait une licence aux systèmes d’IA les plus puissants et aurait le pouvoir de « retirer cette licence et de garantir le respect des normes de sécurité ».
Sa startup basée à San Francisco a attiré l’attention du public après la sortie de ChatGPT à la fin de l’année dernière. L’outil de chatbot gratuit répond aux questions avec des réponses convaincantes de type humain.
Ce qui a commencé comme une panique parmi les éducateurs à propos de l’utilisation de ChatGPT pour tricher sur les devoirs s’est étendu à des préoccupations plus larges concernant la capacité de la dernière génération d’outils « d’IA générative » à induire les gens en erreur, à répandre des mensonges, à violer les protections du droit d’auteur et à bouleverser certains emplois.
Et bien qu’il n’y ait aucun signe immédiat que le Congrès élaborera de nouvelles règles radicales sur l’IA, comme le font les législateurs européens, les préoccupations sociétales ont amené Altman et d’autres PDG de la technologie à la Maison Blanche au début du mois et ont conduit les agences américaines à promettre de sévir contre les produits d’IA nocifs. qui enfreignent les lois existantes sur les droits civils et la protection des consommateurs.
Le sénateur Richard Blumenthal, le démocrate du Connecticut qui préside le sous-comité du comité judiciaire du Sénat sur la vie privée, la technologie et la loi, a ouvert l’audience avec un discours enregistré qui ressemblait au sénateur, mais était en fait un clone de voix formé sur les discours au sol de Blumenthal et récitant ChatGPT – remarques liminaires écrites.
Le résultat a été impressionnant, a déclaré Blumenthal, mais il a ajouté : « Et si je l’avais demandé, et si cela avait fourni, une approbation de la capitulation de l’Ukraine ou du leadership du (président russe) Vladimir Poutine ? »
Le ton général des questions des sénateurs était poli mardi, un contraste avec les audiences précédentes du Congrès au cours desquelles les dirigeants de la technologie et des médias sociaux ont été confrontés à des grillages difficiles sur les échecs de l’industrie à gérer la confidentialité des données ou à lutter contre la désinformation nuisible. C’est en partie parce que les démocrates et les républicains ont déclaré qu’ils étaient intéressés par l’expertise d’Altman pour éviter des problèmes qui ne se sont pas encore produits.
Blumenthal a déclaré que les entreprises d’IA devraient être tenues de tester leurs systèmes et de divulguer les risques connus avant de les publier, et a exprimé une inquiétude particulière quant à la façon dont les futurs systèmes d’IA pourraient déstabiliser le marché du travail. Altman était largement d’accord, mais avait une vision plus optimiste de l’avenir du travail.
Pressé par sa pire peur à propos de l’IA, Altman a surtout évité les détails, sauf pour dire que l’industrie pourrait causer « un préjudice important au monde » et que « si cette technologie tourne mal, elle peut mal tourner ».
Mais il a ensuite proposé qu’une nouvelle agence de réglementation impose des garanties qui bloqueraient les modèles d’IA qui pourraient « s’auto-répliquer et s’auto-exfiltrer dans la nature » – faisant allusion aux préoccupations futuristes concernant les systèmes d’IA avancés qui pourraient manipuler les humains pour qu’ils cèdent le contrôle.
Cette concentration sur un « trope de science-fiction » lointain d’une IA super puissante pourrait rendre plus difficile la prise de mesures contre les dommages déjà existants qui obligent les régulateurs à approfondir la transparence des données, les comportements discriminatoires et le potentiel de tromperie et de désinformation, a déclaré un ancien Fonctionnaire de l’administration Biden qui a co-écrit son plan pour une déclaration des droits de l’IA.
« C’est la peur de ces systèmes (super puissants) et notre manque de compréhension à leur sujet qui font que tout le monde panique collectivement », a déclaré Suresh Venkatasubramanian, un informaticien de l’Université Brown qui était directeur adjoint pour la science et la justice au Bureau de la politique scientifique et technologique de la Maison Blanche. « Cette peur, qui est très infondée, est une distraction de toutes les préoccupations auxquelles nous sommes confrontés en ce moment. »
OpenAI a exprimé ces préoccupations existentielles depuis sa création. Cofondée par Altman en 2015 avec le soutien du milliardaire technologique Elon Musk, la startup est passée d’un laboratoire de recherche à but non lucratif avec une mission axée sur la sécurité à une entreprise. Ses autres produits d’IA populaires incluent le créateur d’images DALL-E. Microsoft a investi des milliards de dollars dans la startup et a intégré sa technologie dans ses propres produits, dont son moteur de recherche Bing.
Altman prévoit également de se lancer dans une tournée mondiale ce mois-ci dans les capitales nationales et les grandes villes des six continents pour parler de la technologie avec les décideurs politiques et le public. À la veille de son témoignage au Sénat, il a dîné avec des dizaines de législateurs américains, dont plusieurs ont déclaré à CNBC qu’ils étaient impressionnés par ses commentaires.
Christina Montgomery, responsable de la confidentialité et de la confiance d’IBM, et Gary Marcus, professeur émérite à l’Université de New York, qui faisait partie d’un groupe d’experts en IA qui ont appelé OpenAI et d’autres entreprises technologiques à suspendre leur développement de modèles d’IA plus puissants pour six mois pour donner à la société plus de temps pour évaluer les risques. La lettre était une réponse à la sortie en mars du dernier modèle d’OpenAI, GPT-4, décrit comme plus puissant que ChatGPT.
Le républicain de rang du panel, le sénateur Josh Hawley du Missouri, a déclaré que la technologie avait de grandes implications pour les élections, les emplois et la sécurité nationale. Il a déclaré que l’audience de mardi marquait « une première étape cruciale vers la compréhension de ce que le Congrès devrait faire ».
Un certain nombre de leaders de l’industrie technologique ont déclaré qu’ils se félicitaient d’une certaine forme de surveillance de l’IA, mais ont mis en garde contre ce qu’ils considèrent comme des règles trop lourdes. Altman et Marcus ont tous deux appelé à un régulateur axé sur l’IA, de préférence international, Altman citant le précédent de l’agence nucléaire de l’ONU et Marcus le comparant à la Food and Drug Administration des États-Unis. Mais Montgomery d’IBM a plutôt demandé au Congrès d’adopter une approche de « réglementation de précision ».
« Nous pensons que l’IA devrait être réglementée au point de risque, essentiellement », a déclaré Montgomery, en établissant des règles qui régissent le déploiement d’utilisations spécifiques de l’IA plutôt que la technologie elle-même.