Kamala Harris rencontrera des PDG à propos de l’IA
Le vice-président Kamala Harris a rencontré jeudi les dirigeants de Google, Microsoft et de deux autres sociétés développant l’intelligence artificielle alors que l’administration Biden déploie des initiatives destinées à garantir que la technologie en évolution rapide améliore la vie sans mettre en danger les droits et la sécurité des personnes.
Le président Joe Biden a brièvement participé à la réunion dans la salle Roosevelt de la Maison Blanche, affirmant qu’il espérait que le groupe pourrait « nous éduquer » sur ce qui est le plus nécessaire pour protéger et faire progresser la société.
« Ce que vous faites a un potentiel énorme et un danger énorme », a déclaré Biden aux PDG, selon une vidéo publiée sur son compte Twitter.
La popularité du chatbot d’IA ChatGPT – même Biden l’a essayé, ont déclaré jeudi des responsables de la Maison Blanche – a déclenché une vague d’investissements commerciaux dans des outils d’IA capables d’écrire des textes convaincants de type humain et de produire de nouvelles images, de la musique et de l’ordinateur. code.
Mais la facilité avec laquelle il peut imiter les humains a poussé les gouvernements du monde entier à réfléchir à la manière dont il pourrait supprimer des emplois, tromper les gens et répandre la désinformation.
L’administration démocrate a annoncé un investissement de 140 millions de dollars pour créer sept nouveaux instituts de recherche sur l’IA.
En outre, le Bureau de la gestion et du budget de la Maison Blanche devrait publier dans les prochains mois des directives sur la manière dont les agences fédérales peuvent utiliser les outils d’IA. Il existe également un engagement indépendant des meilleurs développeurs d’IA à participer à une évaluation publique de leurs systèmes en août lors de la convention de hackers DEF CON de Las Vegas.
Mais la Maison Blanche doit également prendre des mesures plus fortes alors que les systèmes d’IA construits par ces entreprises sont intégrés dans des milliers d’applications grand public, a déclaré Adam Conner du Center for American Progress, à tendance libérale.
« Nous sommes à un moment qui, au cours des deux prochains mois, déterminera vraiment si nous menons ou non sur ce point ou si nous cédons le leadership à d’autres parties du monde, comme nous l’avons fait dans d’autres espaces réglementaires technologiques comme la confidentialité ou la réglementation des grandes plateformes en ligne, « , a déclaré Conner.
La réunion a été présentée comme un moyen pour Harris et les responsables de l’administration de discuter des risques liés au développement actuel de l’IA avec le PDG de Google Sundar Pichai, le PDG de Microsoft Satya Nadella et les chefs de deux startups influentes : Anthropic soutenu par Google et OpenAI soutenu par Microsoft, le fabricant de ChatGPT.
Harris a déclaré dans un communiqué après la réunion à huis clos qu’elle avait dit aux dirigeants que « le secteur privé a la responsabilité éthique, morale et légale d’assurer la sûreté et la sécurité de leurs produits ».
ChatGPT a mené une vague de nouveaux outils « d’IA générative » ajoutant aux préoccupations éthiques et sociétales concernant les systèmes automatisés formés sur de vastes pools de données.
Certaines entreprises, dont OpenAI, ont gardé le secret sur les données sur lesquelles leurs systèmes d’IA ont été formés. Cela rend plus difficile de comprendre pourquoi un chatbot produit des réponses biaisées ou fausses aux demandes ou pour répondre aux préoccupations quant à savoir s’il vole des œuvres protégées par le droit d’auteur.
Les entreprises inquiètes d’être responsables de quelque chose dans leurs données de formation pourraient également ne pas être incitées à les suivre rigoureusement d’une manière qui serait utile « en termes de certaines des préoccupations concernant le consentement, la confidentialité et les licences », a déclaré Margaret Mitchell, scientifique en chef de l’éthique à la startup AI Hugging Face.
« D’après ce que je sais de la culture technologique, cela ne se fait tout simplement pas », a-t-elle déclaré.
Certains ont appelé à des lois sur la divulgation pour forcer les fournisseurs d’IA à ouvrir leurs systèmes à un examen plus approfondi par des tiers. Mais avec les systèmes d’IA construits sur les modèles précédents, il ne sera pas facile de fournir une plus grande transparence après coup.
« Ce sera vraiment aux gouvernements de décider si cela signifie que vous devez jeter tout le travail que vous avez fait ou non », a déclaré Mitchell. « Bien sûr, j’imagine en quelque sorte qu’au moins aux États-Unis, les décisions pencheront vers les entreprises et soutiendront le fait que cela a déjà été fait. Cela aurait des ramifications si massives si toutes ces entreprises devaient essentiellement jeter tout ce travail et recommencer. »
Alors que la Maison Blanche a signalé jeudi une approche collaborative avec l’industrie, les entreprises qui construisent ou utilisent l’IA font également l’objet d’un examen minutieux de la part d’agences américaines telles que la Federal Trade Commission, qui applique la protection des consommateurs et les lois antitrust.
Les entreprises sont également confrontées à des règles potentiellement plus strictes dans l’Union européenne, où les négociateurs mettent la touche finale à la réglementation sur l’IA qui pourrait propulser le bloc des 27 nations à l’avant-garde de la poussée mondiale visant à établir des normes pour la technologie.
Lorsque l’UE a élaboré pour la première fois sa proposition de règles sur l’IA en 2021, l’accent était mis sur la limitation des applications à haut risque qui menacent la sécurité ou les droits des personnes, telles que la numérisation faciale en direct ou les systèmes gouvernementaux de notation sociale, qui jugent les personnes en fonction de leur comportement. Les chatbots étaient à peine mentionnés.
Mais compte tenu de la rapidité avec laquelle la technologie de l’IA s’est développée, les négociateurs à Bruxelles se sont efforcés de mettre à jour leurs propositions afin de prendre en compte les systèmes d’IA à usage général tels que ceux construits par OpenAI. Les dispositions ajoutées au projet de loi exigeraient que les modèles d’IA de base divulguent le matériel protégé par le droit d’auteur utilisé pour former les systèmes, selon une récente ébauche partielle de la législation obtenue par l’Associated Press.
Une commission du Parlement européen doit voter la semaine prochaine sur le projet de loi, mais il faudra peut-être des années avant que la loi sur l’IA n’entre en vigueur.
Ailleurs en Europe, l’Italie a temporairement interdit ChatGPT en raison d’une violation des règles européennes strictes en matière de confidentialité, et l’organisme britannique de surveillance de la concurrence a annoncé jeudi qu’il ouvrait un examen du marché de l’IA.
Aux États-Unis, mettre les systèmes d’IA à l’inspection publique lors de la conférence sur les hackers DEF CON pourrait être une nouvelle façon de tester les risques, mais probablement pas aussi approfondie qu’un audit prolongé, a déclaré Heather Frase, chercheuse principale au Center for Security and Security de l’Université de Georgetown. Technologie émergente.
Outre Google, Microsoft, OpenAI et Anthropic, les entreprises qui, selon la Maison Blanche, ont accepté de participer incluent Hugging Face, le fabricant de puces Nvidia et Stability AI, connu pour son générateur d’images Stable Diffusion.
« Ce serait un moyen pour des personnes très qualifiées et créatives de le faire en une seule sorte de grande rafale », a déclaré Frase.
——
O’Brien a rapporté de Cambridge, Massachusetts. Les rédacteurs de l’AP Seung Min Kim à Washington et Kelvin Chan à Londres ont contribué à ce rapport.