Kamala Harris rencontrera des PDG à propos de l’IA
Le vice-président Kamala Harris rencontrera jeudi les PDG de quatre grandes entreprises développant l’intelligence artificielle alors que l’administration Biden déploie un ensemble d’initiatives destinées à garantir que la technologie en évolution rapide améliore la vie sans mettre en danger les droits et la sécurité des personnes.
L’administration démocrate prévoit d’annoncer un investissement de 140 millions de dollars pour créer sept nouveaux instituts de recherche sur l’IA, ont déclaré des responsables de l’administration aux journalistes lors d’un aperçu de l’effort.
En outre, le Bureau de la gestion et du budget de la Maison Blanche devrait publier dans les prochains mois des directives sur la manière dont les agences fédérales peuvent utiliser les outils d’IA. Il y aura également un engagement indépendant des meilleurs développeurs d’IA à participer à une évaluation publique de leurs systèmes en août lors de la convention des hackers DEF CON à Las Vegas.
Harris et les responsables de l’administration prévoient jeudi de discuter des risques qu’ils voient dans le développement actuel de l’IA avec les PDG d’Alphabet, Anthropic, Microsoft et OpenAI. Le message des chefs de gouvernement aux entreprises est qu’elles ont un rôle à jouer dans la réduction des risques et qu’elles peuvent collaborer avec le gouvernement.
Les autorités du Royaume-Uni ont également déclaré jeudi qu’elles examinaient les risques associés à l’IA. L’organisme britannique de surveillance de la concurrence a déclaré qu’il ouvrait un examen du marché de l’IA, en se concentrant sur la technologie sous-jacente aux chatbots comme ChatGPT, qui a été développé par OpenAI.
Le président Joe Biden a noté le mois dernier que l’IA peut aider à lutter contre les maladies et le changement climatique, mais pourrait également nuire à la sécurité nationale et perturber l’économie de manière déstabilisante.
La sortie du chatbot ChatGPT à la fin de l’année dernière a conduit à un débat accru sur l’IA et le rôle du gouvernement avec la technologie. La capacité des dernières technologies à générer une écriture humaine et de fausses images a ajouté aux préoccupations éthiques et sociétales concernant les systèmes automatisés.
Certaines entreprises, dont OpenAI, ont gardé le secret sur les données sur lesquelles leurs systèmes d’IA ont été formés. Cela rend plus difficile de comprendre pourquoi un chatbot produit des réponses biaisées ou fausses aux demandes ou pour répondre aux préoccupations quant à savoir s’il vole des œuvres protégées par le droit d’auteur.
Les entreprises craignant d’être responsables de quelque chose dans leurs données de formation pourraient également ne pas être incitées à les suivre rigoureusement, a déclaré Margaret Mitchell, scientifique en chef de l’éthique chez AI startup Hugging Face.
« Je pense qu’il pourrait ne pas être possible pour OpenAI de détailler toutes ses données de formation à un niveau de détail qui serait vraiment utile en termes de certaines des préoccupations concernant le consentement, la confidentialité et les licences », a déclaré Mitchell dans une interview mardi. « D’après ce que je sais de la culture technologique, cela ne se fait tout simplement pas. »
Théoriquement, au moins, une sorte de loi sur la divulgation pourrait obliger les fournisseurs d’IA à ouvrir leurs systèmes à un examen plus approfondi par des tiers. Mais avec les systèmes d’IA construits sur les modèles précédents, il ne sera pas facile pour les entreprises d’offrir une plus grande transparence après coup.
« Je pense que ce sera vraiment aux gouvernements de décider si cela signifie que vous devez jeter tout le travail que vous avez fait ou non », a déclaré Mitchell. « Bien sûr, j’imagine en quelque sorte qu’au moins aux États-Unis, les décisions pencheront vers les entreprises et soutiendront le fait que cela a déjà été fait. Cela aurait des ramifications si massives si toutes ces entreprises devaient essentiellement jeter tout ce travail et recommencer. »
Alors que la Maison Blanche a signalé jeudi une approche collaborative avec l’industrie, les entreprises qui construisent ou utilisent l’IA font également l’objet d’un examen minutieux de la part d’agences américaines telles que la Federal Trade Commission, qui applique la protection des consommateurs et les lois antitrust.
Les entreprises sont également confrontées à des règles potentiellement plus strictes dans l’Union européenne, où les négociateurs mettent la touche finale à la réglementation sur l’IA proposée pour la première fois il y a deux ans. Les règles pourraient propulser le bloc des 27 nations à l’avant-garde de la poussée mondiale pour établir des normes pour la technologie.
Lorsque l’UE a élaboré pour la première fois sa proposition de règles sur l’IA en 2021, l’accent était mis sur la limitation des applications à haut risque qui menacent la sécurité ou les droits des personnes, telles que la numérisation faciale en direct ou les systèmes gouvernementaux de notation sociale, qui jugent les personnes en fonction de leur comportement. Les chatbots étaient à peine mentionnés.
Mais compte tenu de la rapidité avec laquelle la technologie de l’IA s’est développée, les négociateurs à Bruxelles se sont efforcés de mettre à jour leurs propositions afin de prendre en compte les systèmes d’IA à usage général. Les dispositions ajoutées au projet de loi exigeraient que les modèles d’IA de base divulguent le matériel protégé par le droit d’auteur utilisé pour former les systèmes, selon une récente ébauche partielle de la législation obtenue par l’Associated Press.
Les modèles de base sont une sous-catégorie d’IA à usage général qui comprend des systèmes comme ChatGPT. Leurs algorithmes sont entraînés sur de vastes pools de données.
Une commission du Parlement européen doit voter la semaine prochaine sur le projet de loi, mais il faudra peut-être des années avant que la loi sur l’IA n’entre en vigueur.
Ailleurs en Europe, l’Italie a temporairement interdit ChatGPT en raison d’une violation des règles européennes strictes en matière de confidentialité, et le Comité européen de la protection des données a mis en place un groupe de travail sur l’IA, dans une première étape possible pour élaborer des règles communes de confidentialité en matière d’IA.
——
O’Brien a rapporté de Cambridge, Massachusetts. AP Business Writer Kelvin Chan à Londres a contribué à ce rapport.