Le laboratoire de recherche sur l’IA de Google appelle à une approche « responsable »
Le directeur commercial du laboratoire de recherche sur l’intelligence artificielle de Google a déclaré que le monde vivait un « moment d’eurêka » autour de l’intelligence artificielle, mais nous devons être responsables de la technologie.
L’explosion d’intérêt autour de l’IA est venue des avancées récentes de la technologie qui ont permis aux gens de l’utiliser avec un langage conversationnel, plutôt que des programmeurs qui s’y sont principalement essayés auparavant, a déclaré Colin Murdoch de DeepMind de Google.
« Tout d’un coup, c’est devenu beaucoup plus accessible parce que ma mère et mon père peuvent le faire », a-t-il déclaré lors d’une entrevue avec La Presse canadienne.
« N’importe qui peut le faire. »
L’augmentation du nombre de personnes et d’entreprises expérimentant l’IA a été déclenchée par la sortie l’année dernière de ChatGPT, un chatbot IA génératif capable de conversations et de tâches humaines qui a été développé par OpenAI, basé à San Francisco.
La sortie a lancé une course à l’IA avec d’autres grands noms de la technologie, dont Google et son produit rival Bard, mettant un coup de projecteur supplémentaire sur DeepMind, dont le siège social est au Royaume-Uni, mais qui dispose d’espaces à Montréal et à Toronto.
Désormais, tout le monde, des entreprises de soins de santé aux sociétés pétrolières et gazières et aux entreprises technologiques, vante son utilisation ou ses plans pour l’IA.
Mais Murdoch a déclaré que l’ubiquité doit être abordée avec une approche prudente et une réflexion approfondie sur tous les risques que comporte l’IA.
« La façon dont nous pensons à cela est d’être audacieux et responsable car c’est un équilibre », a-t-il déclaré.
« Ce dont nous voulons nous assurer, c’est que nous le faisons d’une manière qui permette à la société de bénéficier de l’incroyable potentiel de cette technologie, mais aussi la promesse exceptionnelle nécessite également une attention exceptionnelle, c’est pourquoi nous devons agir de manière responsable et pourquoi nous devons être pionniers de manière responsable. »
Mais à quoi ressemble une IA responsable ?
Chez Google, pour commencer, cela signifie être ouvert à la critique à chaque étape du processus de développement de l’IA.
La société s’appuie sur des comités d’examen internes et externes depuis le jour où une idée est générée jusqu’au moment où elle est diffusée pour un usage public, a déclaré Murdoch.
« Nous nous assurons que nous avons la bonne supervision de notre travail, donc, par exemple, nous avons des éthiciens assis aux côtés d’experts en politique assis aux côtés d’experts en apprentissage automatique », a-t-il déclaré.
« Ils testent le travail sous pression du début à la fin pour identifier comment nous maximisons les avantages du travail et également pour répondre aux changements potentiels que nous devons apporter. »
Parfois, ils poussent le personnel à parler à encore plus d’experts externes des ramifications, comme lorsqu’ils construisaient AlphaFold et que 30 personnes allant des experts en biologie aux professionnels de la biosécurité et aux agriculteurs ont été consultées.
AlphaFold peut prédire des modèles 3D de structures protéiques. Murdoch estime que la technologie a cartographié les 200 millions de protéines connues de la science, économisant un milliard d’années de temps de recherche dans le processus car elle peut déterminer la structure d’une protéine en quelques minutes et parfois même en secondes plutôt qu’en années.
Il a été utilisé par des chercheurs de l’Université de Toronto pour identifier une cible médicamenteuse pour le cancer du foie.
En plus de s’assurer que les produits impliquent des examens externes, Murdoch a déclaré qu’une IA responsable tient également compte des préjugés. Beaucoup disent que les préjugés apparaissent dans l’IA en raison d’un manque de diversité et d’opinions dans la phase de construction et de formation.
« Il est très important de s’assurer que les personnes qui construisent, déploient et les praticiens de l’IA reflètent d’une manière ou d’une autre la société au sens large », a-t-il déclaré.
L’éducation et l’implication de la communauté peuvent aider à résoudre le problème des préjugés tout en rendant l’industrie plus transparente, afin que les startups plus petites et moins dotées en ressources puissent apprendre des poids lourds comme Google.
Les remarques de Murdoch sont survenues lors d’une visite du Royaume-Uni à Toronto, où il a parlé mercredi lors de la conférence technologique Collision de quatre jours sur la façon dont il pense que l’IA change le monde.
Plus tard dans la journée, le pionnier de l’IA Geoffrey Hinton, qui a quitté Google pour pouvoir discuter plus librement des dangers de l’IA en mai, a pris la même scène pour discuter des pas de géant que la technologie a faits au cours de l’année dernière, ce que même lui n’a pas fait. prédire viendrait si tôt.
Hinton est profondément préoccupé par les implications de l’IA depuis des mois et mercredi, a décrit six dommages causés par la technologie, notamment les préjugés et la discrimination, le chômage, les chambres d’écho, les fausses nouvelles, les robots en guerre et le risque existentiel.
Bien qu’il ait déclaré que la technologie pourrait grandement aider l’humanité à aborder le changement climatique et la médecine, il a également averti qu’elle pourrait entraîner des changements dans les carrières et même la sécurité.
Par exemple, il a suggéré à l’enfant de Nick Thompson, le directeur général de l’Atlantique interviewant Hinton sur scène, de poursuivre la plomberie plutôt que les médias en raison de la capacité de l’IA à accomplir des tâches faisant partie intégrante des emplois non commerciaux.
Sur le plan existentiel, Hinton a déclaré qu’il s’inquiétait de la construction par les départements de la défense de robots de guerre qui nécessiteraient l’arrêt d’une convention internationale.
« Je pense qu’il est important que les gens comprennent que ce n’est pas seulement de la science-fiction, ce n’est pas seulement de la peur », a-t-il déclaré.
« C’est un risque réel auquel nous devons réfléchir, et nous devons déterminer à l’avance comment y faire face. »
Quant à Murdoch, il a déclaré que le monde ne devrait pas se concentrer sur un seul risque posé par l’IA, mais devrait plutôt adopter une approche « holistique » et se rappeler que nous en sommes encore aux premiers stades de l’utilisation et de l’intégration de cette technologie.
« Nous sommes toujours en quelque sorte sur le premier échelon et chaque échelon que nous montons, nous allons être plus puissants et capables. »
Ce rapport de La Presse canadienne a été publié pour la première fois le 29 juin 2023.