Comment l’IA peut être utilisée de manière malveillante avec le clonage de voix, les deepfakes
Lorsque OpenAI a lancé l’outil révolutionnaire ChatGPT en novembre 2022, il a changé le monde pour toujours, montrant que la révolution de l’intelligence artificielle est vraiment à nos portes. L’application de l’IA a contribué à un certain nombre d’avancées technologiques, telles que le développement de médias génératifs, etc.
Cependant, tout le monde n’est pas enthousiasmé par l’IA. Certains peuvent le voir comme une pièce de monnaie à double face qui a tout autant de potentiel de préjudice que de progrès.
Aujourd’hui, presque tout le monde que je connais utilise l’IA pour une raison ou une autre. Si la technologie devient entièrement intégrée aux moteurs de recherche en ligne, des requêtes telles que « Quel type d’aspirateur dois-je acheter? » ou « Planifiez un voyage au Mexique avec un budget de 3 000 $ », pourrait recevoir une réponse générée par l’IA. Le moteur de recherche Bing de Microsoft teste cette fonctionnalité auprès des utilisateurs depuis février.
Ces systèmes d’IA intégrés peuvent également avoir une clause de non-responsabilité similaire : l’IA est expérimentale et .
Malgré cela, l’IA est devenue un outil utile pour beaucoup. Des graphistes qui veulent rapidement éditer des conceptions aux écrivains à la recherche de titres créatifs et de programmes de planification de l’IA, il est difficile de nier que l’IA a de nombreuses utilisations créatives et pratiques.
Mais lorsqu’il est utilisé de manière inappropriée ou pour de mauvaises raisons, il peut avoir des conséquences désastreuses.
Prenons l’exemple de la préparation d’un dossier judiciaire. Les deux ont fini par citer des affaires judiciaires antérieures qui avaient été complètement inventées.
Même le fondateur d’OpenAI, Sam Altman, et d’autres « parrains de l’IA » ont .
Cependant, les fausses affaires judiciaires et les informations inexactes ne sont que la pointe de l’iceberg. Ci-dessous, je vais décrire quelques-uns des méfaits associés à l’IA et comment elle peut être utilisée pour des escroqueries, des fraudes et d’autres activités malveillantes.
1. CLONAGE DE LA VOIX
Aujourd’hui, les programmes pilotés par l’IA sont capables de prélever des échantillons de la voix de presque n’importe qui et de les recréer presque parfaitement, en utilisant des phrases courantes tout en faisant correspondre le ton et même l’accent des échantillons originaux.
Le clonage de voix par IA a déjà été utilisé dans un .
Par exemple, le clonage vocal pourrait contourner les systèmes d’authentification par mot de passe vocal des institutions financières, permettant aux escrocs d’accéder à des comptes bancaires privés.
Dans l’État américain de l’Arizona, un escroc a utilisé l’IA pour appeler un parent tout en se faisant passer pour son enfant. L’escroc a convaincu le parent que leur enfant avait été kidnappé et courait un grave danger avant d’exiger une rançon d’un million de dollars américains.
2. DEEPFAKES ET USURE D’IDENTITÉ
Les « Deepfakes » sont des vidéos générées par ordinateur qui peuvent être utilisées pour se faire passer pour quelqu’un et diffuser des informations erronées. Bien qu’ils n’aient généralement pas été les plus réalistes, un observateur attentif pourrait distinguer une vraie vidéo d’un deepfake.
Mais avec le clonage vidéo et audio généré par l’IA, les deepfakes sont devenus plus réalistes que jamais.
Certains YouTubers ingénieux et créateurs de cours en ligne utilisent la technologie pour les aider à produire du contenu. Cependant, il pourrait y avoir autant de personnes utilisant la technologie de manière malveillante, ce qui pourrait nuire à leur réputation.
3. PIRATAGE AUTOMATISÉ
L’une des applications les plus pratiques de l’IA est . L’IA peut générer des programmes entiers en une fraction du temps qu’il faudrait à un programmeur pour le faire manuellement. L’IA peut également parcourir des milliers de lignes de code en quelques secondes pour identifier les erreurs.
Mais l’IA peut également être utilisée pour le piratage automatisé. Les pirates peuvent utiliser des outils tels que ou des logiciels malveillants.
Ce qui nécessitait auparavant une équipe de hackers travaillant jour et nuit peut désormais être accompli par un seul modèle d’IA. C’est assez effrayant.
4. CHATBOTS ET VIE PRIVÉE
Récemment, il y a eu des inquiétudes concernant l’utilisation de chatbots lorsqu’il s’agit d’accéder à des données privées. Étant donné que les chatbots tels que ChatGPT sont encore dans leur phase de « test », les conversations sont enregistrées et utilisées pour améliorer leur précision et leur syntaxe.
Chaque fois que les utilisateurs créent un compte avec OpenAI ou utilisent Bing Chat, ils acceptent que leurs données puissent être utilisées à des fins de développement. Donc les utilisateurs.
Au début d’avril de cette année, le commissaire fédéral à la protection de la vie privée du Canada a introduit ChatGPT. Il est basé sur une allégation selon laquelle l’entreprise collecte et utilise des données personnelles sans le consentement de l’utilisateur.
À QUELLE MESURE L’IA EST-ELLE DANGEREUSE ?
Tout comme les débuts d’Internet, l’IA comporte de nombreux dangers potentiels. Des deepfakes au piratage automatisé, les risques pourraient presque être aussi importants que les avantages.
Lorsqu’elle est utilisée de manière responsable, l’IA peut être un outil inestimable. Mais il peut aussi être utilisé à des fins malveillantes par ceux qui ont les pires intentions.
Alors que certains responsables du monde entier poursuivent une réglementation plus stricte, comme la , la réalité est que l’IA est probablement là pour rester.
En fin de compte, c’est à vous de vous protéger des dangers potentiels de l’IA.
Christopher Liew est titulaire de la charte CFA et ancien conseiller financier. Il rédige des conseils sur les finances personnelles pour des milliers de lecteurs canadiens quotidiens sur son site Web Wealth Awesome.