Chatbot : problèmes de confidentialité soulevés | Nouvelles de CTV
Alors que le secteur technologique se précipite pour développer et déployer une série de nouveaux chatbots IA puissants, leur adoption généralisée a suscité un nouvel ensemble de préoccupations en matière de confidentialité des données parmi certaines entreprises, régulateurs et observateurs de l’industrie.
Certaines entreprises, dont JPMorgan Chase, ont réprimé l’utilisation par les employés de ChatGPT, le chatbot viral d’IA qui a lancé la course aux armements de l’IA de Big Tech, en raison de problèmes de conformité liés à l’utilisation par les employés de logiciels tiers.
Cela n’a fait qu’accroître les inquiétudes croissantes en matière de confidentialité lorsque OpenAI, la société à l’origine de ChatGPT, a révélé qu’elle devait temporairement mettre l’outil hors ligne le 20 mars pour corriger un bogue qui permettait à certains utilisateurs de voir les lignes d’objet de l’historique de discussion des autres utilisateurs.
Le même bogue, désormais corrigé, permettait également « à certains utilisateurs de voir le prénom et le nom, l’adresse e-mail, l’adresse de paiement, les quatre derniers chiffres (uniquement) d’un numéro de carte de crédit et la date d’expiration de la carte de crédit d’un autre utilisateur actif, » a déclaré OpenAI dans un article de blog.
Et pas plus tard que la semaine dernière, les régulateurs italiens ont émis une interdiction temporaire de ChatGPT dans le pays, invoquant des problèmes de confidentialité après qu’OpenAI a révélé la violation.
UNE « BOÎTE NOIRE » DE DONNÉES
« Les considérations de confidentialité avec quelque chose comme ChatGPT ne peuvent pas être surestimées », a déclaré à CNN Mark McCreary, coprésident de la pratique de confidentialité et de sécurité des données du cabinet d’avocats Fox Rothschild LLP. « C’est comme une boîte noire. »
Avec ChatGPT, qui a été lancé au public fin novembre, les utilisateurs peuvent générer des essais, des histoires et des paroles de chansons simplement en tapant des invites.
Depuis, Google et Microsoft ont également déployé des outils d’intelligence artificielle, qui fonctionnent de la même manière et sont alimentés par de grands modèles de langage formés sur de vastes quantités de données en ligne.
Lorsque les utilisateurs saisissent des informations dans ces outils, McCreary a déclaré: « Vous ne savez pas comment cela va ensuite être utilisé. » Cela suscite des inquiétudes particulièrement fortes pour les entreprises. Alors que de plus en plus d’employés adoptent avec désinvolture ces outils pour les aider avec les e-mails professionnels ou les notes de réunion, McCreary a déclaré : « Je pense que la possibilité pour les secrets commerciaux de l’entreprise d’être déposés dans ces différentes IA va simplement augmenter. »
Steve Mills, responsable de l’éthique de l’IA au Boston Consulting Group, a également déclaré à CNN que le plus grand problème de confidentialité que la plupart des entreprises ont autour de ces outils est la « divulgation par inadvertance d’informations sensibles ».
« Vous avez tous ces employés qui font des choses qui peuvent sembler très anodines, comme » Oh, je peux utiliser cela pour résumer les notes d’une réunion « », a déclaré Mills. « Mais en collant les notes de la réunion dans l’invite, vous divulguez soudainement, potentiellement, tout un tas d’informations sensibles. »
Si les données saisies par les personnes sont utilisées pour former davantage ces outils d’IA, comme l’ont déclaré de nombreuses entreprises derrière les outils, alors vous avez « perdu le contrôle de ces données, et quelqu’un d’autre les a », a ajouté Mills.
UNE POLITIQUE DE CONFIDENTIALITÉ DE 2 000 MOTS
OpenAI, la société soutenue par Microsoft à l’origine de ChatGPT, déclare dans sa politique de confidentialité qu’elle collecte toutes sortes d’informations personnelles auprès des personnes qui utilisent ses services. Il indique qu’il peut utiliser ces informations pour améliorer ou analyser ses services, effectuer des recherches, communiquer avec les utilisateurs et développer de nouveaux programmes et services, entre autres.
La politique de confidentialité stipule qu’il peut fournir des informations personnelles à des tiers sans préavis à l’utilisateur, sauf si la loi l’exige. Si la politique de confidentialité de plus de 2 000 mots semble un peu opaque, c’est probablement parce qu’elle est pratiquement devenue la norme de l’industrie à l’ère d’Internet. OpenAI dispose également d’un document de conditions d’utilisation distinct, qui oblige l’utilisateur à prendre les mesures appropriées lors de l’utilisation de ses outils.
OpenAI a également publié mercredi un nouveau billet de blog décrivant son approche de la sécurité de l’IA. « Nous n’utilisons pas de données pour vendre nos services, faire de la publicité ou créer des profils de personnes – nous utilisons des données pour rendre nos modèles plus utiles pour les gens », indique le billet de blog. « ChatGPT, par exemple, s’améliore grâce à une formation supplémentaire sur les conversations que les gens ont avec lui. »
La politique de confidentialité de Google, qui inclut son outil Bard, est également longue et propose des conditions de service supplémentaires pour ses utilisateurs génératifs d’IA. La société déclare que pour aider à améliorer Bard tout en protégeant la vie privée des utilisateurs, « nous sélectionnons un sous-ensemble de conversations et utilisons des outils automatisés pour aider à supprimer les informations personnellement identifiables ».
« Ces exemples de conversations peuvent être examinés par des examinateurs formés et conservés jusqu’à 3 ans, séparément de votre compte Google », déclare la société dans une FAQ distincte pour Bard. La société met également en garde : « N’incluez pas d’informations pouvant être utilisées pour vous identifier ou identifier d’autres personnes dans vos conversations Bard. » La FAQ indique également que les conversations Bard ne sont pas utilisées à des fins publicitaires, et « nous communiquerons clairement toute modification de cette approche à l’avenir ».
Google a également déclaré à CNN que les utilisateurs peuvent « choisir facilement d’utiliser Bard sans enregistrer leurs conversations sur leur compte Google ». Les utilisateurs de Bard peuvent également consulter leurs invites ou supprimer des conversations Bard via ce lien. « Nous avons également mis en place des garde-corps conçus pour empêcher Bard d’inclure des informations personnellement identifiables dans ses réponses », a déclaré Google.
« Nous sommes encore en train d’apprendre exactement comment tout cela fonctionne », a déclaré Mills à CNN. « Vous ne savez tout simplement pas exactement comment les informations que vous insérez, si elles sont utilisées pour recycler ces modèles, comment elles se manifestent en tant que sorties à un moment donné, ou si c’est le cas. »
Mills a ajouté que parfois les utilisateurs et les développeurs ne réalisent même pas les risques de confidentialité qui se cachent avec les nouvelles technologies jusqu’à ce qu’il soit trop tard. Un exemple qu’il a cité était les premières fonctionnalités de saisie semi-automatique, dont certaines ont fini par avoir des conséquences inattendues, comme la saisie d’un numéro de sécurité sociale qu’un utilisateur a commencé à taper – souvent à l’alarme et à la surprise de l’utilisateur.
En fin de compte, Mills a déclaré: « Mon point de vue en ce moment, c’est que vous ne devriez rien mettre dans ces outils dont vous ne voulez pas supposer qu’il sera partagé avec d’autres. »