Microsoft dévoile un chatbot IA plus sécurisé
Microsoft a annoncé mardi une version plus sécurisée de son Bing alimenté par l’IA spécifiquement pour les entreprises et conçue pour garantir aux professionnels qu’ils peuvent partager en toute sécurité des informations potentiellement sensibles avec un chatbot.
Avec Bing Chat Enterprise, les données de chat de l’utilisateur ne seront pas enregistrées, envoyées aux serveurs de Microsoft
« Qu’est-ce que ça [update] Cela signifie que vos données ne fuient pas en dehors de l’organisation », a déclaré Yusuf Mehdi, vice-président de Microsoft et directeur du marketing grand public, à CNN dans une interview. « Nous ne mélangeons pas vos données avec des données Web, et nous ne les enregistrons pas sans votre permission. Ainsi, aucune donnée n’est enregistrée sur les serveurs et nous n’utilisons aucun de vos chats de données pour former les modèles d’IA. »
Depuis le lancement de ChatGPT à la fin de l’année dernière, une nouvelle génération d’outils d’IA puissants a offert la promesse de rendre les travailleurs plus productifs. Mais ces derniers mois, certaines entreprises telles que JPMorgan Chase ont interdit l’utilisation de ChatGPT parmi leurs employés, invoquant des problèmes de sécurité et de confidentialité. D’autres grandes entreprises auraient pris des mesures similaires en raison de préoccupations concernant le partage d’informations confidentielles avec des chatbots d’IA.
En avril, les régulateurs italiens ont émis une interdiction temporaire de ChatGPT dans le pays après qu’OpenAI a révélé un bug qui permettait à certains utilisateurs de voir les lignes d’objet des historiques de chat d’autres utilisateurs. Le même bogue, désormais corrigé, permettait également « à certains utilisateurs de voir le prénom et le nom, l’adresse e-mail, l’adresse de paiement, les quatre derniers chiffres (uniquement) d’un numéro de carte de crédit et la date d’expiration de la carte de crédit d’un autre utilisateur actif, », a déclaré OpenAI dans un article de blog à l’époque.
Comme d’autres entreprises technologiques, Microsoft se précipite pour développer et déployer une gamme d’outils alimentés par l’IA pour les consommateurs et les professionnels dans un contexte d’enthousiasme généralisé des investisseurs pour la nouvelle technologie. Microsoft a également annoncé mardi qu’il ajouterait des recherches visuelles à son outil Bing Chat existant alimenté par l’IA. Et la société a déclaré que le copilote Microsoft 365, son outil alimenté par l’IA annoncé précédemment qui aide à éditer, résumer, créer et comparer des documents entre ses différents produits, coûtera 30 $ par mois pour chaque utilisateur.
Bing Chat Enterprise sera gratuit pour tous ses 160 millions d’abonnés Microsoft 365 à partir de mardi, si le service informatique d’une entreprise active manuellement l’outil. Après 30 jours, cependant, Microsoft déploiera l’accès à tous les utilisateurs par défaut ; les entreprises abonnées peuvent désactiver l’outil si elles le souhaitent.
REPENSER LES CHATBOTS IA POUR LE MILIEU DE TRAVAIL
Les outils d’IA conversationnels actuels tels que la version grand public de Bing Chat envoie des données de chats personnels à ses serveurs pour former et améliorer son modèle d’IA.
La nouvelle option d’entreprise de Microsoft est identique à la version grand public de Bing, mais elle ne rappellera pas les conversations avec les utilisateurs, ils devront donc revenir en arrière et recommencer à zéro à chaque fois. (Bing a récemment commencé à activer les chats enregistrés sur son modèle de chat grand public.)
Avec ces changements, Microsoft, qui utilise la technologie d’OpenAI pour alimenter son outil de chat Bing, a déclaré que les travailleurs peuvent avoir « une confiance totale » que leurs données « ne seront pas divulguées à l’extérieur ». de l’organisation. »
Pour accéder à l’outil, un utilisateur se connectera au navigateur Bing avec ses informations d’identification professionnelles et le système détectera automatiquement le compte et le mettra en mode protégé, selon Microsoft. Au-dessus de la barre « demandez-moi n’importe quoi » se lit : « Vos données personnelles et d’entreprise sont protégées dans ce chat. »
Dans une vidéo de démonstration présentée à CNN avant son lancement, Microsoft a montré comment un utilisateur pouvait saisir des informations confidentielles dans Bing Chat Enterprise, comme une personne partageant des informations financières dans le cadre de la préparation d’une offre pour acheter un immeuble. Avec le nouvel outil, l’utilisateur pourrait demandez à Bing Chat de créer un tableau pour comparer la propriété à d’autres bâtiments voisins et rédigez une analyse qui met en évidence les forces et les faiblesses de leur offre par rapport aux autres offres locales.
En plus d’essayer d’atténuer les problèmes de confidentialité et de sécurité liés à l’IA sur le lieu de travail, Mehdi a également abordé le problème des erreurs factuelles. Pour réduire la possibilité d’inexactitudes ou d' »hallucinations », comme certains dans l’industrie l’appellent, il a suggéré aux utilisateurs d’écrire des invites claires et meilleures et de vérifier les citations incluses.