talon Les dangers des chatbots IA - et comment les contrer - Unite.AI
Suivez nous sur

Des leaders d'opinion

Les dangers des chatbots IA - et comment les contrer

mm

Publié le

 on

Autrefois considérés comme de simples programmes de conversation automatisés, les chatbots IA peuvent désormais apprendre et tenir des conversations presque impossibles à distinguer des humains. Cependant, les dangers des chatbots IA sont tout aussi variés.

Ceux-ci peuvent aller des personnes qui les utilisent à mauvais escient aux risques réels de cybersécurité. Alors que les humains comptent de plus en plus sur la technologie de l'IA, il est essentiel de connaître les répercussions potentielles de l'utilisation de ces programmes. Mais les bots sont-ils dangereux ?

1. Préjugés et discrimination

L'un des plus grands dangers des chatbots IA est leur tendance aux biais nuisibles. Parce que l'IA établit des liens entre les points de données que les humains manquent souvent, elle peut détecter des biais subtils et implicites dans ses données de formation pour apprendre à être discriminatoire. En conséquence, les chatbots peuvent rapidement apprendre à cracher du contenu raciste, sexiste ou autrement discriminatoire, même si rien d'aussi extrême ne figurait dans leurs données de formation.

Un excellent exemple est le robot de recrutement abandonné d'Amazon. En 2018, il est apparu qu'Amazon avait abandonné un projet d'IA destiné à pré-évaluer les CV des candidats car il pénalisait les candidatures féminines. Étant donné que la plupart des CV sur lesquels le bot s'est formé étaient des hommes, il s'est appris que les candidats masculins étaient préférables, même si les données de formation ne le disaient pas explicitement.

Les chatbots utilisant le contenu Internet pour apprendre à communiquer naturellement ont tendance à présenter des préjugés encore plus extrêmes. En 2016, Microsoft a lancé un chatbot nommé Tay qui a appris à imiter les publications sur les réseaux sociaux. En quelques heures, il commencé à tweeter du contenu hautement offensant, conduisant Microsoft à suspendre le compte avant longtemps.

Si les entreprises ne font pas attention lors de la création et du déploiement de ces robots, ils peuvent accidentellement conduire à des situations similaires. Les chatbots pourraient maltraiter les clients ou diffuser du contenu préjudiciable qu'ils sont censés empêcher.

2. Risques de cybersécurité

Les dangers de la technologie des chatbots IA peuvent également constituer une menace de cybersécurité plus directe pour les personnes et les entreprises. L'une des formes les plus prolifiques de cyberattaques est l'hameçonnage et le vishing. Celles-ci impliquent les cyber-attaquants imitant les organisations de confiance telles que les banques ou les organismes gouvernementaux.

Les escroqueries par hameçonnage fonctionnent généralement par e-mail et SMS - cliquer sur le lien permet aux logiciels malveillants d'entrer dans le système informatique. Une fois à l'intérieur, le virus peut faire n'importe quoi, du vol d'informations personnelles à la détention du système contre une rançon.

Le taux d'attaques de phishing n'a cessé d'augmenter pendant et après la pandémie de COVID-19. L'Agence de la cybersécurité et de la sécurité des infrastructures trouvé 84% des individus répondu à des messages de phishing avec des informations sensibles ou cliqué sur le lien.

Les hameçonneurs utilisent la technologie des chatbots IA pour automatiser la recherche des victimes, les convaincre de cliquer sur des liens et de donner des informations personnelles. Les chatbots sont utilisés par de nombreuses institutions financières, telles que les banques, pour rationaliser l'expérience du service client.

Les chatbots hameçonneurs peuvent imiter les mêmes invites automatisées que les banques utilisent pour tromper les victimes. Ils peuvent également composer automatiquement des numéros de téléphone ou contacter directement les victimes sur des plateformes de chat interactives.

3. Empoisonnement des données

L'empoisonnement des données est une cyberattaque nouvellement conçue qui cible directement l'intelligence artificielle. La technologie de l'IA apprend à partir d'ensembles de données et utilise ces informations pour effectuer des tâches. Cela est vrai pour tous les programmes d'IA, quels que soient leur objectif ou leurs fonctions.

Pour les IA de chatbot, cela signifie apprendre plusieurs réponses aux éventuelles questions que les utilisateurs peuvent leur poser. Cependant, c'est aussi l'un des dangers de l'IA.

Ces ensembles de données sont souvent des outils et des ressources open source accessibles à tous. Bien que les entreprises d'intelligence artificielle gardent généralement un secret bien gardé sur leurs sources de données, les cyberattaquants peuvent déterminer celles qu'ils utilisent et manipuler les données.

Les cyber-attaquants peuvent trouver des moyens de falsifier les ensembles de données utilisé pour former les IA, leur permettant de manipuler leurs décisions et leurs réponses. L'IA utilisera les informations des données modifiées et effectuera les actions souhaitées par les attaquants.

Par exemple, l'une des sources les plus couramment utilisées pour les ensembles de données est les ressources Wiki telles que Wikipedia. Bien que les données ne proviennent pas de l'article Wikipédia en direct, elles proviennent d'instantanés de données prises à des moments précis. Les pirates peuvent trouver un moyen de modifier les données à leur avantage.

Dans le cas des IA chatbot, les pirates peuvent corrompre les ensembles de données utilisés pour former les chatbots qui travaillent pour les institutions médicales ou financières. Ils peuvent manipuler les programmes de chatbot pour donner aux clients de fausses informations qui pourraient les amener à cliquer sur un lien contenant des logiciels malveillants ou un site Web frauduleux. Une fois que l'IA commence à extraire des données empoisonnées, elles sont difficiles à détecter et peuvent entraîner une violation importante de la cybersécurité qui passe inaperçue pendant longtemps.

Comment faire face aux dangers des chatbots IA

Ces risques sont préoccupants, mais ils ne signifient pas que les bots sont intrinsèquement dangereux. Au contraire, vous devez les approcher avec prudence et tenir compte de ces dangers lors de la création et de l'utilisation de chatbots.

La clé pour prévenir les biais de l'IA est de les rechercher tout au long de la formation. Assurez-vous de le former sur divers ensembles de données et de le programmer spécifiquement pour éviter de prendre en compte des éléments tels que la race, le sexe ou l'orientation sexuelle dans sa prise de décision. Il est également préférable d'avoir une équipe diversifiée de scientifiques des données pour examiner le fonctionnement interne des chatbots et s'assurer qu'ils ne présentent aucun biais, aussi subtil soit-il.

La meilleure défense contre le phishing est la formation. Former tous les employés à repérer signes courants de tentatives de phishing afin qu'ils ne tombent pas dans ces attaques. Sensibiliser les consommateurs à la question aidera également.

Vous pouvez empêcher l'empoisonnement des données en limitant l'accès aux données d'entraînement des chatbots. Seules les personnes qui ont besoin d'accéder à ces données pour faire leur travail correctement devraient avoir une autorisation - un concept appelé le principe du moindre privilège. Après avoir mis en œuvre ces restrictions, utilisez des mesures de vérification solides comme l'authentification multifacteur ou la biométrie pour prévenir les risques de cybercriminels piratant un compte autorisé.

Restez vigilant face aux dangers de la dépendance à l'IA

L'intelligence artificielle est une technologie vraiment merveilleuse avec des applications presque infinies. Cependant, les dangers de l'IA pourraient être obscurs. Les bots sont-ils dangereux ? Pas en soi, mais les cybercriminels peuvent les utiliser de diverses manières perturbatrices. C'est aux utilisateurs de décider quelles sont les applications de cette nouvelle technologie.