stomp De gevaren van AI-chatbots - en hoe ze te bestrijden - Unite.AI
Verbind je met ons

Gedachte leiders

De gevaren van AI-chatbots - en hoe u ze kunt tegengaan

mm

gepubliceerd

 on

Ooit beschouwd als alleen maar geautomatiseerde praatprogramma's, kunnen AI-chatbots nu gesprekken leren en voeren die bijna niet te onderscheiden zijn van mensen. De gevaren van AI-chatbots zijn echter net zo gevarieerd.

Deze kunnen variëren van mensen die ze misbruiken tot daadwerkelijke cyberbeveiligingsrisico's. Aangezien mensen steeds meer vertrouwen op AI-technologie, is het essentieel om de mogelijke gevolgen van het gebruik van deze programma's te kennen. Maar zijn bots gevaarlijk?

1. Vooringenomenheid en discriminatie

Een van de grootste gevaren van AI-chatbots is hun neiging tot schadelijke vooroordelen. Omdat AI verbanden legt tussen gegevenspunten die mensen vaak missen, kan het subtiele, impliciete vooroordelen in zijn trainingsgegevens oppikken om zichzelf aan te leren discriminerend te zijn. Als gevolg hiervan kunnen chatbots snel leren om racistische, seksistische of anderszins discriminerende inhoud te spuwen, zelfs als er niets extreems in de trainingsgegevens stond.

Een goed voorbeeld is de afgedankte wervingsbot van Amazon. In 2018 bleek dat Amazon had een AI-project verlaten bedoeld om de cv's van sollicitanten vooraf te beoordelen, omdat sollicitaties van vrouwen hierdoor werden bestraft. Omdat de meeste cv's waarop de bot trainde mannen waren, leerde hij zichzelf dat mannelijke sollicitanten de voorkeur hadden, ook al vermeldde de trainingsgegevens dat niet expliciet.

Chatbots die internetcontent gebruiken om zichzelf op een natuurlijke manier te leren communiceren, hebben de neiging om nog extremere vooroordelen te vertonen. In 2016 debuteerde Microsoft met een chatbot genaamd Tay die leerde posts op sociale media na te bootsen. Binnen een paar uur is het zover begon zeer aanstootgevende inhoud te tweeten, waardoor Microsoft het account binnenkort opschort.

Als bedrijven niet voorzichtig zijn bij het bouwen en inzetten van deze bots, kunnen ze per ongeluk tot soortgelijke situaties leiden. Chatbots kunnen klanten mishandelen of schadelijke vooringenomen inhoud verspreiden die ze zouden moeten voorkomen.

2. Cyberbeveiligingsrisico's

De gevaren van AI-chatbottechnologie kunnen ook een meer directe cyberbeveiligingsdreiging vormen voor mensen en bedrijven. Een van de meest productieve vormen van cyberaanvallen is phishing en vishing. Deze betrekken cyberaanvallers die vertrouwde organisaties imiteren zoals banken of overheidsinstanties.

Phishing-zwendel werkt meestal via e-mail en sms. Als u op de link klikt, kan malware het computersysteem binnendringen. Eenmaal binnen kan het virus van alles doen, van het stelen van persoonlijke informatie tot het vasthouden van het systeem voor losgeld.

Het aantal phishing-aanvallen is tijdens en na de COVID-19-pandemie gestaag toegenomen. Het bureau voor cyberbeveiliging en infrastructuurbeveiliging vond 84% van de individuen op phishingberichten met gevoelige informatie heeft gereageerd of op de link heeft geklikt.

Phishers gebruiken AI-chatbottechnologie om het zoeken naar slachtoffers te automatiseren, hen te overtuigen op links te klikken en persoonlijke informatie op te geven. Chatbots worden door veel financiële instellingen, zoals banken, gebruikt om de klantenservice te stroomlijnen.

Chatbots phishers kunnen dezelfde geautomatiseerde prompts nabootsen die banken gebruiken om slachtoffers te misleiden. Ze kunnen ook automatisch telefoonnummers bellen of rechtstreeks contact opnemen met slachtoffers op interactieve chatplatforms.

3. Gegevensvergiftiging

Data-vergiftiging is een nieuw bedachte cyberaanval die zich rechtstreeks richt op kunstmatige intelligentie. AI-technologie leert van datasets en gebruikt die informatie om taken uit te voeren. Dit geldt voor alle AI-programma's, ongeacht hun doel of functies.

Voor chatbot-AI's betekent dit het leren van meerdere antwoorden op mogelijke vragen die gebruikers kunnen stellen. Dit is echter ook een van de gevaren van AI.

Deze datasets zijn vaak open-source tools en bronnen die voor iedereen beschikbaar zijn. Hoewel AI-bedrijven meestal een goed bewaard geheim bewaren van hun gegevensbronnen, kunnen cyberaanvallers bepalen welke ze gebruiken en de gegevens manipuleren.

Cyberaanvallers kunnen manieren vinden om knoeien met de datasets gebruikt om AI's te trainen, waardoor ze hun beslissingen en reacties kunnen manipuleren. De AI gebruikt de informatie uit gewijzigde gegevens en voert handelingen uit die de aanvallers willen.

Een van de meest gebruikte bronnen voor datasets zijn bijvoorbeeld Wiki-bronnen zoals Wikipedia. Hoewel de gegevens niet afkomstig zijn van het live Wikipedia-artikel, zijn ze afkomstig van snapshots van gegevens die op specifieke tijdstippen zijn genomen. Hackers kunnen een manier vinden om de gegevens te bewerken in hun voordeel.

In het geval van chatbot-AI's kunnen hackers de datasets corrumperen die worden gebruikt om chatbots te trainen die voor medische of financiële instellingen werken. Ze kunnen chatbotprogramma's manipuleren om klanten valse informatie te geven die ertoe kan leiden dat ze op een link met malware of een frauduleuze website klikken. Zodra de AI begint met het trekken van vergiftigde gegevens, is het moeilijk te detecteren en kan het leiden tot een aanzienlijke inbreuk op de cyberbeveiliging die lange tijd onopgemerkt blijft.

Hoe de gevaren van AI-chatbots aan te pakken

Deze risico's zijn zorgwekkend, maar ze betekenen niet dat bots inherent gevaarlijk zijn. U moet ze eerder voorzichtig benaderen en rekening houden met deze gevaren bij het bouwen en gebruiken van chatbots.

De sleutel tot het voorkomen van AI-bias is ernaar te zoeken tijdens de training. Zorg ervoor dat u het traint op diverse datasets en het specifiek programmeert om te voorkomen dat er rekening wordt gehouden met zaken als ras, geslacht of seksuele geaardheid bij het nemen van beslissingen. Het is ook het beste om een ​​divers team van datawetenschappers te hebben om de interne werking van chatbots te beoordelen en ervoor te zorgen dat ze geen vooroordelen vertonen, hoe subtiel ook.

De beste verdediging tegen phishing is training. Train alle medewerkers om te spotten veelvoorkomende tekenen van phishingpogingen zodat ze niet trappen in deze aanvallen. Het zal ook helpen om consumenten bewust te maken van het probleem.

U kunt gegevensvergiftiging voorkomen door de toegang tot de trainingsgegevens van chatbots te beperken. Alleen mensen die toegang tot deze gegevens nodig hebben om hun werk correct te kunnen doen, zouden autorisatie moeten hebben - een concept dat het principe van de minste privileges wordt genoemd. Gebruik na het implementeren van deze beperkingen sterke verificatiemaatregelen, zoals meervoudige authenticatie of biometrische gegevens, om te voorkomen dat cybercriminelen een geautoriseerd account hacken.

Blijf waakzaam voor de gevaren van AI-afhankelijkheid

Kunstmatige intelligentie is een werkelijk wonderbaarlijke technologie met bijna eindeloze toepassingen. De gevaren van AI kunnen echter onduidelijk zijn. Zijn bots gevaarlijk? Niet inherent, maar cybercriminelen kunnen ze op verschillende ontwrichtende manieren gebruiken. Het is aan gebruikers om te beslissen wat de toepassingen van deze nieuwe technologie zijn.