Tankeledere
Farene ved AI-Chatbots – Og Hvordan Man Kan Imødegå Dem

Engang blev de betragtet som kun automatiserede taleprogrammer, men AI-chatbots kan nu lære og føre samtaler, der er næsten umulige at skelne fra mennesker. Dog er farene ved AI-chatbots lige så varierede.
Disse kan variere fra, at mennesker misbruger dem til reelle cybersecurity-risici. Da mennesker i stigende grad afhænger af AI-teknologi, er det afgørende at kende til de potentielle konsekvenser af at bruge disse programmer. Men er botter farlige?
1. Bias og Diskrimination
En af de største farer ved AI-chatbots er deres tendens til skadelig bias. Fordi AI finder forbindelser mellem datapunkter, som mennesker ofte ikke lægger mærke til, kan det opsnappe subtile, implicitte bias i sin træningsdata og lære sig selv at være diskriminerende. Som resultat kan chatbots hurtigt lære at udspy racistisk, sexistisk eller anden diskriminerende indhold, selv om intet sådant var i dens træningsdata.
Et godt eksempel er Amazons opgivne rekrutteringsbot. I 2018 blev det kendt, at Amazon hadde opgivet et AI-projekt, der skulle forudvælge ansøgere, fordi den straffede ansøgninger fra kvinder. Fordi de fleste af de CV’er, botten blev trænet på, var mænds, lærte den sig, at mandlige ansøgere var at foretrække, selv om træningsdataen ikke udtrykkeligt sagde det.
Chatbots, der bruger internetindhold til at lære, hvordan de kan kommunikere naturligt, tenderer til at vise endnu mere ekstreme bias. I 2016 lancerede Microsoft en chatbot ved navn Tay, der lærte at efterligne sociale medie-indlæg. Inden for få timer begyndte den at tweete højst krænkeligt indhold, hvorefter Microsoft suspenderede kontoen efter kort tid.
Hvis virksomheder ikke er forsigtige, når de bygger og implementerer disse botter, kan de utilsigtet føre til lignende situationer. Chatbots kan mishandle kunder eller sprede skadelig, fordrejet indhold, som de skal forhindre.
2. Cybersecurity-risici
Farene ved AI-chatbot-teknologi kan også udgøre en mere direkte cybersecurity-trussel mod mennesker og virksomheder. En af de mest udbredte former for cyberangreb er phishing- og vishing-svindel. Disse involverer cyberangribere, der efterligner betroede organisationer, såsom banker eller regeringsinstitutioner.
Phishing-svindel opererer typisk gennem e-mail og tekstbeskeder — klikning på linket giver adgang til malware i computersystemet. Når den først er inde, kan virusset gøre alt lige fra at stjæle personlige oplysninger til at holde systemet for løsepenge.
Raten af phishing-angreb har været støt stigende under og efter COVID-19-pandemien. Cybersecurity & Infrastructure Security Agency fandt ud af, at 84% af personer svarede på phishing-besked med følsomme oplysninger eller klikkede på linket.
Phishere bruger AI-chatbot-teknologi til at automatisere søgningen efter ofre, overbevise dem om at klikke på link og afsløre personlige oplysninger. Chatbots bruges af mange finansielle institutioner — såsom banker — til at strømline kundeservice-oplevelsen.
Chatbot-phishere kan efterligne de samme automatiserede prompter, banker bruger til at narre ofre. De kan også automatisk ringe til telefonnumre eller kontakte ofre direkte på interaktive chat-platforme.
3. Data-forgiftning
Data-forgiftning er et nyt koncept for cyberangreb, der direkte rammer kunstig intelligens. AI-teknologi lærer af datasæt og bruger disse oplysninger til at udføre opgaver. Dette gælder for alle AI-programmer, uanset deres formål eller funktion.
For chatbot-AI betyder det at lære multiple svar på mulige spørgsmål, brugere kan give dem. Dog er dette også en af farene ved AI.
Disse datasæt er ofte åbne kilde-værktøjer og ressourcer, der er tilgængelige for alle. Selv om AI-virksomheder normalt holder deres datakilder hemmelige, kan cyberangribere finde ud af, hvilke de bruger, og manipulere dataene.
Cyberangribere kan finde måder at manipulere med datasættene, der bruges til at træne AI, og tillade dem at manipulere deres beslutninger og svar. AI vil bruge oplysningerne fra ændrede data og udføre handlinger, angriberne ønsker.
For eksempel er en af de mest almindelige kilder til datasæt Wiki-resourcer som Wikipedia. Selv om data ikke kommer fra den levende Wikipedia-artikel, kommer det fra snapshots af data taget på bestemte tidspunkter. Hackere kan finde en måde at redigere dataene på til fordel for dem.
I tilfældet med chatbot-AI kan hackere korrumperede datasæt, der bruges til at træne chatbots, der arbejder for medicinske eller finansielle institutioner. De kan manipulere chatbot-programmer til at give kunder forkert information, der kan føre dem til at klikke på et link, der indeholder malware eller en svindelsk website. Når først AI begynder at trække fra forgiftet data, er det svært at opdage og kan føre til et betydeligt brud på cybersecurity, der ikke lægges mærke til i lang tid.
Hvordan Man Kan Imødegå Farene ved AI-Chatbots
Disse risici er bekymrende, men de betyder ikke, at botter er intrinsic farlige. I stedet bør du tilgang dem med forsigtighed og overveje disse farer, når du bygger og bruger chatbots.
Nøglen til at forhindre AI-bias er at søge efter det under træning. Sørg for at træne det på diverse datasæt og programmere det specifikt til at undgå at tage ting som race, køn eller seksuel orientering med i dens beslutningsprocesser. Det er også bedst at have et diversificeret hold af datavidenskabsmænd til at gennemgå chatbots’ indre mekanismer og sikre, at de ikke viser nogen bias, hvor subtil det end måtte være.
Det bedste forsvar mod phishing er træning. Træn alle medarbejdere til at spotte almindelige tegn på phishing-forsøg, så de ikke falder for disse angreb. At sprede forbrugerbevidsthed omkring problemet vil også hjælpe.
Du kan forhindre data-forgiftning ved at begrænse adgangen til chatbots’ træningsdata. Kun personer, der har brug for adgang til disse data for at udføre deres job korrekt, bør have autorisation — et koncept kaldet princippet om mindst privilegier. Efter at have implementeret disse begrænsninger bør du bruge stærke verificeringsforanstaltninger som multi-faktor-autentificering eller biometri til at forhindre risikoen for, at cyberkriminelle hacker en autoriseret konto.
Forbliv Vigilant Mod Farene ved AI-Afhængighed
Kunstig intelligens er en virkelig vidunderlig teknologi med næsten uendelige anvendelser. Dog kan farene ved AI være uklare. Er botter farlige? Ikke intrinsic, men cyberkriminelle kan bruge dem på forskellige disruptiver måder. Det er op til brugerne at afgøre, hvad anvendelserne af denne nye teknologi er.












