stub Farene ved AI Chatbots - Og hvordan du kan motvirke dem - Unite.AI
Kontakt med oss

Tankeledere

Farene ved AI Chatbots - og hvordan du kan motvirke dem

mm

Publisert

 on

En gang tenkt på som bare automatiserte snakkeprogrammer, kan AI chatbots nå lære og holde samtaler som nesten ikke kan skilles fra mennesker. Imidlertid er farene ved AI chatbots like varierte.

Disse kan variere fra folk som misbruker dem til faktiske cybersikkerhetsrisikoer. Ettersom mennesker i økende grad stoler på AI-teknologi, er det viktig å vite de potensielle konsekvensene av å bruke disse programmene. Men er roboter farlige?

1. Skjevhet og diskriminering

En av de største farene ved AI chatbots er deres tendens til skadelige skjevheter. Fordi AI trekker forbindelser mellom datapunkter mennesker ofte går glipp av, kan den fange opp subtile, implisitte skjevheter i treningsdataene sine for å lære seg å være diskriminerende. Som et resultat kan chatbots raskt lære å spy ut rasistisk, sexistisk eller på annen måte diskriminerende innhold, selv om det ikke var noe så ekstremt i treningsdataene.

Et godt eksempel er Amazons utrangerte ansettelsesrobot. I 2018 kom det frem at Amazon hadde forlatt et AI-prosjekt ment å forhåndsvurdere søkernes CV fordi det var straff for søknader fra kvinner. Fordi de fleste CV-ene boten trente på var menns, lærte den seg selv at mannlige søkere var å foretrekke, selv om treningsdataene ikke eksplisitt sa det.

Chatboter som bruker internettinnhold for å lære seg selv hvordan de skal kommunisere har en naturlig tendens til å vise frem enda mer ekstreme skjevheter. I 2016 debuterte Microsoft en chatbot ved navn Tay som lærte å etterligne innlegg på sosiale medier. I løpet av noen timer, det begynte å tweete svært støtende innhold, noe som førte til at Microsoft suspenderer kontoen om ikke lenge.

Hvis selskaper ikke er forsiktige når de bygger og distribuerer disse robotene, kan de ved et uhell føre til lignende situasjoner. Chatboter kan mishandle kunder eller spre skadelig partisk innhold de skal forhindre.

2. Cybersikkerhetsrisikoer

Farene ved AI chatbot-teknologi kan også utgjøre en mer direkte cybersikkerhetstrussel for mennesker og bedrifter. En av de mest produktive formene for nettangrep er phishing og vishing-svindel. Disse involverer cyberangripere som imiterer pålitelige organisasjoner som banker eller offentlige organer.

Phishing-svindel foregår vanligvis via e-post og tekstmeldinger - ved å klikke på lenken tillater skadelig programvare å komme inn i datasystemet. Når det først er inne, kan viruset gjøre alt fra å stjele personlig informasjon til å holde systemet for løsepenger.

Frekvensen av phishing-angrep har økt jevnt under og etter COVID-19-pandemien. Cybersecurity & Infrastructure Security Agency fant 84 % av individene svarte på phishing-meldinger med sensitiv informasjon eller klikket på lenken.

Phishere bruker AI chatbot-teknologi for å automatisere søk etter ofre, overbevise dem om å klikke på lenker og gi opp personlig informasjon. Chatbots brukes av mange finansinstitusjoner – for eksempel banker – for å effektivisere kundeserviceopplevelsen.

Chatbots-phishere kan etterligne de samme automatiserte spørsmålene bankene bruker for å lure ofre. De kan også automatisk ringe telefonnumre eller kontakte ofre direkte på interaktive chat-plattformer.

3. Dataforgiftning

Dataforgiftning er et nyoppfattet nettangrep som direkte retter seg mot kunstig intelligens. AI-teknologi lærer av datasett og bruker denne informasjonen til å fullføre oppgaver. Dette gjelder alle AI-programmer, uansett formål eller funksjoner.

For chatbot AIer betyr dette å lære flere svar på mulige spørsmål brukere kan gi dem. Dette er imidlertid også en av farene ved AI.

Disse datasettene er ofte åpen kildekodeverktøy og ressurser tilgjengelig for alle. Selv om AI-selskaper vanligvis holder en nøye bevoktet hemmelighet av datakildene sine, kan cyberangripere bestemme hvilke de bruker og manipulere dataene.

Cyberangripere kan finne måter å tukle med datasettene brukes til å trene AI-er, slik at de kan manipulere sine beslutninger og svar. AI vil bruke informasjonen fra endrede data og utføre handlinger angriperne ønsker.

For eksempel er en av de mest brukte kildene for datasett Wiki-ressurser som Wikipedia. Selv om dataene ikke kommer fra den levende Wikipedia-artikkelen, kommer de fra øyeblikksbilder av data tatt på bestemte tidspunkter. Hackere kan finne en måte å redigere dataene til fordel for dem.

Når det gjelder chatbot AIer, kan hackere ødelegge datasettene som brukes til å trene chatboter som fungerer for medisinske eller finansinstitusjoner. De kan manipulere chatbot-programmer for å gi kunder falsk informasjon som kan føre til at de klikker på en lenke som inneholder skadelig programvare eller et uredelig nettsted. Når AI begynner å hente fra forgiftede data, er det vanskelig å oppdage og kan føre til et betydelig brudd på cybersikkerhet som går ubemerket hen i lang tid.

Hvordan takle farene ved AI Chatbots

Disse risikoene er bekymringsfulle, men de betyr ikke at roboter er iboende farlige. I stedet bør du nærme deg dem forsiktig og vurdere disse farene når du bygger og bruker chatbots.

Nøkkelen til å forhindre AI-bias er å søke etter det gjennom hele treningen. Sørg for å trene den på forskjellige datasett og spesifikt programmere den for å unngå å ta hensyn til ting som rase, kjønn eller seksuell legning i beslutningsprosessen. Det er også best å ha et mangfoldig team av dataforskere til å gjennomgå chatbots indre virkemåte og sørge for at de ikke viser noen skjevheter, uansett hvor subtile de er.

Det beste forsvaret mot phishing er trening. Tren alle ansatte til å oppdage vanlige tegn på phishing-forsøk slik at de ikke faller for disse angrepene. Å spre forbrukerbevissthet rundt problemet vil også hjelpe.

Du kan forhindre dataforgiftning ved å begrense tilgangen til chatbots treningsdata. Bare folk som trenger tilgang til disse dataene for å gjøre jobben sin på riktig måte bør ha autorisasjon - et konsept som kalles prinsippet om minste privilegium. Etter å ha implementert disse begrensningene, bruk sterke verifiseringstiltak som multifaktorautentisering eller biometri for å forhindre risikoen for at nettkriminelle hacker seg inn på en autorisert konto.

Vær på vakt mot farene ved AI-avhengighet

Kunstig intelligens er en virkelig fantastisk teknologi med nesten uendelige applikasjoner. Imidlertid kan farene ved AI være uklare. Er roboter farlige? Ikke iboende, men nettkriminelle kan bruke dem på forskjellige forstyrrende måter. Det er opp til brukerne å bestemme hvilke applikasjoner denne nyfunne teknologien er.

Zac Amos er en teknologiskribent som fokuserer på kunstig intelligens. Han er også funksjonsredaktør på ReHack, hvor du kan lese mer av hans arbeid.