csonk Az AI chatbotok veszélyei – és azok leküzdése – Unite.AI
Kapcsolatba velünk

Gondolatvezetők

Az AI chatbotok veszélyei – és hogyan védekezzünk ellenük

mm

Közzététel:

 on

Az egykor csak automatizált beszélőprogramoknak gondolt AI chatbotok ma már olyan beszélgetéseket tudnak tanulni és tartani, amelyek szinte megkülönböztethetetlenek az emberektől. Az AI chatbotok veszélyei azonban ugyanolyan változatosak.

Ezek az őket visszaélő emberektől a tényleges kiberbiztonsági kockázatokig terjedhetnek. Mivel az emberek egyre inkább támaszkodnak a mesterséges intelligencia technológiájára, elengedhetetlen e programok használatának lehetséges következményeinek ismerete. De veszélyesek a botok?

1. Elfogultság és diszkrimináció

Az AI chatbotok egyik legnagyobb veszélye a káros torzításokra való hajlam. Mivel a mesterséges intelligencia kapcsolatokat hoz létre olyan adatpontok között, amelyeket az emberek gyakran figyelmen kívül hagynak, finom, implicit torzításokat észlelhet a képzési adatokban, és megtanítja magát a diszkriminációra. Ennek eredményeként a chatbotok gyorsan megtanulhatják, hogy rasszista, szexista vagy más módon diszkriminatív tartalmat okádjanak ki, még akkor is, ha a képzési adatokban semmi extrém nem szerepel.

Kiváló példa erre az Amazon kiselejtezett bérbeadó robotja. 2018-ban kiderült, hogy az Amazon felhagyott egy AI projekttel a jelentkezők önéletrajzának előzetes értékelésére szolgált, mert büntette a nők jelentkezését. Mivel a bot által kiképzett önéletrajzok többsége férfi volt, magától értetődik, hogy a férfi jelentkezőket részesítik előnyben, még ha a képzési adatok ezt nem is mondták kifejezetten.

Azok a chatbotok, amelyek internetes tartalmat használnak a természetes kommunikációra, még szélsőségesebb elfogultságokat mutatnak be. 2016-ban a Microsoft bemutatta a Tay nevű chatbotot, amely megtanulta utánozni a közösségi média bejegyzéseit. Néhány órán belül ez nagyon sértő tartalmat kezdett tweetelni, ami miatt a Microsoft hamarosan felfüggeszti a fiókot.

Ha a vállalatok nem óvatosak ezeknek a robotoknak az építése és telepítése során, véletlenül hasonló helyzetekhez vezethetnek. A chatbotok rosszul bánhatnak az ügyfelekkel, vagy káros, elfogult tartalmat terjeszthetnek, amelyet meg kell akadályozniuk.

2. Kiberbiztonsági kockázatok

Az AI chatbot technológia veszélyei közvetlenebb kiberbiztonsági fenyegetést is jelenthetnek az emberek és a vállalkozások számára. A kibertámadások egyik legtermékenyebb formája az adathalászat és a vishing csalás. Ezek magukban foglalják megbízható szervezeteket utánzó számítógépes támadók például bankok vagy kormányzati szervek.

Az adathalász csalások általában e-maileken és szöveges üzeneteken keresztül működnek – a hivatkozásra kattintva rosszindulatú programok léphetnek be a számítógépes rendszerbe. A bejutást követően a vírus bármire képes, a személyes adatok ellopásától a rendszer váltságdíjért való visszatartásáig.

Az adathalász támadások aránya folyamatosan növekszik a COVID-19 világjárvány alatt és azt követően. A Kiberbiztonsági és Infrastruktúrabiztonsági Ügynökség az egyének 84%-át találta bizalmas információkat tartalmazó adathalász üzenetekre válaszolt, vagy a linkre kattintott.

Az adathalászok mesterséges intelligencia chatbot technológiát használnak, hogy automatizálják az áldozatok keresését, rávegyék őket, hogy kattintsanak a linkekre, és adjanak fel személyes adatokat. A chatbotokat számos pénzintézet – például bankok – használja az ügyfélszolgálati élmény egyszerűsítésére.

A chatbotok adathalászai ugyanazokat az automatikus felszólításokat tudják utánozni, amelyeket a bankok az áldozatok becsapására használnak. Emellett automatikusan tárcsázhatnak telefonszámokat vagy közvetlenül kapcsolatba léphetnek az áldozatokkal interaktív csevegőplatformokon.

3. Adatmérgezés

Az adatmérgezés egy újonnan kigondolt kibertámadás, amely közvetlenül a mesterséges intelligenciát célozza. Az AI technológia tanul az adatkészletekből, és ezeket az információkat használja fel a feladatok elvégzésére. Ez minden AI-programra igaz, függetlenül azok céljától vagy funkcióitól.

A chatbot AI-k esetében ez azt jelenti, hogy többféle választ kell megtanulni a felhasználók által feltehető kérdésekre. Ez azonban az AI egyik veszélye is.

Ezek az adatkészletek gyakran bárki számára elérhető nyílt forráskódú eszközök és erőforrások. Bár az AI-cégek általában szigorúan őrzik adatforrásaikat, a kibertámadók meghatározhatják, hogy melyiket használják, és manipulálhatják az adatokat.

A számítógépes támadók megtalálhatják a módját manipulálni az adatkészleteket mesterséges intelligencia képzésére használják, lehetővé téve számukra, hogy manipulálják döntéseiket és válaszaikat. Az AI felhasználja a módosított adatokból származó információkat, és végrehajtja a támadók által kívánt műveleteket.

Például az adatkészletekhez az egyik leggyakrabban használt forrás a Wiki-források, például a Wikipédia. Bár az adatok nem az élő Wikipédia-cikkből származnak, bizonyos időpontokban készült pillanatképekből származnak. A hackerek megtalálhatják a módját az adatok szerkesztésének, hogy előnyükre váljanak.

A chatbot mesterséges intelligencia esetében a hackerek megrongálhatják az egészségügyi vagy pénzügyi intézmények számára működő chatbotok betanításához használt adatkészleteket. Manipulálhatják a chatbot programokat, hogy hamis információkat adjanak az ügyfeleknek, amelyek arra késztethetik őket, hogy rosszindulatú programot vagy csaló webhelyet tartalmazó linkre kattintsanak. Ha a mesterséges intelligencia elkezd gyűjteni a mérgezett adatokat, nehéz észlelni, és a kiberbiztonság jelentős megsértéséhez vezethet, amely hosszú ideig észrevétlen marad.

Hogyan kezeljük az AI chatbotok veszélyeit

Ezek a kockázatok aggasztóak, de nem jelentik azt, hogy a robotok eredendően veszélyesek. Inkább óvatosan közelítse meg őket, és vegye figyelembe ezeket a veszélyeket chatbotok építése és használata során.

A mesterséges intelligencia torzításának megelőzésének kulcsa az, hogy a képzés során ezt keressük. Ügyeljen arra, hogy különböző adatkészletekre képezze ki, és kifejezetten programozza be, hogy elkerülje a faji, nemi vagy szexuális irányultság figyelembevételét a döntéshozatal során. Az is a legjobb, ha egy változatos adattudós csapat áttekinti a chatbotok belső működését, és megbizonyosodik arról, hogy nem mutatnak semmilyen torzítást, bármilyen finom is.

Az adathalászat elleni legjobb védekezés az edzés. Tanítsd meg az összes alkalmazottat, hogy észrevegyék adathalászati ​​kísérletek gyakori jelei hogy ne dőljenek be ezeknek a támadásoknak. A kérdéssel kapcsolatos fogyasztói tudatosság terjesztése is segít.

Megelőzheti az adatmérgezést, ha korlátozza a chatbotok képzési adataihoz való hozzáférést. Csak azoknak kell rendelkezniük engedéllyel, akiknek hozzá kell férniük ezekhez az adatokhoz munkájuk megfelelő elvégzéséhez – ezt a koncepciót a legkisebb kiváltság elvének nevezik. A korlátozások bevezetése után alkalmazzon erős ellenőrzési intézkedéseket, például többtényezős hitelesítést vagy biometrikus adatokat, hogy megelőzze a kiberbűnözők feltörésének kockázatát egy engedélyezett fiókba.

Legyen éber az AI-függőség veszélyeivel szemben

A mesterséges intelligencia egy igazán csodálatos technológia szinte végtelen alkalmazásokkal. Az AI veszélyei azonban homályosak lehetnek. Veszélyesek a botok? Nem eredendően, de a kiberbűnözők különféle bomlasztó módon használhatják őket. A felhasználók dönthetik el, hogy ennek az újonnan felfedezett technológiának milyen alkalmazásai vannak.