никулец Опасностите од четботите со вештачка интелигенција - и како да се спротивставите на нив - Unite.AI
Поврзете се со нас

Мислите лидери

Опасностите од четботови со вештачка интелигенција - и како да се спротивставите на нив

mm

Објавено

 on

Некогаш замислени како само автоматизирани програми за зборување, чет-ботите со вештачка интелигенција сега можат да учат и да одржуваат разговори што речиси не се разликуваат од луѓето. Сепак, опасностите од чат-ботови со вештачка интелигенција се исто толку различни.

Овие можат да варираат од луѓе кои ги злоупотребуваат до вистински ризици за сајбер безбедноста. Бидејќи луѓето се повеќе се потпираат на технологијата за вештачка интелигенција, неопходно е да се знаат потенцијалните последици од користењето на овие програми. Но, дали ботови се опасни?

1. Пристрасност и дискриминација

Една од најголемите опасности на чет-ботите со вештачка интелигенција е нивната склоност кон штетни предрасуди. Бидејќи вештачката интелигенција повлекува врски помеѓу точките на податоци што луѓето често ги пропуштаат, може да открие суптилни, имплицитни предрасуди во податоците за обуката за да се научи да биде дискриминаторска. Како резултат на тоа, четботите можат брзо да научат да исфрлаат расистичка, сексистичка или на друг начин дискриминаторска содржина, дури и ако ништо толку екстремно немало во податоците за обуката.

Најдобар пример е отфрлениот бот за вработување на Амазон. Во 2018 година, се појави дека Amazon се откажа од проект за вештачка интелигенција со цел да се препроценат резимеата на апликантите бидејќи ги казнуваше апликациите од жени. Бидејќи повеќето резимеа на кои ботот тренирал биле машки, тој самиот научил дека се претпочитаат машките апликанти, дури и ако податоците за обуката не го кажуваат тоа експлицитно.

Четботите кои користат интернет содржина за да се научат како природно да комуницираат имаат тенденција да покажат уште поекстремни предрасуди. Во 2016 година, Мајкрософт дебитираше чет-бот наречен Теј кој научи да ги имитира објавите на социјалните мрежи. Во рок од неколку часа, тоа почна да твита многу навредлива содржина, што доведе Мајкрософт да ја суспендира сметката пред долго време.

Ако компаниите не се внимателни кога ги градат и распоредуваат овие ботови, тие случајно може да доведат до слични ситуации. Чет-ботови може да ги малтретираат клиентите или да шират штетна пристрасна содржина што треба да ја спречат.

2. Ризици за сајбер безбедноста

Опасностите од технологијата за разговор со вештачка интелигенција, исто така, може да претставуваат подиректна закана за сајбер безбедноста за луѓето и бизнисите. Еден од најплодните форми на сајбер напади е фишинг и вишинг измами. Овие вклучуваат сајбер напаѓачи кои имитираат доверливи организации како што се банките или владините тела.

Фишинг измамите обично функционираат преку е-пошта и текстуални пораки - кликнувањето на врската дозволува малициозниот софтвер да влезе во компјутерскиот систем. Откако ќе влезе внатре, вирусот може да направи сè, од кражба на лични податоци до задржување на системот за откуп.

Стапката на фишинг напади постојано се зголемува за време и по пандемијата COVID-19. Агенција за сајбер безбедност и безбедност на инфраструктурата откриле 84% од поединците одговорил на пораки за фишинг со чувствителни информации или кликнал на врската.

Фишерите користат AI chatbot технологија за автоматизирање на пребарувањето на жртвите, убедување да кликнат на врски и да се откажат од личните информации. Чет-ботови се користат од многу финансиски институции - како што се банките - за да го насочат искуството за услуги на клиентите.

Фишерите на четботите можат да ги имитираат истите автоматизирани предупредувања што банките ги користат за да ги измамат жртвите. Тие исто така можат автоматски да бираат телефонски броеви или директно да контактираат со жртвите на интерактивни платформи за разговор.

3. Труење со податоци

Труењето со податоци е новозамислен сајбер напад кој директно ја таргетира вештачката интелигенција. Технологијата на вештачката интелигенција учи од збирки податоци и ги користи тие информации за да ги заврши задачите. Ова важи за сите програми за вештачка интелигенција, без разлика на нивната намена или функции.

За вештачката интелигенција за четботи, ова значи учење повеќекратни одговори на можните прашања што корисниците можат да им ги дадат. Сепак, ова е исто така една од опасностите на вештачката интелигенција.

Овие збирки на податоци често се алатки и ресурси со отворен код достапни за секого. Иако компаниите за вештачка интелигенција обично чуваат строго чувана тајна за нивните извори на податоци, сајбер напаѓачите можат да одредат кои ги користат и да манипулираат со податоците.

Сајбер напаѓачите можат да најдат начини да манипулирајте со збирките на податоци се користи за обука на ВИ, овозможувајќи им да манипулираат со нивните одлуки и одговори. Вештачката интелигенција ќе ги користи информациите од изменетите податоци и ќе врши дејствија што ги сакаат напаѓачите.

На пример, еден од најчесто користените извори за збирки на податоци се ресурсите на Вики, како што е Википедија. Иако податоците не доаѓаат од написот во живо на Википедија, тие доаѓаат од снимки од податоци направени во одредено време. Хакерите можат да најдат начин да ги уредуваат податоците за да имаат корист.

Во случај на вештачка интелигенција за разговори, хакерите можат да ги корумпираат множествата на податоци што се користат за обука на чет-ботови кои работат за медицински или финансиски институции. Тие можат да манипулираат со програмите за четбот за да им дадат на клиентите лажни информации што би можеле да ги наведат да кликнат на врска што содржи малициозен софтвер или лажна веб-страница. Штом вештачката интелигенција ќе почне да влече од отруени податоци, тешко е да се открие и може да доведе до значително нарушување на сајбер безбедноста што останува незабележано долго време.

Како да се справите со опасностите од четботови со вештачка интелигенција

Овие ризици се загрижувачки, но тие не значат дека ботови се инхерентно опасни. Наместо тоа, треба да им пристапите претпазливо и да ги земете предвид овие опасности кога градите и користите чет-ботови.

Клучот за спречување на пристрасноста на вештачката интелигенција е да ја барате во текот на обуката. Не заборавајте да го обучите за разновидни збирки на податоци и конкретно да го програмирате за да избегнете факторинг работи како раса, пол или сексуална ориентација при неговото одлучување. Исто така, најдобро е да имате разновиден тим на научници за податоци за да ја прегледате внатрешната работа на четботите и да бидете сигурни дека тие не покажуваат никакви предрасуди, колку и да се суптилни.

Најдобрата одбрана од фишинг е обуката. Обучете ги сите вработени да забележат вообичаени знаци на обиди за фишинг за да не паднат на овие напади. Ќе помогне и ширењето на свеста на потрошувачите околу проблемот.

Можете да спречите труење со податоци со ограничување на пристапот до податоците за обука на чет-ботови. Само луѓето на кои им е потребен пристап до овие податоци за правилно да ја вршат својата работа треба да имаат овластување - концепт наречен принцип на најмала привилегија. По спроведувањето на тие ограничувања, користете силни мерки за проверка како автентикација со повеќе фактори или биометрика за да ги спречите ризиците од хакирање на овластена сметка од сајбер криминалци.

Останете будни против опасностите од потпирање со вештачка интелигенција

Вештачката интелигенција е навистина чудесна технологија со речиси бескрајни апликации. Сепак, опасностите од вештачката интелигенција може да бидат нејасни. Дали ботови се опасни? Не инхерентно, но сајбер-криминалците можат да ги користат на различни непушачки начини. Останува на корисниците да одлучат кои се апликациите на оваа новооткриена технологија.

Зак Амос е технолошки писател кој се фокусира на вештачката интелигенција. Тој исто така е уредник на карактеристики во Повторно хакирање, каде што можете да прочитате повеќе од неговите дела.