стуб Шта је одговорна вештачка интелигенција? Принципи, изазови и предности - Уните.АИ
Повежите се са нама
АИ Мастерцласс:

АИ 101

Шта је одговорна вештачка интелигенција? Принципи, изазови и предности

mm
Ажурирано on
Особа која држи глобус у рукама док стоји на пољима.

Одговоран АИ (РАИ) се односи на дизајнирање и примену АИ система који су транспарентни, непристрасни, одговорни и прате етичке смернице. Како системи вештачке интелигенције постају робуснији и преовлађујући, од суштинског је значаја осигурати да се развијају одговорно и да поштују безбедносне и етичке смернице.

Здравље, транспорт, управљање мрежом и надзор су АИ апликације које су критичне за безбедност где квар система може имати тешке последице. Велике компаније су свесне да је РАИ од суштинског значаја за ублажавање технолошких ризика. Ипак, према извештају МИТ Слоан/БЦГ који је укључивао 1093 испитаника, 100% компанијама недостајала је стручност и таленат за одговорну вештачку интелигенцију.

Иако су мисаоне вође и организације развиле принципе за одговорну вештачку интелигенцију, обезбеђивање одговорног развоја АИ система и даље представља изазов. Хајде да детаљно истражимо ову идеју:

5 принципа за одговорну вештачку интелигенцију

1. Праведност

Технолози би требало да дизајнирају процедуре тако да системи вештачке интелигенције третирају све појединце и групе праведно без пристрасности. Стога је правичност примарни захтев у високоризичним апликацијама за доношење одлука.

Поштење се дефинише као:

„Испитивање утицаја на различите демографске групе и одабир једне од неколико математичких дефиниција групне праведности које ће адекватно задовољити жељени скуп правних, културних и етичких захтева.“

КСНУМКС. Одговорност

Одговорност значи да појединци и организације које развијају и примењују АИ системе треба да буду одговорни за своје одлуке и акције. Тим који примењује системе вештачке интелигенције треба да обезбеди да њихов систем вештачке интелигенције буде транспарентан, разумљив, подложан ревизији и да не штети друштву.

Одговорност укључује седам компоненте:

  1. Контекст (сврха за коју је потребна одговорност)
  2. Распон (предмет одговорности)
  3. Агент (ко је одговоран?)
  4. Форум (коме одговорна страна мора да се пријави)
  5. Стандарди (критеријуми за одговорност)
  6. Процес (метод одговорности)
  7. Импликације (последице одговорности)

3. Транспарентност

Транспарентност значи да је разлог за доношење одлука у системима вештачке интелигенције јасан и разумљив. Транспарентни АИ системи су објашњиви.

Према Листа за процену поуздане вештачке интелигенције (АЛТАИ), транспарентност има три кључна елемента:

  1. Следљивост (доступни су подаци, кораци за претходну обраду и модел)
  2. Објашњивост (разлог иза доношења одлука/предвиђања је јасан)
  3. Отворена комуникација (у вези са ограничењем АИ система)

КСНУМКС. Приватност

Приватност је један од главних принципа одговорне вештачке интелигенције. Односи се на заштиту личних података. Овај принцип осигурава да се лични подаци људи прикупљају и обрађују уз сагласност и да се држе ван руку незадовољних.

Као што се недавно показало, постојао је случај Цлеарвиев, компаније која производи моделе за препознавање лица за полицију и универзитете. Британски чувари података тужио Цлеарвиев АИ за 7.5 милиона фунти за прикупљање слика становника Велике Британије са друштвених медија без сагласности за креирање базе података од 20 милијарди слика.

КСНУМКС. Безбедност

Сигурност значи осигурати да системи вештачке интелигенције буду сигурни и да не прете друштву. Пример безбедносне претње АИ је непријатељски напади. Ови злонамерни напади преваре МЛ моделе да донесу погрешне одлуке. Заштита АИ система од сајбер напада је императив за одговорну АИ.

4 главна изазова и ризика одговорне вештачке интелигенције

1. Pristrasnost

Људске предрасуде везане за године, пол, националност и расу могу да утичу на прикупљање података, потенцијално доводећи до пристрасних АИ модела. Студија америчког Министарства трговине открили су да АИ за препознавање лица погрешно идентификује људе у боји. Дакле, коришћење вештачке интелигенције за препознавање лица у органима за спровођење закона може довести до незаконитих хапшења. Такође, прављење поштених АИ модела је изазов јер их има 21 различите параметре за њихово дефинисање. Дакле, постоји компромис; задовољити један фер параметар АИ значи жртвовати други.

2. Интерпретабилност

Интерпретабилност је критичан изазов у ​​развоју одговорне вештачке интелигенције. Односи се на разумевање како је модел машинског учења дошао до одређеног закључка.

Дубоким неуронским мрежама недостаје интерпретабилност јер функционишу као црне кутије са више слојева скривених неурона, што отежава разумевање процеса доношења одлука. Ово може бити изазов у ​​доношењу одлука са високим улозима, као што су здравствена заштита, финансије итд.

Штавише, формализовање интерпретабилности у моделима МЛ је изазов јер јесте субјективно  специфичан за домен.

КСНУМКС. Управљање

Управљање се односи на скуп правила, политика и процедура које надгледају развој и примену АИ система. Недавно је дошло до значајног напретка у дискурсу управљања вештачком интелигенцијом, при чему су организације представиле оквире и етичке смернице.

Етичке смернице за поуздана вештачка интелигенција од стране ЕУАустралијски етички оквир за вештачку интелигенцију, и Принципи АИ ОЕЦД-а су примери оквира управљања вештачком интелигенцијом.

Али брз напредак у АИ последњих година може надмашити ове оквире управљања АИ. У том циљу, мора постојати оквир који процењује праведност, интерпретабилност и етичност система вештачке интелигенције.

4. Уредба

Како системи вештачке интелигенције постају све присутнији, мора постојати регулација која ће узети у обзир етичке и друштвене вредности. Развој регулативе која не гуши иновације вештачке интелигенције је критичан изазов у ​​одговорној вештачкој интелигенцији.

Чак и уз Општу уредбу о заштити података (ГДПР), Калифорнијски закон о приватности потрошача (ЦЦПА) и Закон о заштити личних података (ПИПЛ) као регулаторна тела, истраживачи АИ су открили да 100% веб-сајтова ЕУ нису у складу са захтевима правног оквира ГДПР-а.

Штавише, законодавци се суочавају са а значајан изазов у постизању консензуса о дефиницији АИ која укључује и класичне АИ системе и најновије АИ апликације.

3 Главне предности одговорне вештачке интелигенције

1. Смањена пристрасност

Одговорна АИ смањује пристрасност у процесима доношења одлука, изграђујући поверење у системе вештачке интелигенције. Смањење пристрасности у системима вештачке интелигенције може да обезбеди фер и правичан систем здравствене заштите и смањује пристрасност у системима заснованим на вештачкој интелигенцији финансијске услуге итд

2. Побољшана транспарентност

Одговорна АИ прави транспарентне АИ апликације које граде поверење у АИ системе. Транспарентни АИ системи смањити ризик од грешке и злоупотребе. Побољшана транспарентност олакшава ревизију система вештачке интелигенције, осваја поверење заинтересованих страна и може довести до одговорних система вештачке интелигенције.

КСНУМКС. Боља безбедност

Сигурне АИ апликације осигуравају приватност података, производе поуздане и безопасне резултате и безбедне су од сајбер напада.

Технички гиганти попут Microsoft  гоогле, који су на челу развоја АИ система, развили су принципе одговорне вештачке интелигенције. Одговорна АИ осигурава да иновације у АИ нису штетне за појединце и друштво.

Лидери мисли, истраживачи, организације и правни органи треба да континуирано ревидирају одговорну литературу о вештачкој интелигенцији како би осигурали безбедну будућност за АИ иновације.

За више садржаја у вези са вештачком интелигенцијом, посетите ујединити.аи.