стуб Технолошки лидери истичу ризике вештачке интелигенције и хитност чврсте регулативе вештачке интелигенције - Уните.АИ
Повежите се са нама

Вештачка интелигенција

Технолошки лидери истичу ризике вештачке интелигенције и хитност чврсте регулације вештачке интелигенције

mm

објављен

 on

Истакнути блог Имаге-Тецх лидери који истичу ризике вештачке интелигенције и хитност чврсте регулације вештачке интелигенције

Раст и напредак вештачке интелигенције били су експоненцијални у последњих неколико година. Статиста извештава да ће до 2024. глобално тржиште вештачке интелигенције генерисати запањујући приход од око 3000 милијарди долара, у поређењу са 126 милијарди долара у 2015. Међутим, технолошки лидери нас сада упозоравају на различите ризике вештачке интелигенције.

Посебно, недавни талас генеративна АИ модели као што је ЦхатГПТ је увео нове могућности у различите секторе осетљиве на податке, као што су здравство, образовање, финансиратиитд. Ови развоји подржани вештачком интелигенцијом су рањиви због многих недостатака вештачке интелигенције које злонамерни агенти могу да открију.

Хајде да разговарамо о томе шта стручњаци за вештачку интелигенцију кажу о недавним дешавањима и истакнемо потенцијалне ризике АИ. Такође ћемо се укратко дотакнути како се овим ризицима може управљати.

Технолошки лидери и њихова забринутост у вези са ризицима вештачке интелигенције

Геоффреи Хинтон

Џефри Хинтон – познати технолошки лидер АИ (и кум ове области), који је недавно напустио Гоогле, је изразио своју забринутост о брзом развоју вештачке интелигенције и њеним потенцијалним опасностима. Хинтон верује да АИ цхатботови могу постати „прилично застрашујући“ ако надмаше људску интелигенцију.

Хинтон каже:

„Тренутно, оно што видимо је да ствари као што је ГПТ-4 помрачује особу у количини општег знања које има, и то је далеко засјенило. У смислу резоновања, није тако добро, али већ чини једноставно резоновање. А с обзиром на стопу напретка, очекујемо да ће ствари прилично брзо кренути на боље. Зато морамо да бринемо о томе."

Штавише, он верује да „лоши глумци“ могу да користе вештачку интелигенцију за „лоше ствари“, као што је омогућавање роботима да имају своје подциљеве. Упркос својој забринутости, Хинтон верује да вештачка интелигенција може донети краткорочне користи, али би такође требало много да улажемо у безбедност и контролу вештачке интелигенције.

Елон Муск

Учешће Елона Маска у вештачкој интелигенцији почело је његовим раним улагањем у ДеепМинд 2010. до суоснивача ОпенАИ и уграђивање вештачке интелигенције у Теслина аутономна возила.

Иако је одушевљен АИ, често изражава забринутост због ризика од АИ. Муск каже да моћни системи вештачке интелигенције могу бити опаснији за цивилизацију од нуклеарног оружја. У интервјуу на Фок Невс априла 2023. рекао је:

„АИ је опаснији од, рецимо, лошег управљања дизајном авиона или одржавања производње или лоше производње аутомобила. У смислу да има потенцијал – међутим, ту вероватноћу може се сматрати мала – али је нетривијална и има потенцијал уништења цивилизације.

Штавише, Муск подржава владине прописе о АИ како би се осигурала сигурност од потенцијалних ризика, иако „то није тако забавно“.

Паузирајте огромне експерименте са вештачком интелигенцијом: отворено писмо које подржава 1000 стручњака за вештачку интелигенцију

Институт за будућност живота објавио је отворено писмо 22. марта 2023. У писму се позива на привремену обуставу од шест месеци Развој АИ система је напреднији него РУЦЕНТЕР-КСНУМКС. Аутори изражавају забринутост због темпа којим се АИ системи развијају представљају озбиљне социоекономске изазове.

Штавише, у писму се наводи да програмери вештачке интелигенције треба да раде са креаторима политике на документовању система управљања АИ. Од јуна 2023. године, писмо је потписало више од 31,000 АИ програмера, стручњака и технолошких лидера. Значајни потписници су Елон Муск, Стеве Возниак (суоснивач компаније Аппле), Емад Мостакуе (извршни директор, Стабилити АИ), Јосхуа Бенгио (добитник Тјурингове награде) и многи други.

Контрааргументи о заустављању развоја вештачке интелигенције

Два истакнута лидера АИ, Андрев Нг и Ианн ЛеЦун, успротивили су се шестомесечној забрани развоја напредних АИ система и сматрали да је пауза лоша идеја.

Нг каже да иако АИ има неке ризике, као што су пристрасност, концентрација моћи, итд. Али вредност коју ствара вештачка интелигенција у областима као што су образовање, здравствена нега и коучинг је огромна.

Јан ЛеКун каже да истраживање и развој не треба зауставити, иако се производи вештачке интелигенције који стигну до крајњег корисника могу регулисати.

Које су потенцијалне опасности и непосредни ризици од вештачке интелигенције?

Потенцијалне опасности и непосредни ризици од вештачке интелигенције

1. Расељавање посла

Стручњаци за вештачку интелигенцију верују да интелигентни системи вештачке интелигенције могу заменити когнитивне и креативне задатке. Инвестициона банка Голдман Сацхс процењује да је око КСНУМКС милиона послова биће аутоматизован генеративним АИ.

Дакле, требало би да постоје прописи о развоју вештачке интелигенције како она не би изазвала озбиљан економски пад. Требало би да постоје образовни програми за доквалификацију и преквалификацију запослених да би се носили са овим изазовом.

2. Пристрасни АИ системи

Биасес који међу људским бићима преовладавају о полу, раси или боји могу ненамерно прожимати податке који се користе за обуку АИ система, што последично чини АИ системе пристрасним.

На пример, у контексту запошљавања, пристрасан систем вештачке интелигенције може одбацити биографије појединаца из одређене етничке припадности, стварајући дискриминацију на тржишту рада. У спровођење закона, пристрасна предиктивна полиција могла би несразмерно циљати на одређена насеља или демографске групе.

Стога је неопходно имати свеобухватну стратегију података која се бави ризицима од вештачке интелигенције, посебно пристрасношћу. Системи вештачке интелигенције морају се често оцењивати и ревидирати како би били праведни.

3. Безбедносно критичне АИ апликације

Аутономна возила, медицинска дијагностика и лечење, ваздухопловни системи, контрола нуклеарних електрана, итд., све су то примери безбедносно критичних апликација вештачке интелигенције. Ове системе вештачке интелигенције треба пажљиво развијати јер чак и мање грешке могу имати озбиљне последице по људски живот или животну средину.

На пример, неисправност софтвера АИ тзв Систем за повећање маневарских карактеристика (МЦАС) се делимично приписује паду два Боинга 737 МАКС, прво у октобру 2018. а затим у марту 2019. Нажалост, у две несреће је погинуло 346 људи.

Како можемо превазићи ризике АИ система? – Одговоран развој вештачке интелигенције и усклађеност са прописима

Одговоран развој вештачке интелигенције и усклађеност са прописима

Одговорни АИ (РАИ) значи развој и примену поштених, одговорних, транспарентних и безбедних система вештачке интелигенције који обезбеђују приватност и прате законске прописе и друштвене норме. Имплементација РАИ може бити сложена с обзиром на широк и брз развој АИ система.

Међутим, велике технолошке компаније су развиле РАИ оквире, као што су:

  1. Мицрософтова одговорна вештачка интелигенција
  2. Гоогле-ови принципи вештачке интелигенције
  3. ИБМ-ова поуздана вештачка интелигенција

Лабораторије за вештачку интелигенцију широм света могу да црпе инспирацију из ових принципа или да развију сопствене одговорне АИ оквире како би направили поуздане АИ системе.

Усклађеност са прописима АИ

Пошто су подаци интегрална компонента система вештачке интелигенције, организације и лабораторије засноване на вештачкој интелигенцији морају да се придржавају следећих прописа како би осигурали безбедност, приватност и безбедност података.

  1. ГДПР (Општа уредба о заштити података) – оквир за заштиту података од стране ЕУ.
  2. ЦЦПА (Калифорнијски закон о приватности потрошача) – статут државе Калифорније за права приватности и заштиту потрошача.
  3. ХИПАА (Закон о преносивости и одговорности здравственог осигурања) – амерички закон који штити медицинске податке пацијената.   
  4. Закон о вештачкој интелигенцији ЕУ, и Етичке смернице за поуздану вештачку интелигенцију – пропис Европске комисије о вештачкој интелигенцији.

Постоје различити регионални и локални закони које доносе различите земље како би заштитиле своје грађане. Организације које не успеју да обезбеде усаглашеност са прописима у вези са подацима могу довести до озбиљних казни. На пример, ГДПР је одредио новчану казну од 20 милиона евра или 4% годишњег профита за озбиљне повреде као што су незаконита обрада података, недоказан пристанак на податке, кршење права субјеката података или незаштићени пренос података међународном субјекту.

Развој вештачке интелигенције и регулатива – садашњост и будућност

Са сваким месецом који пролази, напредак вештачке интелигенције достиже невиђене висине. Али, пратећи прописи о вештачкој интелигенцији и оквири управљања заостају. Морају бити робуснији и специфичнији.

Технолошки лидери и програмери вештачке интелигенције упозоравају на ризике вештачке интелигенције ако нису адекватно регулисани. Истраживање и развој у АИ могу додатно донети вредност у многим секторима, али је јасно да је пажљива регулација сада императив.

За више садржаја у вези са вештачком интелигенцијом, посетите ујединити.аи.