стуб Забринутост око потенцијалних ризика од ЦхатГПТ-а добија на замаху, али да ли је пауза у АИ добар потез? - Уните.АИ
Повежите се са нама

Вође мисли

Забринутост око потенцијалних ризика од ЦхатГПТ-а добија на замаху, али да ли је пауза у АИ добар потез?

mm

објављен

 on

Док су Елон Муск и други глобални технолошки лидери позвали на а пауза у АИ након објављивања ЦхатГПТ-а, неки критичари верују да заустављање развоја није решење. Еванђелиста вештачке интелигенције Ендрју Пери из компаније АББИИ за интелигентну аутоматизацију верује да је пауза као враћање пасте за зубе у тубу. Ево, он нам каже зашто…

АИ апликације су свеприсутне и утичу на готово сваки аспект наших живота. Иако је похвално, сада укључивање кочница може бити невероватно.

Свакако постоји опипљива забринутост која позива на појачан регулаторни надзор који би владао у његовим потенцијалним штетним утицајима.

Недавно је Италијанска управа за заштиту података привремено блокирала коришћење ЦхатГПТ-а широм земље због забринутости за приватност у вези са начином прикупљања и обраде личних података који се користе за обуку модела, као и очигледног недостатка заштитних мера, излажући децу одговорима „апсолутно непримерено њиховом узрасту и свести.”

Европска потрошачка организација (БЕУЦ) позива ЕУ да истражи потенцијалне штетне утицаје великих језичких модела с обзиром на „растућу забринутост о томе како би ЦхатГПТ и слични цхат ботови могли да обману и манипулишу људима. Ови системи вештачке интелигенције захтевају већи јавни надзор, а јавне власти морају поново да успоставе контролу над њима."

У САД Центар за вештачку интелигенцију и дигиталну политику је поднео жалбу Федералној трговинској комисији да ЦхатГПТ крши одељак 5 Закона о савезној трговинској комисији (ФТЦ Ацт) (15 УСЦ 45). Основа жалбе је да ЦхатГПТ наводно не испуњава услове вођење коју је одредила ФТЦ за транспарентност и објашњивост система вештачке интелигенције. Наведено је да је ЦхатГПТ признао неколико познатих ризици укључујући угрожавање права на приватност, стварање штетног садржаја и пропагирање дезинформација.

Корисност великих језичких модела као што је ЦхатГПТ, без обзира на истраживања, указује на њен потенцијал Тамна страна. Доказано је да даје нетачне одговоре, јер је основни ЦхатГПТ модел заснован на алгоритмима дубоког учења који користе велике скупове података за обуку са интернета. За разлику од других цхат робота, ЦхатГПТ користи језичке моделе засноване на техникама дубоког учења које генеришу текст сличан људским разговорима, а платформа „долази до одговора низом нагађања, што је део разлога зашто може да аргументује погрешне одговоре као да биле потпуно истините.”

Штавише, доказано је да ЦхатГПТ наглашава и појачава пристрасност што резултира „одговорима који дискриминишу пол, расу и мањинске групе, нешто што компанија покушава да ублажи“. ЦхатГПТ такође може бити добра награда за злобне актере да искористе несуђене кориснике, компромитујући њихове приватност и излажући их превара напади.

Ова забринутост је навела Европски парламент да објави а коментар што појачава потребу даљег јачања постојећих одредби нацрта Закон ЕУ о вештачкој интелигенцији, (АИА) која још увек чека ратификацију. У коментару се истиче да се тренутни нацрт предложене уредбе фокусира на оно што се назива уским апликацијама вештачке интелигенције, које се састоје од специфичних категорија високоризичних система вештачке интелигенције, као што су запошљавање, кредитна способност, запошљавање, спровођење закона и подобност за социјалне услуге. Међутим, нацрт уредбе ЕУ о АИА не покрива вештачку интелигенцију опште намене, као што су модели великих језика који пружају напредније когнитивне способности и који могу „да обављају широк спектар интелигентних задатака“. Постоје позиви да се прошири делокруг нацрта уредбе како би укључио посебну категорију високог ризика АИ система опште намене, захтевајући од програмера да предузму ригорозно ек анте тестирање усаглашености пре стављања таквих система на тржиште и да континуирано прате њихов учинак за потенцијални неочекивани штетни резултати.

Посебно користан комад истраживање скреће свест о овом јазу да је пропис ЕУ АИА „примарно фокусиран на конвенционалне моделе вештачке интелигенције, а не на нову генерацију чијем рођењу данас присуствујемо“.

Предлаже четири стратегије које би регулатори требало да размотре.

  1. Захтевати од програмера оваквих система да редовно извештавају о ефикасности својих процеса управљања ризиком како би се ублажили штетни исходи.
  2. Предузећа која користе велике језичке моделе требало би да буду обавезна да открију својим клијентима да је садржај генерисан вештачком интелигенцијом.
  3. Програмери би требало да се претплате на формални процес постепеног објављивања, као део оквира за управљање ризиком, који је дизајниран да заштити од потенцијално непредвиђених штетних исхода.
  4. Ставите одговорност на програмере да „ублаже ризик у његовим коренима“ тако што ће морати „проактивно да ревидирају скуп података о обуци ради лажних представљања“.

Фактор који одржава ризике повезане са дисруптивним технологијама је нагон иноватора да остваре предност првог покретача усвајањем пословног модела „прво отпреми, а касније поправи“. Док је ОпенАИ донекле транспарентан о потенцијалним ризицима ЦхатГПТ-а, они су га пустили за широку комерцијалну употребу уз обавезу да корисници сами одмере и преузму ризике „чувај се купац“. То може бити неодржив приступ с обзиром на свеобухватан утицај конверзацијских АИ система. Проактивна регулација заједно са снажним мерама спровођења морају бити од највеће важности када се рукује таквом технологијом која омета.

Вештачка интелигенција већ прожима скоро сваки део наших живота, што значи да би пауза у развоју вештачке интелигенције могла да имплицира мноштво непредвиђених препрека и последица. Уместо да нагло стварају паузе, индустрија и законодавни актери би требало да сарађују у доброј вери како би донели ефикасну регулативу која је укорењена у вредностима усмереним на човека као што су транспарентност, одговорност и правичност. Позивајући се на постојеће законодавство као што је АИА, лидери у приватном и јавном сектору могу да осмисле темељне, глобално стандардизоване политике које ће спречити злонамерне употребе и ублажити штетне исходе, чиме ће вештачка интелигенција бити у границама побољшања људских искустава.

Ендру Пери је еванђелиста етике вештачке интелигенције у компанији за интелигентну аутоматизацију АББИИ. Пери има више од 25 година искуства на челу програма управљања производима за водеће глобалне технолошке компаније. Његова стручност је у интелигентној аутоматизацији процеса докумената и процесној интелигенцији са посебном експертизом у АИ технологијама, апликативном софтверу, приватности података и етици АИ. Има диплому магистра права са одликом на Правном факултету Универзитета Нортхвестерн Притзкер и сертификовани је стручњак за заштиту приватности података.