stub Susirūpinimas dėl galimos ChatGPT rizikos įgauna pagreitį, bet ar AI pristabdymas yra geras žingsnis? - Vienykitės.AI
Susisiekti su mumis

Minties lyderiai

Susirūpinimas dėl galimos ChatGPT rizikos įgauna pagreitį, bet ar AI pristabdymas yra geras žingsnis?

mm

paskelbta

 on

Nors Elonas Muskas ir kiti pasauliniai technologijų lyderiai ragino a pauzė AI Po ChatGPT išleidimo kai kurie kritikai mano, kad plėtros sustabdymas nėra išeitis. Dirbtinio intelekto evangelistas Andrew Pery iš intelektualios automatikos įmonės ABBYY mano, kad pertrauka yra tarsi dantų pastos įdėjimas atgal į tūbelę. Čia jis mums pasakoja, kodėl…

AI programos yra plačiai paplitusios ir turi įtakos beveik kiekvienam mūsų gyvenimo aspektui. Nors ir pagirtina, dabar įjungti stabdžius gali būti neįtikėtina.

Neabejotinai yra apčiuopiamų rūpesčių, reikalaujančių sustiprinti reguliavimo priežiūrą, kad jos galimi žalingi padariniai vyrautų.

Visai neseniai Italijos duomenų apsaugos institucija laikinai užblokavo ChatGPT naudojimą visoje šalyje dėl privatumo problemų, susijusių su asmens duomenų, naudojamų modeliui apmokyti, rinkimo ir apdorojimo būdu, taip pat dėl ​​akivaizdaus apsaugos priemonių trūkumo, dėl kurių vaikai gali atsakyti „absoliučiai“. netinkamas jų amžiui ir sąmoningumui“.

Europos vartotojų organizacija (BEUC) ragina ES ištirti galimą žalingą didelio masto kalbos modelių poveikį, atsižvelgiant į „augantį susirūpinimą dėl to, kaip ChatGPT ir panašūs pokalbių robotai gali apgauti ir manipuliuoti žmonėmis. Šioms dirbtinio intelekto sistemoms reikia didesnės visuomenės kontrolės, o valdžios institucijos turi iš naujo patvirtinti jų kontrolę.

Be JAV, AI ir skaitmeninės politikos centras pateikė skundą Federalinei prekybos komisijai, kad ChatGPT pažeidžia Federalinės prekybos komisijos įstatymo (FTC įstatymo) 5 skirsnį (15 USC 45). Skundo pagrindas yra tai, kad ChatGPT tariamai nesilaiko vadovavimas FTC nustatytas AI sistemų skaidrumas ir paaiškinamumas. Buvo daroma nuoroda į „ChatGPT“ patvirtinimus dėl kelių žinomų rizika įskaitant privatumo teisių pažeidimą, žalingo turinio kūrimą ir dezinformacijos skleidimą.

Didelio masto kalbos modelių, tokių kaip ChatGPT, naudingumas, nepaisant tyrimų, rodo jo potencialą tamsioji pusė. Įrodyta, kad jis pateikia neteisingus atsakymus, nes pagrindinis ChatGPT modelis yra pagrįstas gilaus mokymosi algoritmais, kurie naudoja didelius mokymo duomenų rinkinius iš interneto. Skirtingai nuo kitų pokalbių robotų, „ChatGPT“ naudoja kalbos modelius, pagrįstus giluminio mokymosi metodais, kurie generuoja tekstą, panašų į žmonių pokalbius, o platforma „gauna atsakymą padarydama daugybę spėjimų, o tai yra dalis priežasčių, dėl kurių ji gali ginčyti neteisingus atsakymus, tarsi jie buvo visiška tiesa“.

Be to, įrodyta, kad „ChatGPT“ pabrėžia ir sustiprina šališkumą, todėl gaunami „atsakymai, diskriminuojantys lyties, rasės ir mažumų grupes, o tai, ką įmonė bando sušvelninti“. „ChatGPT“ taip pat gali būti naudinga nedoriems veikėjams išnaudoti nieko neįtariančius vartotojus ir pakenkti jų privatumo ir atskleisti jiems sukčių išpuolius.

Šie susirūpinimą keliantys klausimai paskatino Europos Parlamentą paskelbti a komentaras o tai sustiprina poreikį toliau stiprinti dabartines projekto nuostatas ES dirbtinio intelekto įstatymas, (AIA), kuri vis dar laukiama ratifikavimo. Komentare nurodoma, kad dabartiniame siūlomo reglamento projekte didžiausias dėmesys skiriamas vadinamosioms siauroms AI programoms, kurias sudaro konkrečios didelės rizikos AI sistemų kategorijos, tokios kaip įdarbinimas, kreditingumas, užimtumas, teisėsauga ir tinkamumas socialinėms paslaugoms. Tačiau ES AIA reglamento projektas neapima bendrosios paskirties AI, pvz., didelių kalbų modelių, kurie suteikia daugiau pažangių pažinimo galimybių ir gali „atlikti daugybę protingų užduočių“. Raginama išplėsti reglamento projekto taikymo sritį įtraukiant atskirą didelės rizikos kategoriją bendrosios paskirties dirbtinio intelekto sistemas, pagal kurias kūrėjai prieš pateikdami tokias sistemas į rinką atliktų griežtus ex ante atitikties bandymus ir nuolat stebėtų jų veikimą galimi netikėti žalingi rezultatai.

Ypač naudingas gabalas tyrimas atkreipia dėmesį į šią spragą, kad ES AIA reglamentas „visų pirma orientuotas į tradicinius AI modelius, o ne į naująją kartą, kurios gimimo liudininkais esame šiandien“.

Jame rekomenduojamos keturios strategijos, kurias reguliavimo institucijos turėtų apsvarstyti.

  1. Reikalauti, kad tokių sistemų kūrėjai reguliariai praneštų apie savo rizikos valdymo procesų veiksmingumą siekiant sumažinti žalingus rezultatus.
  2. Įmonės, naudojantys didelio masto kalbų modelius, turėtų būti įpareigotos atskleisti savo klientams, kad turinys buvo sukurtas dirbtiniu intelektu.
  3. Kūrėjai turėtų prisijungti prie oficialaus etapinio išleidimo proceso, kuris yra rizikos valdymo sistemos dalis, skirta apsisaugoti nuo galimai nenumatytų žalingų padarinių.
  4. Padėkite kūrėjams „sumažinti riziką nuo jos šaknų“ ir „aktyviai tikrinti mokymo duomenų rinkinį, ar nėra klaidingų pateikimų“.

Veiksnys, dėl kurio išlieka rizika, susijusi su laužančiomis technologijomis, yra novatorių siekis pasiekti pirmųjų pranašumų, taikant verslo modelį „pirmas vežk, o vėliau taisyk“. Nors OpenAI yra šiek tiek skaidrus apie galimą „ChatGPT“ riziką, jie išleido jį plačiam komerciniam naudojimui, o „pirkėjo saugokitės“ naudotojams tenka pareiga pasverti ir prisiimti riziką patiems. Tai gali būti nepagrįstas požiūris, atsižvelgiant į visuotinį pokalbių AI sistemų poveikį. Iniciatyvus reguliavimas kartu su tvirtomis vykdymo užtikrinimo priemonėmis turi būti svarbiausias dalykas, kai tvarkoma tokia žalinga technologija.

Dirbtinis intelektas jau prasiskverbia beveik į visas mūsų gyvenimo dalis, o tai reiškia, kad AI plėtros sustabdymas gali reikšti daugybę nenumatytų kliūčių ir pasekmių. Užuot staigus pertraukas, pramonė ir teisės aktų leidybos veikėjai turėtų sąžiningai bendradarbiauti, kad priimtų veiksmingą reguliavimą, pagrįstą į žmogų orientuotomis vertybėmis, tokiomis kaip skaidrumas, atskaitomybė ir sąžiningumas. Remdamiesi galiojančiais teisės aktais, tokiais kaip AIA, privataus ir viešojo sektorių lyderiai gali sukurti išsamią, pasauliniu mastu standartizuotą politiką, kuri užkirs kelią netinkamam naudojimui ir sumažins neigiamus padarinius, taip išlaikant dirbtinį intelektą tobulinant žmonių patirtį.

Andrew Pery yra AI etikos evangelistas išmaniojoje automatizavimo įmonėje „ABBYY“. Pery turi daugiau nei 25 metų patirtį pirmaujančių pasaulinių technologijų įmonių produktų valdymo programų srityje. Jo kompetencija yra intelektualaus dokumentų procesų automatizavimo ir procesų žvalgybos srityse, ypač AI technologijų, taikomosios programinės įrangos, duomenų privatumo ir AI etikos srityse. Jis turi išskirtinį teisės magistro laipsnį Šiaurės Vakarų universiteto Pritzkerio teisės mokykloje ir yra sertifikuotas duomenų privatumo specialistas.