Connect with us

Lideri de opinie

IA și Arcul Încrederii

mm

La începutul anului trecut, când echipa noastră făcea previziuni despre ce ne așteaptă, consensul a fost că învelișul se ridică de pe inteligența artificială (IA). Ne-am fi dat seama, în sfârșit, ce poate face și, sperăm, am obține claritate cu privire la impactul său asupra afacerilor și societății și cum să procedăm. Nu a fost o previziune nouă, dar nucleul său a fost precis, deși încă ne luptăm cu implicațiile IA și cu modul în care (sau dacă) ar trebui controlată în vreun fel.

Ne-am fi așteptat să vedem Apple, Microsoft și Google integrând IA în dispozitive și aducând puterea acesteia unui public mai larg și mai numeros. Apoi, un chatbot într-un instrument de căutare bazat pe IA a amenințat utilizatorii și a afirmat că a spionat angajații, în timp ce altul a sugeras folosirea cleiului Elmer pentru a ține brânza pe pizza făcută acasă. Cu toate acestea, cazurile de utilizare a IA în afaceri au crescut dramatic, și la fel a făcut și piața. Conform datelor de la Crunchbase, aproape o treime din finanțarea globală de venture a fost alocată anul trecut companiilor din domeniul IA.

Dar chiar și atunci când OpenAI a livrat o raționament remarcabil îmbunătățit, cercetătorul de IA renumit, Yoshua Bengio, a solicitat adoptarea unor măsuri de siguranță pentru “modelele de frontieră” cu potențialul de a cauza daune catastrofale. Și, deși tehnologia a câștigat două Premii Nobel pentru aplicațiile sale în știință, unul dintre câștigători a exprimat îngrijorare cu privire la sistemele “mai inteligente decât noi care, în cele din urmă, iau controlul”.

Într-un spațiu atât de dinamic, este dificil pentru tehnologii experimentate să țină pasul, dar și pentru cei din mainstream.

Și acele “încurcături” ale IA – și preocupările cu privire la confidențialitate și utilizarea necontrolată – au sporit doar reticența publică.

Încredere-mă

Ne găsim la jumătatea drumului pe un arc al încrederii, care necesită avansarea acceptării publice a IA, asigurând în același timp ca comunitățile de afaceri și tehnologie să acționeze responsabil. Prima parte este unde se joacă jocul în acest moment, la nivel corporativ, câștigând avânt cu fiecare implementare sigură și corectă. Ne construim pe punctele noastre de referință, care vor duce, în cele din urmă, la o creștere a încrederii publice. A doua parte, însă, este mult mai dificilă.

Cine definește și impune utilizarea responsabilă a IA? Poate o industrie crea linii directoare atunci când acestea sunt cele care au nevoie de reglementare? Dacă tehnologii au dificultăți în a urmări IA, vor fi factorii de decizie politici informați și vor ține agenda lor politică în afara discuției? Și atunci când un miliardar IA brusc vrea să vorbească despre control, a avut el o revelație sau doar încearcă să frâneze pentru a ține pasul?

“Încredere-mă” nu va funcționa cu IA, indiferent de cine sunteți.

Încredere, dar verifică

Oamenii privesc IA generativă, cum ar fi ChatGPT, și se întreabă dacă va fi următorul Google? Ei bine, primul rezultat al unei căutări Google este creat acum de modelul său de IA, Gemini. Problema este că nu puteți să vă bazați pe el pentru afaceri la scară largă atunci când o întrebare simplă, cum ar fi “Este carnea crudă sigură pentru consum?” returnează răspunsul “Da, înghețată”. Trebuie să inspectați datele.

Arcul încrederii publice va urma ceea ce s-a întâmplat cu căutarea convențională, câștigată în timp și cu dovada fiabilității. Ironia este că, în încercarea noastră de a simplifica și îmbunătăți căutarea, am făcut un pas înapoi. Acum, după ce obțineți acel răspuns generat de IA în partea de sus, trebuie să derulați o listă lungă de linkuri de sponsorizare, să faceți clic pe următoarele cinci și să calificați în continuare informațiile.

Asta este multă muncă atunci când căutați un răspuns rapid – și nu puteți avea o întreagă companie făcând același lucru. Cu toate acestea, îmbogățiți datele pe care le-ați extras cu zeci de mii de bilete de service proprii și aduceți cunoștințe reale despre mediul dvs. Algoritmic, puteți configura apoi “halucinațiile” în jos, dar rămâne o situație “încredere, dar verifică”.

Țineți politica în afara acestui lucru

Atunci când vine vorba de reglementarea IA, unii susțin că calul a already părăsit grajdul și probabil nu va fi prins. De exemplu, există o lipsă de instrumente cu adevărat eficiente pentru a verifica dacă un student a redactat o lucrare sau a utilizat GenAI. Tehnologia este pur și simplu prea avansată.

Reglementarea acestui lucru ar fi foarte complexă, și, pentru a fi sincer, am fi pe punctul de a intra pe gheață subțire. Știm că companiile de tehnologie sunt cu decenii înaintea reglementatorilor propuși. Dar suntem buni la crearea unui drum, nu la a fi ținuți în urmă. Cu toate acestea, la sfârșitul zilei, poate că va cădea pe umerii inovatorilor să încerce să aplice guvernanța. Cine altcineva ar putea face acest lucru – în mod responsabil?

Există mulți politicieni care ar iubi să încerce. Riscul, pe lângă lipsa de înțelegere, este că au o agendă personală și politică de promovat. Focusul lor, potențial, ar fi mai puțin axat pe cultivarea IA și mai mult pe a face ce este în interesul lor politic. Ei ar putea lucra pe teama publică, folosind o mână grea pentru a împiedica progresul.

Legea CHIPS și Știință a fost un exemplu bun de acțiune guvernamentală sănătoasă, producând o creștere dramatică de 15 ori a construirii de facilități de fabricație pentru computere și dispozitive electronice. Dar acest lucru a fost posibil prin bipartizanat – din ce în ce mai mult o relicvă a unei epoci trecute.

Suntem vrednici?

Există multă bani care curg în IA și, în următorii două decenii, multă lume va fi făcută de companiile de tehnologie. Cât, cât de repede și cât de sigur rămâne de văzut. În orice zi, o “falsificare profundă” ar putea fi difuzată, arătând pe cineva din lumina reflectoarelor, jonglând cu ouăle unui pasăre în pericol. Publicul ar reacționa cu oror, și, deși s-ar putea dovedi a fi generat de IA, oul nu se va întoarce în coajă – dauna este făcută.

Avem nevoie ca astfel de lucruri să fie reglementate de tehnologii informate. Care va fi forma acestui lucru – un consiliu, un organism de standarde, un cadru internațional – rămâne de văzut. Ce este cunoscut este că IA se află pe un arc al încrederii, și, ca industrie, avem nevoie să demonstrăm că suntem vrednici de aceasta.

Eduardo Mota este un arhitect de date cloud senior și un specialist AI/ML la DoiT. Un arhitect cloud și specialist ML de succes, el deține o diplomă de licență în administrarea afacerilor și multiple certificări conexe, demonstrându-și urmărirea neîncetată a cunoașterii. Călătoria lui Eduardo include roluri cheie la DoiT și AWS, unde expertiza sa în arhitectura cloud și strategiile de optimizare AWS și GCP a avut un impact semnificativ asupra eficienței operaționale și a economiilor de cost pentru multiple organizații.