Liderii gândirii
AI și lupta împotriva tehnofobiei

Când vine vorba de IA generativă și modele de limbaj mari, cum ar fi ChatGPT. Entuziasmul AI este amestecat cu tehnofobia. Acest lucru este firesc pentru publicul larg: le plac lucrurile noi interesante, dar le este frică de necunoscut. Lucrul nou este că mai mulți oameni de știință proeminenți au devenit ei înșiși tehno-sceptici, dacă nu tehnofobi. Cazul oamenilor de știință și industriașilor care cer interzicerea de șase luni a cercetării IA sau scepticismul celui mai bun om de știință AI, Prof. A. Hinton, sunt astfel de exemple. Singurul echivalent istoric înrudit pe care îl pot aminti este critica la adresa bombelor atomice și nucleare de către o parte a comunității științifice în timpul războiului rece. Din fericire, omenirea a reușit să abordeze aceste preocupări într-un mod destul de satisfăcător.
Desigur, toată lumea are dreptul să pună la îndoială starea actuală a afacerilor AI:
- Nimeni nu știe de ce modelele mari de limbă funcționează atât de bine și dacă au o limită.
- Multe pericole pe care băieții răi le creează „bombe AI” pândesc, mai ales dacă statele rămân spectatori pasivi, în ceea ce privește reglementările.
Acestea sunt preocupări legitime care alimentează teama de necunoscut, chiar și pentru oamenii de știință de seamă. La urma urmei, ei sunt înșiși oameni.
Cu toate acestea, cercetarea AI se poate opri chiar și temporar? În opinia mea, nu, deoarece AI este răspunsul umanității la o societate globală și la o lume fizică de o complexitate din ce în ce mai mare. Pe măsură ce procesele de creștere a complexității fizice și sociale sunt foarte profunde și par necruțătoare, inteligența artificială și morfoza cetățenilor sunt singura noastră speranță de a avea o tranziție fără probleme de la actuala Societate Informațională la o Societate a Cunoașterii. Altfel, ne putem confrunta cu o implozie socială catastrofală.
Soluția este să ne aprofundăm înțelegerea progreselor AI, să accelerăm dezvoltarea acesteia, să reglementăm utilizarea acestuia pentru a maximiza impactul său pozitiv, minimizând în același timp efectele negative deja evidente și alte ascunse. Cercetarea AI poate și ar trebui să devină diferită: mai deschisă, democratică, științifică și etică. Iată o listă propusă de puncte în acest scop:
- Primul cuvânt cu privire la problemele importante de cercetare IA care au un impact social de anvergură ar trebui să fie delegat parlamentelor și guvernelor alese, mai degrabă decât corporațiilor sau oamenilor de știință individuali.
- Ar trebui depuse toate eforturile pentru a facilita explorarea aspectelor pozitive ale IA în progresul social și financiar și pentru a minimiza aspectele negative ale acesteia.
- Impactul pozitiv al sistemelor AI poate depăși cu mult aspectele lor negative, dacă sunt luate măsuri de reglementare adecvate. Tehnofobia nu este nici justificată, nici soluție.
- Din punctul meu de vedere, cea mai mare amenințare actuală vine din faptul că astfel de sisteme AI pot înșela de la distanță prea mulți oameni de rând care au o educație mică (sau medie) și/sau o capacitate de investigare redusă. Acest lucru poate fi extrem de periculos pentru democrație și pentru orice formă de progres socio-economic.
- În viitorul apropiat, ar trebui să contracarăm marea amenințare provenită din utilizarea LLM și/sau CAN în activități ilegale (trișarea la examenele universitare este o utilizare destul de benignă în spațiul posibilităților criminale aferente).
- Impactul acestora asupra muncii și piețelor va fi foarte pozitiv, pe termen mediu-lung.
- Având în vedere cele de mai sus, sistemele AI ar trebui: a) să fie obligate de dreptul internațional să fie înregistrate într-un „registru al sistemului AI” și b) să-și notifice utilizatorii că conversează sau folosesc rezultatele unui sistem AI.
- Deoarece sistemele AI au un impact societal imens și spre maximizarea beneficiilor și a progresului socio-economic, tehnologiile cheie avansate ale sistemelor AI ar trebui să devină deschise.
- Datele legate de IA ar trebui (cel puțin parțial) democratizate, din nou pentru maximizarea beneficiilor și a progresului socio-economic.
- Trebuie prevăzute scheme adecvate de compensare financiară puternică pentru campionii tehnologiei IA pentru a compensa orice pierdere de profit, din cauza deschiderii menționate anterior și pentru a asigura investiții viitoare puternice în cercetarea și dezvoltarea IA (de exemplu, prin brevetarea tehnologiei, scheme de licențiere obligatorie).
- Echilibrul de cercetare IA dintre academie și industrie ar trebui regândit pentru a maximiza rezultatele cercetării, menținând în același timp competitivitatea și acordând recompense pentru riscurile de cercetare și dezvoltare asumate.
- Practicile educaționale ar trebui revizuite la toate nivelurile de educație pentru a maximiza beneficiile din tehnologiile AI, creând în același timp o nouă generație de cetățeni și oameni de știință (AI) creativi și adaptabili.
- Ar trebui create și consolidate mecanisme adecvate de reglementare/supraveghere/finanțare pentru a asigura cele de mai sus.
Câteva astfel de puncte sunt tratate în detaliu în cartea mea recentă din volumul 4 despre „AI Science and Society”, în special în volumele A (rescrise în mai 2023 pentru a acoperi LLM-urile și inteligența generală artificială) și C.
Referințe cărți:
Știința și societatea inteligenței artificiale Partea C: Știința și societatea AI