Inteligență artificială
OpenAI Creează Consiliul de Siguranță, Antrenează Următorul Model de IA În mijlocul Controverselor

OpenAI a făcut progrese semnificative în avansarea tehnologiilor de inteligență artificială, cu cel mai recent realizare fiind GPT-4o sistemul care alimentează chatbot-ul popular ChatGPT. Astăzi, OpenAI a anunțat înființarea unui nou comitet de siguranță, Consiliul de Siguranță OpenAI, și a dezvăluit că a început antrenarea unui nou model de IA.
Cine face parte din Consiliul de Siguranță al OpenAI?
Noul Consiliu de Siguranță OpenAI are ca scop principal să ofere îndrumare și supraveghere a deciziilor critice de siguranță și securitate legate de proiectele și operațiunile companiei. Obiectivul principal al consiliului este să se asigure că practicile de dezvoltare a IA ale OpenAI prioritizează siguranța și se aliniază cu principiile etice. Comitetul de siguranță este format dintr-un grup divers de persoane, incluzând executivi OpenAI, membri ai consiliului de administrație și experți tehnici și de politici.
Membri notabili ai Consiliului de Siguranță OpenAI includ:
- Sam Altman, CEO al OpenAI
- Bret Taylor, Președinte al OpenAI
- Adam D’Angelo, CEO al Quora și membru al consiliului de administrație al OpenAI
- Nicole Seligman, fost consilier general al Sony și membru al consiliului de administrație al OpenAI
În faza inițială, noul comitet de siguranță și securitate se va concentra pe evaluarea și consolidarea proceselor și a măsurilor de siguranță existente ale OpenAI. Consiliul de Siguranță OpenAI a stabilit un termen de 90 de zile pentru a face recomandări consiliului de administrație cu privire la modul de îmbunătățire a practicilor de dezvoltare a IA și a sistemelor de siguranță ale companiei. Odată ce recomandările sunt adoptate, OpenAI intenționează să le facă publice într-un mod care să fie consecvent cu considerațiile de siguranță și securitate.
Antrenarea Noului Model de IA
În paralel cu înființarea Consiliului de Siguranță OpenAI, OpenAI a anunțat că a început antrenarea noului său model de frontieră. Acest nou model de inteligență artificială este așteptat să depășească capacitățile sistemului GPT-4 care alimentează în prezent ChatGPT. Deși detalii despre noul model de IA sunt rare, OpenAI a declarat că va conduce industria atât în ceea ce privește capacitatea, cât și siguranța.
Dezvoltarea acestui nou model de IA subliniază ritmul rapid de inovare în domeniul inteligenței artificiale și potențialul pentru inteligență artificială generală (AGI). Pe măsură ce sistemele de IA devin mai avansate și mai puternice, este crucial să se prioritizeze siguranța și să se asigure că aceste tehnologii sunt dezvoltate în mod responsabil.
Controverselor Recent ale OpenAI și Plecări
Reînnoirea focalizării OpenAI pe siguranță vine într-o perioadă de tulburări interne și de scrutin public. În săptămânile recente, compania a fost criticată din interiorul propriilor sale rânduri, cu cercetătorul Jan Leike demisionând și exprimându-și îngrijorarea că siguranța a fost lăsată în urmă față de dezvoltarea de “produse strălucitoare”. Demisia lui Leike a fost urmată de plecarea lui Ilya Sutskever, co-fondator și șef-științific al OpenAI.
Plecările lui Leike și Sutskever au ridicat întrebări cu privire la prioritățile companiei și la abordarea sa față de siguranța IA. Cei doi cercetători au condus împreună echipa “superaliniere” a OpenAI, care a fost dedicată abordării riscurilor pe termen lung ale IA. După demisiile lor, echipa de superaliniere a fost desființată, ceea ce a alimentat și mai mult îngrijorările cu privire la angajamentul companiei față de siguranță.
În plus față de tulburările interne, OpenAI a fost acuzat și de imitarea vocii în chatbot-ul său ChatGPT. Unii utilizatori au afirmat că vocea chatbot-ului îi amintește izbitor de cea a actriței Scarlett Johansson. Deși OpenAI a negat intenționat să imite vocea lui Johansson, incidentul a declanșat o discuție mai largă despre implicațiile etice ale conținutului generat de IA și potențialul de abuz.
O Discuție Mai Amplă despre Etica IA
Pe măsură ce domeniul inteligenței artificiale continuă să evolueze rapid, este crucial pentru companii precum OpenAI să se implice într-un dialog și o colaborare continue cu cercetători, factori de decizie și publicul larg pentru a se asigura că tehnologiile de IA sunt dezvoltate în mod responsabil și cu măsuri de siguranță robuste. Recomandările prezentate de Consiliul de Siguranță OpenAI și angajamentul OpenAI față de transparență vor contribui la discuția mai largă despre guvernanța IA și vor ajuta la modelarea viitorului acestei tehnologii transformaționale, dar numai timpul va arăta ce va rezulta.












