Intelligenza artificiale
OpenAI forma Consiglio di Sicurezza, addestra il prossimo modello di intelligenza artificiale tra le controversie

OpenAI ha fatto notevoli passi avanti nell’avanzare le tecnologie di intelligenza artificiale, con il suo ultimo risultato più recente che è il sistema GPT-4o che alimenta il popolare chatbot ChatGPT. Oggi, OpenAI ha annunciato l’istituzione di un nuovo comitato di sicurezza, il Consiglio di Sicurezza di OpenAI, e ha rivelato che ha iniziato ad addestrare un nuovo modello di intelligenza artificiale.
Chi fa parte del Consiglio di Sicurezza di OpenAI?
Il neo-costituito Consiglio di Sicurezza di OpenAI ha lo scopo di fornire orientamento e supervisione sulle decisioni critiche relative alla sicurezza e alla sicurezza dei progetti e delle operazioni della società. L’obiettivo principale del consiglio è garantire che le pratiche di sviluppo di intelligenza artificiale di OpenAI diano priorità alla sicurezza e si allineino con i principi etici. Il comitato di sicurezza è composto da un gruppo diversificato di individui, tra cui dirigenti di OpenAI, membri del consiglio di amministrazione e esperti tecnici e di politica.
Membri notevoli del Consiglio di Sicurezza di OpenAI includono:
- Sam Altman, CEO di OpenAI
- Bret Taylor, Presidente di OpenAI
- Adam D’Angelo, CEO di Quora e membro del consiglio di amministrazione di OpenAI
- Nicole Seligman, ex consigliere generale di Sony e membro del consiglio di amministrazione di OpenAI
Nella sua fase iniziale, il nuovo comitato di sicurezza e sicurezza si concentrerà sull’evaluazione e sul rafforzamento dei processi di sicurezza e delle salvaguardie esistenti di OpenAI. Il Consiglio di Sicurezza di OpenAI ha fissato un termine di 90 giorni per fornire raccomandazioni al consiglio di amministrazione su come migliorare le pratiche di sviluppo di intelligenza artificiale e i sistemi di sicurezza della società. Una volta adottate le raccomandazioni, OpenAI prevede di renderle pubbliche in modo coerente con le considerazioni di sicurezza e sicurezza.
Addestramento del nuovo modello di intelligenza artificiale
In parallelo con l’istituzione del Consiglio di Sicurezza di OpenAI, OpenAI ha annunciato di aver iniziato ad addestrare il suo prossimo modello di frontiera. Questo ultimo modello di intelligenza artificiale è atteso per superare le capacità del sistema GPT-4 attualmente alla base di ChatGPT. Sebbene i dettagli sul nuovo modello di intelligenza artificiale siano scarsi, OpenAI ha dichiarato che guiderà l’industria sia in termini di capacità che di sicurezza.
Lo sviluppo di questo nuovo modello di intelligenza artificiale sottolinea il ritmo rapido dell’innovazione nel campo dell’intelligenza artificiale e il potenziale per intelligenza artificiale generale (AGI). Man mano che i sistemi di intelligenza artificiale diventano più avanzati e potenti, è cruciale dare priorità alla sicurezza e garantire che queste tecnologie siano sviluppate in modo responsabile.
Le recenti controversie e partenze di OpenAI
Il rinnovato focus di OpenAI sulla sicurezza arriva in un periodo di turbolenza interna e di scrutinio pubblico. Nelle settimane recenti, la società ha affrontato critiche all’interno delle sue stesse file, con il ricercatore Jan Leike che si è dimesso e ha espresso preoccupazioni che la sicurezza aveva preso un posto secondario rispetto allo sviluppo di “prodotti lucidi”. Le dimissioni di Leike sono state seguite da quelle di Ilya Sutskever, co-fondatore e chief scientist di OpenAI.
Le partenze di Leike e Sutskever hanno sollevato interrogativi sui priorità della società e sul suo approccio alla sicurezza dell’intelligenza artificiale. I due ricercatori hanno guidato congiuntamente il team “superalignment” di OpenAI, dedicato all’addressing dei rischi a lungo termine dell’intelligenza artificiale. Dopo le loro dimissioni, il team superalignment è stato sciolto, alimentando ulteriormente le preoccupazioni sulla dedizione della società alla sicurezza.
In aggiunta alla turbolenza interna, OpenAI ha anche affrontato accuse di impersonificazione vocale nel suo chatbot ChatGPT. Alcuni utenti hanno affermato che la voce del chatbot assomiglia in modo sorprendente a quella dell’attrice Scarlett Johansson. Sebbene OpenAI abbia negato di aver impersonificato intenzionalmente Johansson, l’incidente ha innescato una più ampia conversazione sulle implicazioni etiche dei contenuti generati dall’intelligenza artificiale e sul potenziale per abusi.
Una più ampia conversazione sull’etica dell’intelligenza artificiale
Man mano che il campo dell’intelligenza artificiale continua a evolversi rapidamente, è cruciale che società come OpenAI si impegnino in un dialogo continuo e in collaborazione con ricercatori, responsabili delle politiche e il pubblico per garantire che le tecnologie di intelligenza artificiale siano sviluppate in modo responsabile e con salvaguardie robuste in atto. Le raccomandazioni presentate dal Consiglio di Sicurezza di OpenAI e l’impegno di OpenAI per la trasparenza contribuiranno alla più ampia conversazione sulla governance dell’intelligenza artificiale e aiuteranno a plasmare il futuro di questa tecnologia trasformativa, ma solo il tempo dirà cosa ne verrà fuori.












