Intelligence Artificielle
OpenAI forme un conseil de sécurité et forme un modèle d'IA de nouvelle génération au milieu de controverses

OpenAI a fait des progrès significatifs dans l'avancement des technologies d'intelligence artificielle, sa réalisation la plus récente étant la GPT-4o système qui alimente le populaire chatbot ChatGPT. Aujourd'hui, OpenAI annoncé la création d'un nouveau comité de sécurité, l'OpenAI Safety Council, et a révélé qu'il avait commencé à former un nouveau modèle d'IA.
Qui fait partie du Conseil de sécurité d'OpenAI ?
Le nouveau Conseil de sécurité d'OpenAI a pour mission de guider et de superviser les décisions critiques en matière de sécurité et de sûreté liées aux projets et aux opérations de l'entreprise. Son objectif principal est de garantir que les pratiques de développement d'IA d'OpenAI privilégient la sécurité et respectent les principes éthiques. Le comité de sécurité est composé d'un groupe diversifié de personnes, dont des dirigeants d'OpenAI, des membres du conseil d'administration et des experts techniques et politiques.
Les membres notables de l'OpenAI Safety Council comprennent :
- Sam Altman, PDG d'OpenAI
- Bret Taylor, Président d'OpenAI
- Adam D'Angelo, PDG de Quora et membre du conseil d'administration d'OpenAI
- Nicole Seligman, ancien avocat général de Sony et membre du conseil d'administration d'OpenAI
Dans un premier temps, le nouveau comité de sécurité se concentrera sur l'évaluation et le renforcement des processus et mesures de sécurité existants d'OpenAI. Le Conseil de sécurité d'OpenAI a fixé un délai de 90 jours pour formuler des recommandations au conseil d'administration sur la manière d'améliorer les pratiques de développement d'IA et les systèmes de sécurité de l'entreprise. Une fois ces recommandations adoptées, OpenAI prévoit de les publier dans le respect des exigences de sécurité.
Formation du nouveau modèle d'IA
Parallèlement à la création de l'OpenAI Safety Council, OpenAI a annoncé avoir commencé à former son prochain modèle frontière. Ce dernier modèle d'intelligence artificielle devrait dépasser les capacités du système GPT-4 qui sous-tend actuellement ChatGPT. Bien que les détails sur le nouveau modèle d'IA restent rares, OpenAI a déclaré qu'il serait à la pointe du secteur en termes de capacité et de sécurité.
Le développement de ce nouveau modèle d'IA souligne le rythme rapide de l'innovation dans le domaine de l'intelligence artificielle et le potentiel de intelligence générale artificielle (AGI). À mesure que les systèmes d’IA deviennent plus avancés et plus puissants, il est crucial de donner la priorité à la sécurité et de garantir que ces technologies sont développées de manière responsable.
Controverses et départs récents d'OpenAI
Le regain d'intérêt d'OpenAI pour la sécurité intervient dans un contexte de turbulences internes et de surveillance publique. Ces dernières semaines, l'entreprise a essuyé des critiques en son sein, notamment la démission du chercheur Jan Leike, qui s'inquiétait du fait que la sécurité soit passée au second plan au profit du développement de « produits brillants ». La démission de Leike a été suivie du départ d'Ilya Sutskever, cofondateur et directeur scientifique d'OpenAI.
Les départs de Leike et Sutskever ont soulevé des questions sur les priorités de l'entreprise et son approche en matière de sécurité de l'IA. Les deux chercheurs dirigeaient conjointement l'équipe de « superalignement » d'OpenAI, chargée de gérer les risques à long terme liés à l'IA. Suite à leurs démissions, l'équipe de « superalignement » a été dissoute, ce qui a alimenté les inquiétudes quant à l'engagement de l'entreprise en matière de sécurité.
Outre les troubles internes, OpenAI a également été confrontée à des allégations d'usurpation de voix dans son chatbot ChatGPT. Certains utilisateurs ont affirmé que la voix du chatbot ressemblait étrangement à celle de l'actrice Scarlett Johansson. Bien qu'OpenAI ait nié avoir intentionnellement usurpé l'identité de Johansson, l'incident a suscité un débat plus large sur les implications éthiques du contenu généré par l'IA et les risques d'utilisation abusive.
Une conversation plus large sur l’éthique de l’IA
Alors que le domaine de l'intelligence artificielle continue d'évoluer rapidement, il est crucial pour des entreprises comme OpenAI d'engager un dialogue et une collaboration continus avec les chercheurs, les décideurs politiques et le public afin de garantir que les technologies d'IA soient développées de manière responsable et avec des garanties solides. Les recommandations formulées par le Conseil de sécurité d'OpenAI et l'engagement d'OpenAI en faveur de la transparence contribueront au débat plus large sur la gouvernance de l'IA et contribueront à façonner l'avenir de cette technologie transformatrice. Seul l'avenir nous dira ce qu'il en adviendra.