Suivez nous sur

OpenAI forme un conseil de sécurité et forme un modèle d'IA de nouvelle génération au milieu de controverses

Intelligence Artificielle

OpenAI forme un conseil de sécurité et forme un modèle d'IA de nouvelle génération au milieu de controverses

mm

OpenAI a fait des progrès significatifs dans l'avancement des technologies d'intelligence artificielle, sa réalisation la plus récente étant la GPT-4o système qui alimente le populaire chatbot ChatGPT. Aujourd'hui, OpenAI annoncé la création d'un nouveau comité de sécurité, l'OpenAI Safety Council, et a révélé qu'il avait commencé à former un nouveau modèle d'IA.

Qui fait partie du Conseil de sĂ©curitĂ© d'OpenAI ?

Le nouveau Conseil de sécurité d'OpenAI a pour mission de guider et de superviser les décisions critiques en matière de sécurité et de sûreté liées aux projets et aux opérations de l'entreprise. Son objectif principal est de garantir que les pratiques de développement d'IA d'OpenAI privilégient la sécurité et respectent les principes éthiques. Le comité de sécurité est composé d'un groupe diversifié de personnes, dont des dirigeants d'OpenAI, des membres du conseil d'administration et des experts techniques et politiques.

Les membres notables de l'OpenAI Safety Council comprennent :

  • Sam Altman, PDG d'OpenAI
  • Bret Taylor, PrĂ©sident d'OpenAI
  • Adam D'Angelo, PDG de Quora et membre du conseil d'administration d'OpenAI
  • Nicole Seligman, ancien avocat gĂ©nĂ©ral de Sony et membre du conseil d'administration d'OpenAI

Dans un premier temps, le nouveau comité de sécurité se concentrera sur l'évaluation et le renforcement des processus et mesures de sécurité existants d'OpenAI. Le Conseil de sécurité d'OpenAI a fixé un délai de 90 jours pour formuler des recommandations au conseil d'administration sur la manière d'améliorer les pratiques de développement d'IA et les systèmes de sécurité de l'entreprise. Une fois ces recommandations adoptées, OpenAI prévoit de les publier dans le respect des exigences de sécurité.

Formation du nouveau modèle d'IA

Parallèlement à la création de l'OpenAI Safety Council, OpenAI a annoncé avoir commencé à former son prochain modèle frontière. Ce dernier modèle d'intelligence artificielle devrait dépasser les capacités du système GPT-4 qui sous-tend actuellement ChatGPT. Bien que les détails sur le nouveau modèle d'IA restent rares, OpenAI a déclaré qu'il serait à la pointe du secteur en termes de capacité et de sécurité.

Le développement de ce nouveau modèle d'IA souligne le rythme rapide de l'innovation dans le domaine de l'intelligence artificielle et le potentiel de intelligence générale artificielle (AGI). À mesure que les systèmes d’IA deviennent plus avancés et plus puissants, il est crucial de donner la priorité à la sécurité et de garantir que ces technologies sont développées de manière responsable.

Controverses et départs récents d'OpenAI

Le regain d'intĂ©rĂŞt d'OpenAI pour la sĂ©curitĂ© intervient dans un contexte de turbulences internes et de surveillance publique. Ces dernières semaines, l'entreprise a essuyĂ© des critiques en son sein, notamment la dĂ©mission du chercheur Jan Leike, qui s'inquiĂ©tait du fait que la sĂ©curitĂ© soit passĂ©e au second plan au profit du dĂ©veloppement de « produits brillants Â». La dĂ©mission de Leike a Ă©tĂ© suivie du dĂ©part d'Ilya Sutskever, cofondateur et directeur scientifique d'OpenAI.

Les dĂ©parts de Leike et Sutskever ont soulevĂ© des questions sur les prioritĂ©s de l'entreprise et son approche en matière de sĂ©curitĂ© de l'IA. Les deux chercheurs dirigeaient conjointement l'Ă©quipe de « superalignement Â» d'OpenAI, chargĂ©e de gĂ©rer les risques Ă  long terme liĂ©s Ă  l'IA. Suite Ă  leurs dĂ©missions, l'Ă©quipe de « superalignement Â» a Ă©tĂ© dissoute, ce qui a alimentĂ© les inquiĂ©tudes quant Ă  l'engagement de l'entreprise en matière de sĂ©curitĂ©.

Outre les troubles internes, OpenAI a également été confrontée à des allégations d'usurpation de voix dans son chatbot ChatGPT. Certains utilisateurs ont affirmé que la voix du chatbot ressemblait étrangement à celle de l'actrice Scarlett Johansson. Bien qu'OpenAI ait nié avoir intentionnellement usurpé l'identité de Johansson, l'incident a suscité un débat plus large sur les implications éthiques du contenu généré par l'IA et les risques d'utilisation abusive.

Une conversation plus large sur l’éthique de l’IA

Alors que le domaine de l'intelligence artificielle continue d'évoluer rapidement, il est crucial pour des entreprises comme OpenAI d'engager un dialogue et une collaboration continus avec les chercheurs, les décideurs politiques et le public afin de garantir que les technologies d'IA soient développées de manière responsable et avec des garanties solides. Les recommandations formulées par le Conseil de sécurité d'OpenAI et l'engagement d'OpenAI en faveur de la transparence contribueront au débat plus large sur la gouvernance de l'IA et contribueront à façonner l'avenir de cette technologie transformatrice. Seul l'avenir nous dira ce qu'il en adviendra.

Alex McFarland est un journaliste et écrivain en IA qui explore les derniers développements en matière d'intelligence artificielle. Il a collaboré avec de nombreuses startups et publications d'IA dans le monde entier.