Connect with us

OpenAI Crée un Conseil de Sécurité, Forme un Nouveau Modèle d’IA au Milieu de Controverses

Intelligence artificielle

OpenAI Crée un Conseil de Sécurité, Forme un Nouveau Modèle d’IA au Milieu de Controverses

mm

OpenAI a réalisé des progrès importants dans le domaine des technologies d’intelligence artificielle, avec sa dernière réalisation étant le système GPT-4o qui alimente le chatbot ChatGPT populaire. Aujourd’hui, OpenAI a annoncé la création d’un nouveau comité de sécurité, le Conseil de sécurité OpenAI, et a révélé qu’il a commencé à former un nouveau modèle d’IA.

Qui est dans le Conseil de sécurité d’OpenAI ?

Le nouveau Conseil de sécurité OpenAI vise à fournir des conseils et une surveillance sur les décisions critiques de sécurité et de sûreté liées aux projets et aux opérations de l’entreprise. L’objectif principal du conseil est de garantir que les pratiques de développement d’IA d’OpenAI donnent la priorité à la sécurité et s’alignent sur les principes éthiques. Le comité de sécurité est composé d’un groupe diversifié d’individus, notamment des dirigeants d’OpenAI, des membres du conseil d’administration et des experts techniques et politiques.

Membres notables du Conseil de sécurité OpenAI :

  • Sam Altman, PDG d’OpenAI
  • Bret Taylor, Président d’OpenAI
  • Adam D’Angelo, PDG de Quora et membre du conseil d’administration d’OpenAI
  • Nicole Seligman, ancienne conseillère générale de Sony et membre du conseil d’administration d’OpenAI

Dans sa phase initiale, le nouveau comité de sécurité et de sûreté se concentrera sur l’évaluation et le renforcement des processus et des mesures de sécurité existants d’OpenAI. Le Conseil de sécurité OpenAI a fixé un délai de 90 jours pour fournir des recommandations au conseil d’administration sur la manière d’améliorer les pratiques de développement d’IA et les systèmes de sécurité de l’entreprise. Une fois les recommandations adoptées, OpenAI prévoit de les publier publiquement de manière conforme aux considérations de sécurité et de sûreté.

Formation du nouveau modèle d’IA

En parallèle avec la création du Conseil de sécurité OpenAI, OpenAI a annoncé qu’il a commencé à former son prochain modèle de pointe. Ce dernier modèle d’intelligence artificielle devrait dépasser les capacités du système GPT-4 actuellement sous-jacent à ChatGPT. Bien que les détails sur le nouveau modèle d’IA soient rares, OpenAI a déclaré qu’il deviendrait le leader de l’industrie en termes de capacité et de sécurité.

Le développement de ce nouveau modèle d’IA souligne le rythme rapide de l’innovation dans le domaine de l’intelligence artificielle et le potentiel pour l’intelligence artificielle générale (IAG). À mesure que les systèmes d’IA deviennent plus avancés et puissants, il est crucial de donner la priorité à la sécurité et de garantir que ces technologies sont développées de manière responsable.

Controverses et départs récents d’OpenAI

La refocalisation d’OpenAI sur la sécurité intervient au milieu d’une période de troubles internes et de scrutin public. Ces dernières semaines, l’entreprise a été critiquée de l’intérieur de ses propres rangs, avec le chercheur Jan Leike démissionnant et exprimant des inquiétudes selon lesquelles la sécurité avait pris le pas sur le développement de “produits brillants”. La démission de Leike a été suivie de celle d’Ilya Sutskever, co-fondateur et chef scientifique d’OpenAI.

Les départs de Leike et Sutskever ont soulevé des questions sur les priorités de l’entreprise et son approche de la sécurité de l’IA. Les deux chercheurs ont dirigé conjointement l’équipe “superalignment” d’OpenAI, qui était consacrée à l’atténuation des risques à long terme de l’IA. Après leurs démissions, l’équipe superalignment a été dissoute, alimentant davantage les inquiétudes sur l’engagement de l’entreprise en faveur de la sécurité.

En plus des troubles internes, OpenAI a également été confronté à des allégations d’usurpation de voix dans son chatbot ChatGPT. Certains utilisateurs ont affirmé que la voix du chatbot ressemblait de manière frappante à celle de l’actrice Scarlett Johansson. Bien que OpenAI ait nié avoir intentionnellement imité Johansson, l’incident a déclenché une conversation plus large sur les implications éthiques du contenu généré par l’IA et le potentiel de mauvaise utilisation.

Une conversation plus large sur l’éthique de l’IA

À mesure que le domaine de l’intelligence artificielle continue d’évoluer rapidement, il est crucial pour les entreprises comme OpenAI de s’engager dans un dialogue et une collaboration continus avec les chercheurs, les décideurs politiques et le public pour garantir que les technologies d’IA sont développées de manière responsable et avec des garanties solides en place. Les recommandations formulées par le Conseil de sécurité OpenAI et l’engagement d’OpenAI en faveur de la transparence contribueront à la conversation plus large sur la gouvernance de l’IA et aideront à façonner l’avenir de cette technologie transformative, mais seul le temps dira ce qui en résultera.

Alex McFarland est un journaliste et écrivain en intelligence artificielle qui explore les derniers développements en intelligence artificielle. Il a collaboré avec de nombreuses startups et publications en intelligence artificielle dans le monde entier.