Anslut dig till vårt nätverk!

Artificiell intelligens

OpenAI bildar säkerhetsråd, utbildar nästa generations AI-modell mitt i kontroverser

publicerade

 on

OpenAI har gjort betydande framsteg när det gäller att utveckla artificiell intelligensteknologi, med dess senaste prestation GPT-4o system som driver den populära ChatGPT chatboten. Idag, OpenAI meddelade inrättandet av en ny säkerhetskommitté, OpenAI Safety Council, och avslöjade att man har börjat träna en ny AI-modell.

Vem sitter i OpenAI:s säkerhetsråd?

Det nybildade OpenAI Safety Council syftar till att ge vägledning och överblick över viktiga säkerhets- och säkerhetsbeslut relaterade till företagets projekt och verksamhet. Rådets primära mål är att säkerställa att OpenAI:s AI-utvecklingsmetoder prioriterar säkerhet och överensstämmer med etiska principer. Säkerhetskommittén består av en mångfaldig grupp individer, inklusive OpenAI-chefer, styrelsemedlemmar och tekniska och policyexperter.

Anmärkningsvärda medlemmar av OpenAI Safety Council inkluderar:

  • Sam Altman, VD för OpenAI
  • Brett Taylor, ordförande för OpenAI
  • Adam D'Angelo, VD för Quora och styrelseledamot i OpenAI
  • Nicole Seligman, tidigare chefsjurist för Sony och styrelseledamot i OpenAI

I sin inledande fas kommer den nya säkerhets- och säkerhetskommittén att fokusera på att utvärdera och stärka OpenAI:s befintliga säkerhetsprocesser och skyddsåtgärder. OpenAI Safety Council har satt en 90-dagars tidslinje för att ge rekommendationer till styrelsen om hur man kan förbättra företagets AI-utvecklingsmetoder och säkerhetssystem. När rekommendationerna har antagits planerar OpenAI att offentliggöra dem på ett sätt som överensstämmer med säkerhets- och säkerhetsöverväganden.

Utbildning av den nya AI-modellen

Parallellt med inrättandet av OpenAI Safety Council har OpenAI meddelat att man har börjat utbilda sin nästa frontiermodell. Denna senaste artificiella intelligensmodell förväntas överträffa kapaciteten hos GPT-4-systemet som för närvarande ligger till grund för ChatGPT. Även om detaljerna om den nya AI-modellen fortfarande är knapphändiga, har OpenAI sagt att den kommer att leda branschen i både kapacitet och säkerhet.

Utvecklingen av denna nya AI-modell understryker den snabba innovationstakten inom området artificiell intelligens och potentialen för konstgjord allmän intelligens (AGI). När AI-system blir mer avancerade och kraftfulla är det avgörande att prioritera säkerhet och se till att dessa tekniker utvecklas på ett ansvarsfullt sätt.

OpenAI:s senaste kontroverser och avgångar

OpenAI:s förnyade fokus på säkerhet kommer mitt i en period av intern turbulens och offentlig granskning. Under de senaste veckorna har företaget mött kritik från sina egna led, där forskaren Jan Leike har sagt upp sig och uttryckt oro för att säkerheten hade hamnat i baksätet till utvecklingen av "blanka produkter". Leikes avgång följdes av Ilya Sutskevers avgång, OpenAI:s medgrundare och chefsforskare.

Leikes och Sutskevers avgångar har väckt frågor om företagets prioriteringar och dess inställning till AI-säkerhet. De två forskarna ledde tillsammans OpenAI:s "superalignment"-team, som var dedikerade till att ta itu med långsiktiga AI-risker. Efter deras avgång upplöstes superalignment-teamet, vilket ytterligare underblåste oro över företagets engagemang för säkerhet.

Utöver den interna omvälvningen har OpenAI också mött anklagelser om röstimitation i sin ChatGPT-chatbot. Vissa användare har hävdat att chatbotens röst har en slående likhet med skådespelerskan Scarlett Johansson. Även om OpenAI har förnekat att ha avsiktligt utgett sig som Johansson, har incidenten väckt ett bredare samtal om de etiska konsekvenserna av AI-genererat innehåll och risken för missbruk.

Ett bredare samtal om AI-etik

Eftersom området för artificiell intelligens fortsätter att utvecklas snabbt, är det avgörande för företag som OpenAI att engagera sig i en pågående dialog och samarbete med forskare, beslutsfattare och allmänheten för att säkerställa att AI-teknik utvecklas ansvarsfullt och med robusta skyddsåtgärder på plats. Rekommendationerna som lagts fram av OpenAI Safety Council och OpenAI:s engagemang för transparens kommer att bidra till det bredare samtalet om AI-styrning och hjälpa till att forma framtiden för denna transformativa teknologi, men bara tiden kommer att utvisa vad som kommer att komma ut ur det.

Alex McFarland är en AI-journalist och författare som utforskar den senaste utvecklingen inom artificiell intelligens. Han har samarbetat med många AI-startups och publikationer över hela världen.