Kunstig intelligens
OpenAI etablerer sikkerhetsråd, trener neste generasjons AI-modell blant kontroverser

OpenAI har gjort betydelige fremskritt i å fremme kunstig intelligens-teknologier, med sitt siste største oppnåelse være GPT-4o-systemet som driver den populære ChatGPT-chatboten. I dag annonserte OpenAI etableringen av en ny sikkerhetskomité, OpenAI Sikkerhetsråd, og avslørte at de har begynt å trene en ny AI-modell.
Hvem er i OpenAI sitt Sikkerhetsråd?
Det nylig etablerte OpenAI Sikkerhetsrådet har som mål å gi veiledning og tilsyn på kritiske sikkerhets- og sikkerhetsbeslutninger relatert til selskapets prosjekter og operasjoner. Rådets primære mål er å sikre at OpenAI sitt AI-utviklingspraksis prioriterer sikkerhet og er i samsvar med etiske prinsipper. Sikkerhetskomitéen består av en divers gruppe personer, inkludert OpenAI-ledere, styremedlemmer og tekniske og politiske eksperter.
Bemerkelsesverdige medlemmer av OpenAI Sikkerhetsråd inkluderer:
- Sam Altman, CEO av OpenAI
- Bret Taylor, styreleder av OpenAI
- Adam D’Angelo, CEO av Quora og OpenAI-styremedlem
- Nicole Seligman, tidligere Sony generalsekretær og OpenAI-styremedlem
I sin innledende fase vil den nye sikkerhets- og sikkerhetskomitéen fokusere på å evaluere og styrke OpenAI sitt eksisterende sikkerhetsprosesser og sikkerhetstiltak. OpenAI Sikkerhetsrådet har satt en 90-dagers tidsplan for å gi anbefalinger til styret om hvordan å forbedre selskapets AI-utviklingspraksis og sikkerhetssystemer. Når anbefalingene er vedtatt, planlegger OpenAI å offentliggjøre dem på en måte som er konsistent med sikkerhets- og sikkerhetsoverveielser.
Trening av den nye AI-modellen
I parallell med etableringen av OpenAI Sikkerhetsråd, har OpenAI annonsert at de har begynt å trene sin neste generasjons modell. Denne siste kunstig intelligens-modellen forventes å overgå kapasiteten til GPT-4-systemet som i øyeblikket understøtter ChatGPT. Mens detaljer om den nye AI-modellen er sjeldne, har OpenAI sagt at den vil lede industrien i både kapasitet og sikkerhet.
Utviklingen av denne nye AI-modellen understreker den raske innovasjonsraten i kunstig intelligensfeltet og potensialet for artificial general intelligence (AGI). Ettersom AI-systemer blir mer avanserte og kraftfulle, er det avgjørende å prioritere sikkerhet og sikre at disse teknologiene utvikles ansvarlig.
OpenAI sitt nylige kontroverser og avganger
OpenAI sitt fornyede fokus på sikkerhet kommer i en periode med intern uro og offentlig skanning. I de siste ukene har selskapet møtt kritikk fra innen sine egne rekker, med forsker Jan Leike som har trukket seg og uttrykt bekymring for at sikkerheten har tatt en baksete til utviklingen av “skinnende produkter”. Leike sitt avgang ble fulgt av avgangen til Ilya Sutskever, OpenAI sitt medstifter og sjefsforsker.
Avgangene til Leike og Sutskever har reist spørsmål om selskapets prioriteringer og tilnærming til AI-sikkerhet. De to forskerne ledet sammen OpenAI sitt “superalignment”-team, som var dedikert til å håndtere langsiktige AI-risikoer. Etter deres avgang, ble superalignment-teamet oppløst, noe som ytterligere har ført til bekymring om selskapets forpliktelse til sikkerhet.
I tillegg til den interne uroen, har OpenAI også møtt påstander om stemme-etterligning i sin ChatGPT-chatbot. Noen brukere har hevdet at chatbotens stemme ligner på skuespillerinnen Scarlett Johansson. Mens OpenAI har benektet å ha etterlignet Johansson med vilje, har hendelsen ført til en bredere diskusjon om de etiske implikasjonene av AI-generert innhold og potensialet for misbruk.
En bredere diskusjon om AI-etikk
Ettersom kunstig intelligensfeltet fortsetter å utvikle seg raskt, er det avgjørende for selskaper som OpenAI å engasjere seg i en pågående dialog og samarbeid med forskere, politiske beslutningstakere og offentligheten for å sikre at AI-teknologier utvikles ansvarlig og med robuste sikkerhetstiltak på plass. Anbefalingene som fremmes av OpenAI Sikkerhetsråd og OpenAI sitt forpliktelse til åpenhet, vil bidra til den bredere diskusjonen om AI-styring og hjelpe å forme fremtiden for denne transformative teknologien, men bare tiden vil vise hva som kommer ut av det.












