Connect with us

Sztuczna inteligencja

OpenAI Tworzy Radę Bezpieczeństwa, Szkoli Następną Generację Modelu AI Wśród Kontrowersji

mm

OpenAI dokonał znaczących postępów w rozwoju technologii sztucznej inteligencji, a jego najnowszym osiągnięciem jest system GPT-4o, który napędza popularnego chatbota ChatGPT. Dziś OpenAI ogłosił utworzenie nowej rady bezpieczeństwa, Rady Bezpieczeństwa OpenAI, oraz ujawnił, że rozpoczął szkolenie nowego modelu AI.

Kto jest w Radzie Bezpieczeństwa OpenAI?

Nowo utworzona Rada Bezpieczeństwa OpenAI ma na celu zapewnienie wsparcia i nadzoru w zakresie krytycznych decyzji dotyczących bezpieczeństwa i ochrony w projektach i operacjach spółki. Głównym celem rady jest zapewnienie, aby praktyki rozwoju AI OpenAI priorytetowo traktowały bezpieczeństwo i były zgodne z zasadami etyki. Rada składa się z zróżnicowanej grupy osób, w tym dyrektorów OpenAI, członków zarządu oraz ekspertów technicznych i politycznych.

Godni uwagi członkowie Rady Bezpieczeństwa OpenAI to:

  • Sam Altman, CEO OpenAI
  • Bret Taylor, Przewodniczący OpenAI
  • Adam D’Angelo, CEO Quora i członek zarządu OpenAI
  • Nicole Seligman, były radca prawny Sony i członek zarządu OpenAI

W pierwszej fazie nowa rada bezpieczeństwa i ochrony będzie się koncentrowała na ocenie i wzmocnieniu istniejących procesów i zabezpieczeń OpenAI. Rada Bezpieczeństwa OpenAI ustaliła 90-dniowy termin na przedstawienie rekomendacji zarządowi w sprawie poprawy praktyk rozwoju AI i systemów bezpieczeństwa. Po przyjęciu rekomendacji OpenAI planuje opublikować je w sposób zgodny z uwzględnieniem bezpieczeństwa i ochrony.

Szkolenie nowego modelu AI

Wraz z utworzeniem Rady Bezpieczeństwa OpenAI, OpenAI ogłosił, że rozpoczął szkolenie swojego następnego modelu. Ten najnowszy model sztucznej inteligencji ma przewyższyć możliwości systemu GPT-4, który obecnie obsługuje ChatGPT. Chociaż szczegóły dotyczące nowego modelu AI są niejasne, OpenAI powiedział, że będzie on przewodził branży zarówno pod względem możliwości, jak i bezpieczeństwa.

Rozwój tego nowego modelu AI podkreśla szybki postęp innowacji w dziedzinie sztucznej inteligencji oraz potencjał sztucznej inteligencji ogólnej (AGI). W miarę jak systemy AI stają się bardziej zaawansowane i potężne, niezwykle ważne jest priorytetowe traktowanie bezpieczeństwa i zapewnienie, że te technologie są rozwijane w sposób odpowiedzialny.

Niedawne kontrowersje i odejścia OpenAI

Odnowiony nacisk OpenAI na bezpieczeństwo następuje w okresie wewnętrznych turbulencji i publicznej kontroli. W ostatnich tygodniach spółka spotkała się z krytyką ze strony własnych szeregów, a badacz Jan Leike zrezygnował i wyraził obawy, że bezpieczeństwo zostało zepchnięte na dalszy plan rozwoju “lśniących produktów”. Rezygnacja Leike została poprzedzona przez odejście Ilii Sutskevera, współzałożyciela OpenAI i głównego naukowca.

Odejścia Leike i Sutskevera podniosły pytania dotyczące priorytetów spółki i jej podejścia do bezpieczeństwa AI. Dwaj badacze wspólnie kierowali zespołem “superalignment” OpenAI, który zajmował się długoterminowymi ryzykami AI. Po ich rezygnacji zespół superalignment został rozwiązany, co dodatkowo wzmogło obawy dotyczące zaangażowania spółki w kwestie bezpieczeństwa.

Ponadto OpenAI spotkał się z zarzutami o naśladownictwo głosu w swoim chatbocie ChatGPT. Niektórzy użytkownicy twierdzili, że głos chatbota wykazuje uderzające podobieństwo do głosu aktorki Scarlett Johansson. Chociaż OpenAI zaprzeczył celowemu naśladownictwu Johansson, incydent wywołał szerszą dyskusję na temat etycznych implikacji treści generowanych przez AI i potencjalnego wykorzystania.

Szersza dyskusja na temat etyki AI

W miarę jak dziedzina sztucznej inteligencji nadal ewoluuje w szybkim tempie, niezwykle ważne jest, aby spółki takie jak OpenAI angażowały się w ciągłą dyskusję i współpracę z badaczami, decydentami i społeczeństwem, aby zapewnić, że technologie AI są rozwijane w sposób odpowiedzialny i z solidnymi zabezpieczeniami. Rekomendacje przedstawione przez Radę Bezpieczeństwa OpenAI oraz zaangażowanie OpenAI w przejrzystość przyczynią się do szerszej dyskusji na temat zarządzania AI i ukształtują przyszłość tej przełomowej technologii, ale tylko czas pokaże, co z tego wyniknie.

Alex McFarland jest dziennikarzem i pisarzem zajmującym się sztuczną inteligencją, który bada najnowsze rozwoje w dziedzinie sztucznej inteligencji. Współpracował z licznymi startupami i wydawnictwami związanymi z sztuczną inteligencją na całym świecie.