stub Nowa inicjatywa OpenAI: skierowanie superinteligentnej sztucznej inteligencji we właściwym kierunku – Unite.AI
Kontakt z nami

Sztuczna inteligencja ogólna

Nowa inicjatywa OpenAI: kierowanie superinteligentnej sztucznej inteligencji we właściwym kierunku

Opublikowany

 on

OpenAI, wiodący gracz w dziedzinie sztucznej inteligencji, ogłosił niedawno utworzenie dedykowanego zespołu do zarządzania ryzykami związanymi z superinteligentną sztuczną inteligencją. Posunięcie to następuje w czasie, gdy rządy na całym świecie zastanawiają się, w jaki sposób regulować powstające technologie sztucznej inteligencji.

Zrozumienie superinteligentnej sztucznej inteligencji

Superinteligentna sztuczna inteligencja odnosi się do hipotetycznych modeli sztucznej inteligencji, które przewyższają najbardziej utalentowanych i inteligentnych ludzi w wielu obszarach specjalizacji, a nie tylko w jednej dziedzinie, jak niektóre modele poprzedniej generacji. OpenAI przewiduje, że taki model może pojawić się przed końcem dekady. Organizacja wierzy, że superinteligencja może być najbardziej wpływową technologią, jaką kiedykolwiek wynalazła ludzkość, potencjalnie pomagając nam rozwiązać wiele najpilniejszych problemów świata. Jednak ogromna moc superinteligencji może również stwarzać znaczne ryzyko, w tym potencjalne pozbawienie ludzkości mocy, a nawet wyginięcie.

Zespół Superalignment OpenAI

Aby rozwiać te obawy, OpenAI utworzyło nową „Super wyrównanie', pod kierownictwem głównego naukowca OpenAI Ilyi Sutskevera i Jana Leike, kierownika laboratorium badawczego ds. wyrównania. Zespół będzie miał dostęp do 20% mocy obliczeniowej, jaką obecnie zabezpieczyło OpenAI. Ich celem jest opracowanie zautomatyzowanego narzędzia do badania dopasowania – systemu, który mógłby pomóc OpenAI w zapewnieniu, że superinteligencja będzie bezpieczna w użyciu i zgodna z ludzkimi wartościami.

Chociaż OpenAI przyznaje, że jest to niezwykle ambitny cel i nie gwarantuje sukcesu, organizacja pozostaje optymistą. Wstępne eksperymenty okazały się obiecujące i dostępne są coraz bardziej przydatne wskaźniki postępu. Co więcej, do empirycznego badania wielu z tych problemów można wykorzystać obecne modele.

Potrzeba regulacji

Utworzenie zespołu Superalignment następuje w momencie, gdy rządy na całym świecie zastanawiają się, jak uregulować rodzący się przemysł sztucznej inteligencji. Dyrektor generalny OpenAI, Sam Altman, spotkał się w ostatnich miesiącach z co najmniej 100 federalnymi prawodawcami. Altman publicznie stwierdził, że regulacje dotyczące sztucznej inteligencji są „niezbędne” i że OpenAI „chętnie” współpracuje z decydentami.

Do takich zapowiedzi należy jednak podchodzić z pewnym sceptycyzmem. Koncentrując uwagę opinii publicznej na hipotetycznych zagrożeniach, które mogą nigdy się nie zmaterializować, organizacje takie jak OpenAI mogłyby potencjalnie przenieść ciężar regulacji na przyszłość, zamiast zajmować się bezpośrednimi problemami związanymi ze sztuczną inteligencją i pracą, dezinformacją i prawami autorskimi, którymi decydenci muszą się dziś zająć.

Inicjatywa OpenAI polegająca na utworzeniu dedykowanego zespołu do zarządzania ryzykiem związanym z superinteligentną sztuczną inteligencją to znaczący krok we właściwym kierunku. Podkreśla znaczenie proaktywnych środków w stawianiu czoła potencjalnym wyzwaniom, jakie stwarza zaawansowana sztuczna inteligencja. W miarę jak w dalszym ciągu poruszamy się po zawiłościach rozwoju i regulacji sztucznej inteligencji, inicjatywy takie jak ta przypominają o potrzebie zrównoważonego podejścia, takiego, które wykorzystuje potencjał sztucznej inteligencji, a jednocześnie chroni przed związanymi z nią zagrożeniami.

Alex McFarland jest dziennikarzem i pisarzem zajmującym się sztuczną inteligencją badającym najnowsze osiągnięcia w dziedzinie sztucznej inteligencji. Współpracował z wieloma startupami i publikacjami AI na całym świecie.