Sztuczna inteligencja ogólna
Naukowcy twierdzą, że ludzie nie byliby w stanie kontrolować superinteligentnej sztucznej inteligencji

Każdy, kto zna sztuczną inteligencję (AI), prawdopodobnie słyszał jakąś wersję mówiącą o jej ostatecznym wyzwoleniu się spod kontroli człowieka. To nie jest tylko motyw z filmów science-fiction, ale raczej bardzo duża możliwość, która ma wielu ekspertów w danej branży. Wielu z tych ekspertów, w tym naukowcy, opowiada się za tym, abyśmy zaczęli przygotowywać się na taką możliwość i unikać jej na wszelkie możliwe sposoby.
Teraz międzynarodowy zespół badaczy przyjął ten pomysł i poparł go obliczeniami teoretycznymi. Zespół, w skład którego wchodzili naukowcy z Centrum Ludzi i Maszyn w Instytucie Rozwoju Człowieka Maxa Plancka, wykorzystał te obliczenia, aby wykazać, dlaczego nie byłoby możliwe kontrolowanie superinteligentnej sztucznej inteligencji.
Wyniki badań opublikowano niedawno w czasopiśmie „ Dziennik Badań nad Sztuczną Inteligencją.
Superinteligentny system sztucznej inteligencji
Strach przed superinteligentnym systemem sztucznej inteligencji wynika z faktu, że taki system byłby znacznie lepszy od ludzi. Mógłby nie tylko samodzielnie się uczyć, ale także miałby dostęp do wszystkich istniejących danych i niezwykle szybko je przetwarzał.
Takie zdarzenie może doprowadzić do przejęcia przez superinteligentną sztuczną inteligencję wszystkich istniejących maszyn online i choć może ona i mogłaby leczyć choroby i rozwiązywać inne poważne problemy stojące przed ludzkością, ryzyko wymknięcia się sytuacji spod kontroli jest również wysokie.
Manuel Cebrian jest współautorem badania i liderem Grupy Mobilizacji Cyfrowej w Centrum Ludzi i Maszyn Instytutu Rozwoju Człowieka Maxa Plancka.
„Superinteligentna maszyna kontrolująca świat brzmi jak science fiction. Istnieją już jednak maszyny, które samodzielnie wykonują pewne ważne zadania, a programiści nie rozumieją w pełni, w jaki sposób się tego nauczyli. Powstaje zatem pytanie, czy w pewnym momencie może to stać się niekontrolowane i niebezpieczne dla ludzkości” – mówi Cebrian.
Sterowanie systemem
Istnieją dwie główne szkoły myślenia, jeśli chodzi o kontrolowanie takiego systemu. Po pierwsze, ludzie mogliby ograniczyć możliwości superinteligentnej sztucznej inteligencji, ograniczając jej dostęp do niektórych źródeł danych, takich jak cały Internet. System mógłby także funkcjonować bez kontaktu ze światem zewnętrznym. Problem w tym, że drastycznie ograniczyłoby to potencjał sztucznej inteligencji.
System byłby kontrolowany poprzez umożliwienie mu jedynie osiągania wyników, które przyniosłyby korzyść ludzkości, a można tego dokonać poprzez zaprogramowanie w nim zasad etycznych.
W badaniu zespół opracował teoretyczny algorytm powstrzymywania, który w żadnych okolicznościach uniemożliwia superinteligentnej sztucznej inteligencji wyrządzanie ludziom krzywdy. Można to osiągnąć, tworząc najpierw symulację zachowania sztucznej inteligencji i wykrywając wszelkie zachowania, które mogą być szkodliwe. Pomimo tej obiecującej teorii, obecna analiza pokazuje, że takiego algorytmu nie da się opracować.
Iyad Rahwan jest dyrektorem Centrum Ludzi i Maszyn.
„Jeśli rozłożysz problem na podstawowe zasady informatyki teoretycznej, okaże się, że algorytm, który wydawałby AI rozkaz, aby nie niszczył świata, mógłby niechcący wstrzymać swoje własne działania. Gdyby tak się stało, nie wiedziałbyś, czy algorytm powstrzymujący nadal analizuje zagrożenie, czy też przestał powstrzymywać szkodliwą sztuczną inteligencję. W efekcie sprawia to, że algorytm powstrzymywania staje się bezużyteczny” – mówi Rahwan.
Inną kwestią jest to, że eksperci mogą nawet nie zdawać sobie sprawy, kiedy superinteligentna maszyna osiągnie ten stan, głównie dlatego, że będzie inteligentniejsza od ludzi.