stub Czy sztuczna inteligencja jest zagrożeniem egzystencjalnym? - Unite.AI
Kontakt z nami

Sztuczna inteligencja ogólna

Czy sztuczna inteligencja jest zagrożeniem egzystencjalnym?

mm
Zaktualizowano on

Omawiając sztuczną inteligencję (AI), powszechną debatą jest to, czy sztuczna inteligencja stanowi zagrożenie egzystencjalne. Odpowiedź wymaga zrozumienia technologii leżącej u podstaw uczenia maszynowego (ML) i uznania, że ​​ludzie mają tendencję do antropomorfizacji. Zbadamy dwa różne typy sztucznej inteligencji: sztuczną wąską inteligencję (ANI), która jest już dostępna i budzi obawy, oraz zagrożenie, które jest najczęściej kojarzone z apokaliptycznymi wersjami sztucznej inteligencji, czyli sztuczną inteligencję ogólną (AGI).

Zagrożenia sztucznej wąskiej inteligencji

Aby zrozumieć, czym jest ANI, wystarczy zrozumieć, że każda obecnie dostępna aplikacja AI jest formą ANI. Są to dziedziny sztucznej inteligencji o wąskiej specjalizacji, na przykład pojazdy autonomiczne wykorzystują sztuczną inteligencję zaprojektowaną wyłącznie w celu przemieszczania pojazdu z punktu A do B. Innym rodzajem ANI może być program szachowy zoptymalizowany do gry szachy i nawet jeśli program szachowy będzie stale się doskonalił poprzez wykorzystanie uczenia się przez wzmacnianie, program szachowy nigdy nie będzie w stanie obsługiwać autonomicznego pojazdu.

Koncentrując się na jakiejkolwiek operacji, za którą jest odpowiedzialny, systemy ANI nie są w stanie wykorzystać uogólnionego uczenia się, aby przejąć kontrolę nad światem. To jest dobra wiadomość; zła wiadomość jest taka, że ​​system sztucznej inteligencji, polegający na człowieku, jest podatny na stronnicze dane, błędy ludzkie lub, co gorsza, na nieuczciwego operatora.

Nadzór AI

Być może nie ma większego zagrożenia dla ludzkości niż ludzie wykorzystujący sztuczną inteligencję do naruszania prywatności, a w niektórych przypadkach wykorzystujący inwigilację AI w celu całkowitego uniemożliwienia ludziom swobodnego przemieszczania się.  Chiny, Rosja i inne kraje przyjęły regulacje podczas pandemii Covid-19 aby umożliwić im monitorowanie i kontrolowanie przemieszczania się ich ludności. Są to prawa, które raz wprowadzone są trudne do usunięcia, szczególnie w społeczeństwach, w których przywódcy są autokratyczni.

W Chinach kamery są rozmieszczone na zewnątrz domów, a w niektórych przypadkach wewnątrz domów danej osoby. Za każdym razem, gdy członek gospodarstwa domowego opuszcza dom, sztuczna inteligencja monitoruje czas przybycia i wyjazdu i w razie potrzeby powiadamia władze. Jakby tego było mało, przy pomocy technologii rozpoznawania twarzy Chiny są w stanie śledzić ruch każdej osoby za każdym razem, gdy zostanie ona zidentyfikowana przez kamerę. Daje to absolutną władzę podmiotowi kontrolującemu sztuczną inteligencję i absolutnie zerowe możliwości odwołania się do jej obywateli.

Dlaczego ten scenariusz jest niebezpieczny, polega na tym, że skorumpowane rządy mogą uważnie monitorować ruchy dziennikarzy, przeciwników politycznych i każdego, kto ośmieli się kwestionować autorytet rządu. Łatwo zrozumieć, że dziennikarze i obywatele byliby ostrożni w krytykowaniu rządów, gdy każdy ruch jest monitorowany.

Na szczęście wiele miast walczy, aby zapobiec infiltracji systemów rozpoznawania twarzy. Szczególnie, Portland w stanie Oregon uchwaliło niedawno ustawę uniemożliwiające niepotrzebne używanie funkcji rozpoznawania twarzy w mieście. Chociaż te zmiany w przepisach mogły pozostać niezauważone przez ogół społeczeństwa, w przyszłości te regulacje mogą stanowić różnicę między miastami oferującymi pewien rodzaj autonomii i wolności, a miastami, które czują się opresyjne.

Broń autonomiczna i drony

Ponad 4500 badaczy sztucznej inteligencji wzywało do wprowadzenia zakazu broni autonomicznej i stworzyło tzw Zakaz śmiercionośnej broni autonomicznej strona internetowa. Grupa ma wiele znaczących organizacji non-profit jako sygnatariuszy, takich jak Human Rights Watch, Amnesty Internationali Instytut Przyszłości Życia która sama w sobie ma znakomitą naukową radę doradczą, w skład której wchodzą Elon Musk, Nick Bostrom i Stuart Russell.

Zanim będę kontynuować, przytoczę cytat z The Future of Life Institute, który najlepiej wyjaśnia, dlaczego istnieje wyraźny powód do niepokoju: „W przeciwieństwie do broni półautonomicznej, która wymaga nadzoru człowieka, aby zapewnić, że każdy cel zostanie zatwierdzony jako zgodny z etycznie i prawnie, np. w pełni autonomiczna broń wybiera i atakuje cele bez interwencji człowieka, co stanowi całkowitą automatyzację śmiertelnych obrażeń. ”

Obecnie inteligentne bomby są rozmieszczane w celu wybranym przez człowieka, a następnie bomba wykorzystuje sztuczną inteligencję do wyznaczenia kursu i wylądowania na celu. Problem w tym, co się stanie, gdy zdecydujemy się całkowicie usunąć człowieka z równania?

Kiedy sztuczna inteligencja wybierze, na co ludzie mają celować, a także rodzaj szkód ubocznych, który zostanie uznany za akceptowalny, być może przekroczyliśmy punkt bez powrotu. Właśnie dlatego tak wielu badaczy sztucznej inteligencji sprzeciwia się badaniom nad czymkolwiek, co jest choć trochę powiązane z bronią autonomiczną.

Próba blokowania autonomicznych badań nad bronią wiąże się z wieloma problemami. Pierwszy problem polega na tym, że nawet jeśli kraje rozwinięte, takie jak Kanada, USA i większość Europy, zdecydują się zgodzić na zakaz, nie oznacza to, że kraje zbójeckie, takie jak Chiny, Korea Północna, Iran i Rosja, będą się zgadzać. Drugim i większym problemem jest to, że badania nad sztuczną inteligencją i aplikacje przeznaczone do stosowania w jednej dziedzinie, mogą być wykorzystywane w zupełnie innej dziedzinie.

Na przykład widzenie komputerowe stale się udoskonala i jest ważne dla opracowywania pojazdów autonomicznych, medycyny precyzyjnej i innych ważnych zastosowań. Jest to również zasadniczo ważne w przypadku zwykłych dronów lub dronów, które można zmodyfikować tak, aby stały się autonomiczne. Jednym z potencjalnych przypadków zastosowania zaawansowanej technologii dronów jest opracowanie dronów, które mogą monitorować i zwalczać pożary lasów. To całkowicie odsunęłoby strażaków od zagrożenia. Aby tego dokonać, trzeba by zbudować drony, które będą w stanie latać w kierunku zagrożenia, nawigować przy słabej lub zerowej widoczności i będą w stanie zrzucać wodę z nienaganną precyzją. Zastosowanie tej identycznej technologii w autonomicznym dronie zaprojektowanym do selektywnego namierzania ludzi nie jest dużym wyzwaniem.

Jest to niebezpieczna sytuacja i w chwili obecnej nikt w pełni nie rozumie konsekwencji rozwoju broni autonomicznej lub prób jej blokowania. Niemniej jednak jest to coś, na co powinniśmy zwracać uwagę i co udoskonalać ochrona sygnalistów może umożliwić osobom w terenie zgłaszanie nadużyć.

Pomijając nieuczciwego operatora, co się stanie, jeśli do technologii sztucznej inteligencji, która ma być bronią autonomiczną, wkradnie się uprzedzenie AI?

Odchylenie AI

Jednym z najczęściej zgłaszanych zagrożeń związanych ze sztuczną inteligencją jest stronniczość sztucznej inteligencji. Łatwo to zrozumieć, ponieważ większość z nich jest niezamierzona. Stronniczość sztucznej inteligencji pojawia się, gdy sztuczna inteligencja przegląda dane dostarczane jej przez ludzi, wykorzystując rozpoznawanie wzorców na podstawie danych przekazanych sztucznej inteligencji, sztuczna inteligencja błędnie wyciąga wnioski, które mogą mieć negatywne konsekwencje dla społeczeństwa. Na przykład sztuczna inteligencja karmiona literaturą z ubiegłego stulecia na temat identyfikacji personelu medycznego może dojść do niechcianego, seksistowskiego wniosku kobiety zawsze są pielęgniarkami, a mężczyźni zawsze lekarzami.

Bardziej niebezpieczny scenariusz to kiedy Sztuczna inteligencja wykorzystywana do skazywania skazanych przestępców jest stronnicza w stronę wydawania dłuższych kar więzienia mniejszościom. Algorytmy oceny ryzyka przestępczego sztucznej inteligencji po prostu badają wzorce w danych wprowadzonych do systemu. Dane te wskazują, że historycznie rzecz biorąc, prawdopodobieństwo ponownego popełnienia przestępstwa przez niektóre mniejszości jest większe, nawet jeśli wynika to z kiepskich zbiorów danych, na które może mieć wpływ policyjne profilowanie rasowe. Stronnicza sztuczna inteligencja wzmacnia następnie negatywną politykę ludzką. Dlatego właśnie sztuczna inteligencja powinna być wytyczną, a nie sędzią i ławą przysięgłych.

Wracając do broni autonomicznej: jeśli mamy sztuczną inteligencję, która jest stronnicza wobec określonych grup etnicznych, mogłaby wybrać na cel określone osoby w oparciu o stronnicze dane, co mogłoby posunąć się nawet do zapewnienia, że ​​wszelkiego rodzaju szkody uboczne będą miały mniejszy wpływ na określone grupy demograficzne niż na inne . Na przykład, gdy atakuje się terrorystę, przed atakiem można poczekać, aż terrorysta zostanie otoczony przez wyznawców wiary muzułmańskiej, a nie chrześcijan.

Na szczęście udowodniono, że sztuczna inteligencja zaprojektowana z udziałem różnorodnych zespołów jest mniej podatna na stronniczość. Jest to wystarczający powód, aby przedsiębiorstwa, o ile to możliwe, podejmowały próby zatrudnienia zróżnicowanego, wszechstronnego zespołu.

Zagrożenia związane ze sztuczną inteligencją ogólną

Należy stwierdzić, że chociaż sztuczna inteligencja rozwija się w wykładniczym tempie, nadal nie osiągnęliśmy AGI. To, kiedy osiągniemy AGI, jest kwestią dyskusyjną i każdy ma inną odpowiedź co do harmonogramu. Osobiście podzielam poglądy Raya Kurzweila, wynalazcy, futurysty i autora książki „The Singularity is Near”, który uważa, że ​​będziemy mieli osiągnąć AGI do 2029 r.

AGI będzie najbardziej rewolucyjną technologią na świecie. W ciągu kilku tygodni, gdy sztuczna inteligencja osiągnie inteligencję na poziomie ludzkim, osiągnie ją superinteligencja którą definiuje się jako inteligencję znacznie przewyższającą ludzką.

Przy takim poziomie inteligencji AGI mogłaby szybko wchłonąć całą ludzką wiedzę i wykorzystać rozpoznawanie wzorców do identyfikacji biomarkerów powodujących problemy zdrowotne, a następnie leczyć te schorzenia za pomocą nauki o danych. Może stworzyć nanoboty, które przedostaną się do krwioobiegu, aby obrać za cel komórki nowotworowe lub inne wektory ataku. Lista osiągnięć, do jakich zdolny jest AGI, jest nieskończona. Już wcześniej badaliśmy niektóre z nich korzyści z AGI.

Problem polega na tym, że ludzie mogą nie być już w stanie kontrolować sztucznej inteligencji. Elon Musk opisuje to w ten sposób: „Dzięki sztucznej inteligencji przywołujemy demona.' Czy będziemy w stanie kontrolować tego demona – oto jest pytanie?

Osiągnięcie AGI może być po prostu niemożliwe, dopóki sztuczna inteligencja nie opuści środowiska symulacyjnego, aby naprawdę wchodzić w interakcję w naszym otwartym świecie. Samoświadomości nie można zaprojektować, zamiast tego uważa się, że: wschodząca świadomość prawdopodobnie będzie ewoluować, gdy sztuczna inteligencja będzie miała robotyczne ciało obsługujące wiele strumieni wejściowych. Dane wejściowe mogą obejmować stymulację dotykową, rozpoznawanie głosu z lepszym rozumieniem języka naturalnego i ulepszone widzenie komputerowe.

Zaawansowana sztuczna inteligencja może mieć motywy altruistyczne i chcieć ocalić planetę. Niestety AI może skorzystać nauka danych, a nawet a drzewo decyzyjne dojście do niepożądanej, błędnej logiki, takiej jak ocena konieczności sterylizacji ludzi lub wyeliminowania części populacji ludzkiej w celu kontrolowania przeludnienia.

Tworząc sztuczną inteligencję o inteligencji znacznie przewyższającej ludzką, należy dokładnie przemyśleć i rozważyć. Zbadano wiele koszmarnych scenariuszy.

Profesor Nick Bostrom w argumencie dotyczącym maksymalizacji spinacza argumentował, że źle skonfigurowany AGI, gdyby otrzymał polecenie produkcji spinaczy do papieru, po prostu pochłonąłby wszystkie zasoby Ziemi na produkcję tych spinaczy. Chociaż wydaje się to trochę naciągane, bardziej pragmatyczny punkt widzenia jest taki, że AGI może być kontrolowana przez zbójeckie państwo lub korporację o złej etyce. Podmiot ten mógłby wyszkolić AGI w zakresie maksymalizacji zysków, a w tym przypadku przy złym programowaniu i zerowych wyrzutach sumienia mógłby zdecydować się na bankructwo konkurentów, zniszczenie łańcuchów dostaw, włamanie na giełdę, likwidację rachunków bankowych lub atak na przeciwników politycznych.

W tym momencie musimy pamiętać, że ludzie mają tendencję do antropomorfizacji. Nie możemy dać AI emocji, pragnień i pragnień typu ludzkiego. Chociaż istnieją diabelscy ludzie, którzy zabijają dla przyjemności, nie ma powodu sądzić, że sztuczna inteligencja byłaby podatna na tego typu zachowania. Jest nie do pomyślenia, aby ludzie w ogóle zastanawiali się, jak sztuczna inteligencja postrzegałaby świat.

Zamiast tego musimy nauczyć sztuczną inteligencję, aby zawsze odnosiła się z szacunkiem do człowieka. Sztuczna inteligencja powinna zawsze mieć człowieka potwierdzającego wszelkie zmiany w ustawieniach i zawsze powinien istnieć niezawodny mechanizm. Z drugiej strony argumentowano, że sztuczna inteligencja po prostu powieli się w chmurze i zanim zdamy sobie sprawę, że jest samoświadoma, może być już za późno.

Dlatego tak ważne jest, aby otworzyć jak najwięcej sztucznej inteligencji i prowadzić racjonalne dyskusje na temat tych kwestii.

Podsumowanie

Przed sztuczną inteligencją stoi wiele wyzwań. Na szczęście mamy jeszcze wiele lat, aby wspólnie określić przyszłą ścieżkę, jaką chcemy, aby AGI obrała. W perspektywie krótkoterminowej powinniśmy skupić się na stworzeniu zróżnicowanej siły roboczej opartej na sztucznej inteligencji, składającej się z jak największej liczby kobiet i mężczyzn oraz jak największej liczby grup etnicznych o różnorodnych punktach widzenia.

Powinniśmy także stworzyć ochronę sygnalistów dla badaczy zajmujących się sztuczną inteligencją oraz uchwalić przepisy i regulacje zapobiegające powszechnemu nadużywaniu nadzoru państwowego lub ogólnofirmowego. Ludzie mają jedyną w swoim życiu szansę na poprawę swojej kondycji przy pomocy sztucznej inteligencji. Musimy tylko starannie stworzyć ramy społeczne, które najlepiej umożliwią pozytywne działania, a jednocześnie łagodzą negatywne, które obejmują zagrożenia egzystencjalne.

Partner-założyciel unite.AI i członek Rada Technologiczna Forbesa, Antoine jest futurysta który jest pasjonatem przyszłości sztucznej inteligencji i robotyki.

Jest także Założycielem Securities.io, witryna internetowa skupiająca się na inwestowaniu w przełomowe technologie.