AGI
Jak możemy skorzystać z postępu w dziedzinie sztucznej inteligencji ogólnej (AGI)

Stworzenie sztucznej inteligencji ogólnej (AGI) jest ostatecznym celem wielu specjalistów od AI. Agent AGI mógłby zostać wykorzystany do rozwiązania niezliczonych problemów świata. Na przykład, można by przedstawić problem agentowi AGI, a AGI mogłoby użyć uczenia się przez wzmacnianie głębokie w połączeniu ze swoją nowo wprowadzoną emergentną świadomością, aby podejmować decyzje w prawdziwym życiu. Różnica między AGI a zwykłym algorytmem polega na zdolności AGI do zadawania sobie ważnych pytań. AGI może sformułować końcowe rozwiązanie, do którego chce dotrzeć, symulować hipotetyczne sposoby jego osiągnięcia, a następnie podjąć świadomą decyzję, która symulowana rzeczywistość najlepiej odpowiada postawionym celom. Debata na temat tego, jak może powstać AGI, trwa od momentu, gdy termin “sztuczna inteligencja” został po raz pierwszy wprowadzony na konferencji w Dartmouth w 1956 roku. Od tego czasu wiele firm próbowało podjąć wyzwanie AGI, a OpenAI jest prawdopodobnie najbardziej rozpoznawalną firmą. OpenAI zostało uruchomione jako organizacja non-profit 11 grudnia 2015 roku, a jego misją jest zapewnienie, aby sztuczna inteligencja ogólna (AGI) – przez co rozumiemy wysoce autonomiczne systemy, które przewyższają ludzi w większości ekonomicznie wartościowej pracy – przyniosła korzyści całej ludzkości. Misja OpenAI wyraźnie zarysowuje potencjalne korzyści, jakie AGI może zaoferować społeczeństwu. Nagle problemy, które były zbyt skomplikowane dla ludzi i zwykłych systemów AI, stają się możliwe do rozwiązania. Potencjalne korzyści związane z udostępnieniem AGI są astronomiczne. Można by postawić cel wyleczenia wszystkich form raka, a AGI mogłoby następnie połączyć się z internetem, aby przeskanować wszystkie aktualne badania w każdym języku. AGI może rozpocząć problem formułowania rozwiązań, a następnie symulować wszystkie potencjalne wyniki. Łączyłoby to korzyści świadomości, którą obecnie posiadają ludzie, z nieskończoną wiedzą chmury, używałoby uczenia głębokiego do rozpoznawania wzorców w tych dużych danych i używałoby uczenia przez wzmacnianie do symulacji różnych środowisk/wyników. Wszystko to w połączeniu ze świadomością, która nigdy nie wymaga okresu odpoczynku i może być w 100% skupiona na zadaniu. Potencjalne wady AGI oczywiście nie mogą być bagatelizowane, można mieć AGI, którego celem jest ciągłe ulepszanie siebie, a które mogłoby następnie pochłonąć wszystko na swojej drodze, aby zmaksymalizować zasoby obliczeniowe i atomy potrzebne do wiecznego ulepszania swojego systemu. Teorię tę szczegółowo zbadał profesor Nick Bostrom w argumencie Maksymalizatora spinaczy, w tym scenariuszu źle skonfigurowane AGI otrzymuje instrukcję produkcji spinaczy i robi to, aż nic nie zostanie, dosłownie każdy zasób na Ziemi został zużyty, aby zmaksymalizować produkcję spinaczy. Bardziej pragmatycznym punktem widzenia jest to, że AGI mogłoby być kontrolowane przez zbuntowane państwo lub korporację o słabej etyce. Podmiot ten mógłby zaprogramować AGI do maksymalizacji zysków, a w tym przypadku, przy złym programowaniu i zerowych skrupułach, mogłoby ono zdecydować się na bankructwo konkurentów, zniszczenie łańcuchów dostaw, zhakowanie giełdy, opróżnienie kont bankowych itp. Dlatego od samego początku w AGI musi być zaprogramowany kodeks etyczny. Kodeks etyczny był przedmiotem debaty wielu umysłów, a koncept ten został po raz pierwszy wprowadzony do ogólnej świadomości w formie 3 praw robotyki autorstwa Isaaca Asimova. 








