Connect with us

Etyka

Zaawansowane technologie sztucznej inteligencji przedstawiają wyzwania etyczne – Liderzy myśli

mm

Przez Alfred Crews, Jr wiceprezes i główny doradca prawnego sektora Wywiadu i Bezpieczeństwa BAE Systems Inc.

Na początku tego roku, przed pandemią, uczestniczyłem w Konferencji Etyki Wywiadu w The Citadel, gdzie omawialiśmy temat etyki w zbieraniu informacji wywiadowczych w odniesieniu do ochrony bezpieczeństwa narodowego. W branży obronnej widzimy proliferację wiedzy, obliczeń i zaawansowanych technologii, szczególnie w dziedzinie sztucznej inteligencji (AI) i uczenia maszynowego (ML). Jednak mogą wystąpić znaczne problemy podczas wdrożenia AI w kontekście zbierania informacji wywiadowczych lub walki w czasie rzeczywistym.

AI połączony z obliczeniami kwantowymi przedstawia ryzyko

To, co musimy poddać pod rozwagę, analizę i określić drogę do przodu, to użycie AI połączonego z możliwościami obliczeniowymi kwantowymi w procesie podejmowania decyzji w czasie wojny. Na przykład, pamiętajcie Terminatora? Gdy nasza technologia robi skoki i granie, rzeczywistość tego, co Skynet przedstawił, jest przed nami. Moglibyśmy zadawać sobie pytanie: “Czy Skynet przychodzi po nas?” Zróbmy spacer wzdłuż pamięci; maszyny AI wzięły kontrolę, ponieważ miały możliwość myślenia i podejmowania decyzji bez człowieka, który by je kierował. Gdy maszyny ustaliły, że ludzie są błędem, wyszły, by zniszczyć ludzkość. Nie myślę, że AI ma wielki potencjał, ale uważam, że musi mieć parametry kontroli ze względu na czynnik ryzyka.

Etyczne niejasności AI i dylemat filozoficzny

Uważam, że to jest dokładnie dlaczego Departament Obrony USA (DoD) wydał własne Etyczne Zasady AI, ponieważ użycie AI podnosi nowe etyczne niejasności i ryzyko. Gdy łączymy AI z możliwościami obliczeniowymi kwantowymi, zdolność do podejmowania decyzji zmienia się, a ryzyko utraty kontroli wzrasta – więcej niż możemy sobie wyobrazić dzisiaj. Obliczenia kwantowe umieszczają nasz system operacyjny mózgu wstydu, ponieważ superkomputery mogą wykonywać wykładniczo więcej obliczeń szybciej i z większą precyzją niż nasz ludzki mózg kiedykolwiek będzie mógł.

Ponadto, użycie AI połączone z obliczeniami przedstawia dylemat filozoficzny. W którym momencie świat pozwoli maszynom mieć wolę własną; i jeśli maszyny są dopuszczone do myślenia samodzielnie, czy oznacza to, że maszyna sama stała się świadoma? Czy bycie świadomym stanowi życie? Jako społeczeństwo, jeszcze nie określiliśmy, jak zdefiniować tę sytuację. W związku z tym, jak jest teraz, maszyny podejmujące działania bez człowieka, który je kontroluje, mogą prowadzić do konsekwencji. Czy maszyna może przeszkodzić interwencji człowieka, aby zatrzymać ogień? Jeśli maszyna działa samodzielnie, czy będziemy w stanie wyłączyć ją?

Jak to widzę, użycie AI z punktu widzenia obrony jest łatwe do zrobienia. Jednak jak bardzo łatwiej byłoby przenieść to do ofensywy? Na ofensywie maszyny podejmowałyby decyzje o strzelaniu w czasie rzeczywistym. Czy maszyna strzelająca do wroga stanowiłaby naruszenie Konwencji Genewskiej i praw konfliktów zbrojnych? Wkraczając w tę przestrzeń w szybkim tempie, świat musi uzgodnić, że użycie AI i obliczeń kwantowych w walce musi grać w ramach praw, które mamy na miejscu.

DoD ma stanowisko w sprawie użycia AI z systemami autonomicznymi i stwierdza, że zawsze będzie osoba zaangażowana w proces podejmowania decyzji; osoba podejmie ostateczną decyzję o strzelaniu. To jest nasza zasada, ale co się stanie, jeśli przeciwnik zdecyduje się pójść inną drogą i mieć AI-maszynę podejmującą wszystkie ostateczne decyzje? Wtedy maszyna, która, jak już omawialiśmy, jest już szybsza, mądrzejsza i bardziej precyzyjna, będzie miała przewagę.

Zobaczmy drona wyposażonego w AI i rozpoznawanie twarzy: Dron strzela samodzielnie, ponieważ ma wcześniej określony cel oznaczony jako terrorysta. Kto jest odpowiedzialny za strzelanie? Czy jest odpowiedzialność, jeśli jest błędna pomyłka?

Założone uprzedzenia w AI/ML

Badania wskazują, że maszyna jest mniej skłonna do popełniania błędów niż człowiek. Jednak badania również dowodzą, że istnieją uprzedzenia w uczeniu maszynowym opartym na “nauczycielu” ludzkim, który uczy maszynę. Pięć Etycznych Zasad AI Departamentu Obrony, odnosi się do istniejących uprzedzeń, gdy stwierdza, że “Departament podejmie celowe kroki, aby zminimalizować niezamierzone uprzedzenia w możliwościach AI”. Już wiemy dzięki udowodnionym badaniom, że w przypadku aplikacji rozpoznawania twarzy istnieją uprzedzenia wobec osób kolorowych z fałszywymi pozytywami. Gdy osoba tworzy kod, który uczy maszynę, jak podejmować decyzje, będą uprzedzenia. Może to być niezamierzone, ponieważ osoba tworząca AI nie była świadoma uprzedzeń, które istniały w nich samych.

Więc, jak można wyeliminować uprzedzenia? Wynik AI jest tak dobry, jak dane wejściowe. Dlatego muszą być kontrolowane. Musisz kontrolować dane wpływające, ponieważ to może sprawić, że wyniki AI będą mniej ważne. Deweloperzy będą musieli stale przepisywać kod, aby wyeliminować uprzedzenia.

Świat definiuje najlepsze użycie technologii

Technologia sama w sobie nie jest dobra ani zła. To, jak kraj ją wykorzystuje, może sprawić, że najlepsze intencje pójdą nie tak. Gdy technologia rozwija się w sposób, który wpływa na ludzkie życie, świat musi współpracować, aby określić odpowiednie działanie. Jeśli usuniemy człowieka z równania w aplikacjach AI, również usuniemy tę chwilę przed strzałem – ten moralny kompas, który nas prowadzi; tę chwilę, gdy zatrzymujemy się i pytamy: “Czy to jest słuszne?” Maszyna nauczona do angażowania się nie będzie miała tej chwili. Więc pytanie brzmi, w przyszłości, czy świat zaakceptuje to? Jak daleko świat pójdzie, aby pozwolić maszynom podejmować decyzje bojowe?

Alfred Crews, Jr. jest wiceprezesem i głównym doradcą prawnym sektora Intelligence & Security w firmie BAE Systems Inc, lidera w świadczeniu usług inżynierii systemów, integracji i utrzymania na dużą skalę we wszystkich dziedzinach: powietrza, lądu, morza, przestrzeni kosmicznej i cyberprzestrzeni dla Departamentu Obrony USA, społeczności wywiadowczej, federalnych agencji cywilnych oraz wojsk rozmieszczonych na całym świecie. Crews nadzoruje funkcje prawne, kontroli eksportu i etyki sektora.