stub Zaawansowane technologie AI stanowią wyzwania etyczne - Liderzy myśli - Unite.AI
Kontakt z nami

Liderzy myśli

Zaawansowane technologie sztucznej inteligencji stanowią wyzwania etyczne – liderzy myśli

mm

Opublikowany

 on

Alfred Crews Jr., wiceprezes i główny doradca ds. sektora wywiadu i bezpieczeństwa firmy BAE Systems Inc.

Na początku tego roku, przed globalną pandemią, uczestniczyłem w Konferencji Etyki Wywiadu Cytadeli w Charleston, gdzie omawialiśmy temat etyki w gromadzeniu informacji wywiadowczych w odniesieniu do ochrony bezpieczeństwa narodowego. W przemyśle obronnym obserwujemy rozprzestrzenianie się wiedzy, informatyki i zaawansowanych technologii, szczególnie w obszarze sztucznej inteligencji (AI) i uczenia maszynowego (ML). Mogą jednak wystąpić poważne problemy podczas wdrażania sztucznej inteligencji w kontekście gromadzenia danych wywiadowczych lub walki w czasie rzeczywistym.

Sztuczna inteligencja w połączeniu z obliczeniami kwantowymi stwarza ryzyko

To, co musimy zakwestionować, przeanalizować i określić dalszą drogę, to wykorzystanie sztucznej inteligencji w połączeniu z możliwościami obliczeń kwantowych w procesie podejmowania decyzji w czasie wojny. Na przykład, pamiętasz Terminatora? W miarę jak nasza technologia postępuje naprzód, rzeczywistość przedstawiona przez Skynet jest przed nami. Moglibyśmy zadawać sobie pytanie: „Czy Skynet przyjdzie po nas?” Wybierz się ze mną na spacer ścieżką wspomnień; maszyny AI przejęły kontrolę, ponieważ miały zdolność samodzielnego myślenia i podejmowania decyzji, bez kierowania nimi przez człowieka. Kiedy maszyny wywnioskowały, że ludzie to robak, postanowiły zniszczyć ludzkość. Nie zrozumcie mnie źle, sztuczna inteligencja ma ogromny potencjał, ale uważam, że musi mieć parametry kontrolne ze względu na związany z tym czynnik ryzyka.

Niejasności etyczne i dylematy filozoficzne sztucznej inteligencji

Uważam, że właśnie dlatego Departament Obrony Stanów Zjednoczonych (DoD) wydał własne Zasady etyczne dla AI, ponieważ stosowanie sztucznej inteligencji rodzi nowe niejasności i ryzyko etyczne. Łącząc sztuczną inteligencję z możliwościami obliczeń kwantowych, zdolność do podejmowania decyzji zmienia się, a ryzyko utraty kontroli wzrasta – bardziej, niż możemy sobie dzisiaj zdawać sprawę. Obliczenia kwantowe zawstydzają system operacyjny naszego ludzkiego mózgu, ponieważ superkomputery mogą wykonywać wykładniczo więcej obliczeń szybciej i z większą dokładnością, niż kiedykolwiek będzie to w stanie zrobić nasz ludzki mózg.

Ponadto wykorzystanie sztucznej inteligencji w połączeniu z obliczeniami stwarza dylemat filozoficzny. W którym momencie świat pozwoli maszynom mieć własną wolę? i jeśli maszynom pozwolono myśleć samodzielnie, czy oznacza to, że sama maszyna stała się samoświadoma? Czy samoświadomość stanowi życie? Jako społeczeństwo nie ustaliliśmy jeszcze, jak zdefiniować tę sytuację. Zatem w obecnym stanie maszyny podejmujące działania samodzielnie, bez nadzoru człowieka, mogą prowadzić do konsekwencji. Czy maszyna mogłaby pominąć interwencję człowieka i zatrzymać ogień? Jeżeli maszyna pracuje samodzielnie to czy uda nam się wyciągnąć wtyczkę?

Moim zdaniem wykorzystanie sztucznej inteligencji z defensywnego punktu widzenia jest łatwe. O ile jednak łatwiej byłoby przejść do ofensywy? W przypadku ataku maszyny na miejscu podejmowałyby decyzje dotyczące strzelań bojowych. Czy maszyna zestrzelająca wroga stanowiłaby naruszenie Konwencji Genewskiej i praw konfliktów zbrojnych? Wkraczając w tę przestrzeń w szybkim tempie, świat musi zgodzić się, że wykorzystanie sztucznej inteligencji i obliczeń kwantowych w walce musi uwzględniać obecnie obowiązujące przepisy.

Departament Obrony zajmuje stanowisko w sprawie wykorzystania sztucznej inteligencji w systemach autonomicznych i stwierdza, że ​​w proces decyzyjny zawsze będzie zaangażowana osoba; osoba podjęłaby ostateczną decyzję o pociągnięciu za spust, aby wystrzelić broń. To nasza zasada, ale co się stanie, jeśli przeciwnik zdecyduje się obrać inną drogę i zlecić podjęcie wszystkich ostatecznych decyzji maszynie obsługującej sztuczną inteligencję? Wtedy przewagę miałaby maszyna, która jak już mówiliśmy, jest już szybsza, mądrzejsza i dokładniejsza.

Spójrzmy na drona wyposażonego w sztuczną inteligencję i rozpoznawanie twarzy: Dron strzela z własnej woli ze względu na z góry ustalony cel oznaczony jako terrorysta. Kto właściwie jest odpowiedzialny za strzelaninę? Czy istnieje odpowiedzialność w przypadku stronniczego błędu?

Odchylenie wpisane w AI/ML

Badania wskazują, że maszyna rzadziej popełnia błędy niż człowiek. Jednak badania dowodzą również, że uczenie maszynowe opiera się na tym, że ludzki „nauczyciel” uczy maszynę, ma pewne stronniczość. Pięć zasad etycznych Departamentu Obrony dotyczących sztucznej inteligencji odwołuje się do istniejących uprzedzeń, stwierdzając: „Departament podejmie celowe kroki w celu zminimalizowania niezamierzonych uprzedzeń w zakresie możliwości sztucznej inteligencji”. Już wiemy sprawdzone badania że podczas korzystania z aplikacji do rozpoznawania twarzy występuje uprzedzenie wobec osób kolorowych z fałszywymi alarmami. Kiedy ktoś tworzy kod, który uczy maszynę podejmowania decyzji, pojawiają się uprzedzenia. Może to być niezamierzone, ponieważ osoba tworząca sztuczną inteligencję nie była świadoma istniejących w niej uprzedzeń.

Jak zatem wyeliminować uprzedzenia? Dane wyjściowe AI są tak dobre, jak dane wejściowe. Dlatego muszą być kontrole. Musisz kontrolować napływające dane, ponieważ może to sprawić, że wyniki sztucznej inteligencji będą mniej ważne. Programiści będą musieli stale przepisywać kod, aby wyeliminować stronniczość.

Świat definiuje najlepsze wykorzystanie technologii  

Technologia sama w sobie nie jest ani dobra, ani zła. To sposób, w jaki naród go wykorzystuje, może przyjąć najlepsze intencje i zakończyć się niepowodzeniem. W miarę postępu technologii, który ma wpływ na życie ludzkie, świat musi współpracować w celu określenia odpowiednich działań. Jeśli wykluczymy człowieka z równania w zastosowaniach AI, zrobimy również tę pauzę przed pociągnięciem za spust – ten kompas moralny, który nas prowadzi; ta pauza, kiedy zatrzymujemy się i pytamy: „Czy to prawda?” Maszyna nauczona włączania nie będzie miała tej przerwy. Pytanie brzmi, czy w przyszłości świat to wytrzyma? Jak daleko posunie się świat, aby umożliwić maszynom podejmowanie decyzji bojowych?

Alfred Crews, Jr. jest wiceprezesem i głównym doradcą w sektorze wywiadu i bezpieczeństwa firmy BAE Systems Inc, lider w świadczeniu usług inżynierii systemów na dużą skalę, integracji i utrzymania w przestrzeni powietrznej, lądowej, morskiej, kosmicznej i cybernetycznej dla Departamentu Obrony Stanów Zjednoczonych, społeczności wywiadowczej, federalnych agencji cywilnych i żołnierzy rozmieszczonych na całym świecie. Crews nadzoruje funkcje prawne, kontrolę eksportu i etykę w branży.