Connect with us

Regulacje

Grupa doradcza ds. technologii naciska na ograniczenia w wykorzystaniu AI przez Pentagon

mm

Pentagon wyraźnie zadeklarował zamiar dużych inwestycji w sztuczną inteligencję, stwierdzając, że AI sprawi, że amerykańskie siły zbrojne staną się bardziej potężne i odporniejsze na możliwe zagrożenia bezpieczeństwa narodowego. Jak donosi Engadget, w zeszły czwartek Defense Innovation Board przedstawił szereg proponowanych wytycznych etycznych dotyczących wykorzystania AI w wojsku. Lista propozycji obejmuje strategie unikania niezamierzonego uprzedzenia i zarządzalnej AI, która miałaby procedury awaryjnego zatrzymania, aby zapobiec niepotrzebnej szkodzie.

Wired donosi, że Defense Innovation Board został utworzony przez administrację Obamy w celu udzielania Pentagonowi wskazówek dotyczących pozyskiwania doświadczenia i talentów z branży technologicznej. Przewodniczącym rady jest były prezes Google, Eric Schmidt. Departament został niedawno zobowiązany do ustalenia wytycznych dotyczących etycznego wdrożenia AI w projektach wojskowych. W czwartek rada przedstawiła swoje wytyczne i zalecenia do przeglądu. Raport zauważa, że czas na poważne dyskusje o wykorzystaniu AI w kontekście wojskowym to teraz, zanim jakiś poważny incydent wymusi konieczność ich przeprowadzenia.

Według Artificial Intelligence News, były urzędnik wojskowy niedawno stwierdził, że Pentagon pozostawał w tyle, jeśli chodzi o wykorzystanie AI. Pentagon dąży do nadrobienia tej różnicy i ogłosił, że rozwój i rozbudowa AI w wojsku są priorytetem narodowym. Etycy AI obawiają się, że w pośpiechu Pentagonu, aby stać się liderem w dziedzinie AI, systemy AI mogą być wykorzystywane w nieetyczny sposób. Chociaż różne niezależne rady etyki AI przedstawiły swoje sugestie, Defense Innovation Board zaproponował co najmniej pięć zasad, których wojsko powinno przestrzegać zawsze podczas tworzenia i wdrażania systemów AI.

Pierwsza zasada zaproponowana przez radę to zasada, że ludzie powinni zawsze być odpowiedzialni za wykorzystanie, rozmieszczenie i rezultaty każdej platformy sztucznej inteligencji wykorzystywanej w kontekście wojskowym. To przypomina politykę z 2012 roku, która nakazywała, aby ludzie byli ostatecznie częścią procesu decyzyjnego, gdy mogłoby dojść do użycia siły śmiercionośnej. Istnieje kilka innych zasad na liście, które zapewniają ogólne porady, takie jak upewnienie się, że systemy AI są zawsze budowane przez inżynierów, którzy rozumieją i dokładnie dokumentują swoje programy. Inna zasada radzi, aby systemy AI wojskowe były zawsze testowane pod kątem ich niezawodności. Te wytyczne wydają się być zdrowym rozsądkiem, ale rada chce podkreślić ich znaczenie.

Pozostałe zasady na liście dotyczą kontroli uprzedzeń w algorytmach AI oraz zdolności AI do wykrywania, czy mogą wystąpić niezamierzone szkody i automatycznego wyłączania. Wytyczne określają, że jeśli wystąpi niepotrzebna szkoda, AI powinna być w stanie wyłączyć się i przekazać kontrolę operatorowi ludzkiemu. Wersja robocza zasad zaleca również, aby dane wyjściowe AI były śledzone, aby analitycy mogli zobaczyć, co doprowadziło do podjęcia przez AI określonej decyzji.

Zestaw zaleceń przedstawionych przez radę podkreśla dwa różne pomysły. Zasady odzwierciedlają fakt, że AI będzie integralną częścią przyszłych operacji wojskowych, ale że wiele AI nadal zależy od zarządzania i podejmowania decyzji przez ludzi.

Chociaż Pentagon nie musi przyjmować zaleceń rady, wydaje się, że Pentagon traktuje te zalecenia poważnie. Jak donosi Wired, dyrektor Joint Artifical Intelligence Center, generał porucznik Jack Shanahan, oświadczył, że zalecenia rady pomogą Pentagonowi w “przestrzeganiu najwyższych standardów etycznych, określonych w strategii AI Departamentu Obrony, a jednocześnie przyjmując silną historię wojska amerykańskiego w stosowaniu rygorystycznych testów i standardów wdrożeniowych dla innowacji technologicznych”.

Cała branża technologiczna pozostaje nieufna wobec wykorzystania AI w tworzeniu sprzętu i oprogramowania wojskowego. Pracownicy Microsoftu i Google protestowali przeciwko współpracy z podmiotami wojskowymi, a Google niedawno zdecydował się nie przedłużać umowy, która pozwalała im przyczyniać się do projektu Maven. Wiele CEO, naukowców i inżynierów również złożyło przyrzeczenie nie uczestniczyć “w rozwoju, produkcji, handlu ani użyciu śmiercionośnych broni autonomicznych”. Jeśli Pentagon przyjmie wytyczne zaproponowane przez radę, może to sprawić, że branża technologiczna będzie bardziej skłonna do współpracy przy projektach, choć tylko czas pokaże.

Blogger i programista ze specjalnościami w Machine Learning i Deep Learning tematy. Daniel liczy, że pomoże innym wykorzystać moc sztucznej inteligencji dla dobra społecznego.