Reglering
Tekniskt rådgivande grupp trycker på för begränsningar av Pentagons användning av AI

Pentagon har gjort sina avsikter att investera kraftigt i artificiell intelligens tydliga, och har uttalat att AI kommer att göra den amerikanska militären mer kraftfull och robust mot möjliga nationella säkerhetshot. Som Engadget rapporterar, förra torsdagen drev försvarsinnovationsstyrelsen fram ett antal föreslagna etiska riktlinjer för användning av AI inom militären. Listan över förslag innehåller strategier för att undvika oavsiktlig partiskhet och styrbart AI som skulle ha nödstoppningsförfaranden som förhindrar att AI orsakar onödig skada.
Wired rapporterar att försvarsinnovationsstyrelsen skapades av Obama-administrationen för att vägleda Pentagon i att förvärva teknisk industriell erfarenhet och talang. Styrelsen leds för närvarande av den före detta VD för Google, Eric Schmidt. Avdelningen fick nyligen i uppdrag att fastställa riktlinjer för den etiska implementeringen av AI i militära projekt. På torsdagen lade styrelsen fram sina riktlinjer och rekommendationer för granskning. Rapporten påpekar att det är dags att ha allvarliga diskussioner om användningen av AI i ett militärt sammanhang, innan något allvarligt incident kräver att det måste finnas ett.
Enligt Artificial Intelligence News, uttalade en före detta militär tjänsteman nyligen att Pentagon höll på att halka efter när det gäller användningen av AI. Pentagon syftar till att hämta igen detta och har förklarat att utvecklingen och utvidgningen av AI inom militären är en nationell prioritet. AI-etiker är oroliga för att Pentagon i sin brådska att bli en ledare inom AI, kan använda AI-system på oetiska sätt. Medan olika oberoende AI-etiska styrelser har lagt fram sina egna förslag, har försvarsinnovationsstyrelsen föreslagit minst fem principer som militären bör följa alltid när de utvecklar och implementerar AI-system.
Den första principen som styrelsen föreslagit är principen att människor alltid ska vara ansvariga för användningen, distributionen och resultaten av alla artificiella intelligensplattformar som används i ett militärt sammanhang. Detta påminner om en policy från 2012 som krävde att människor skulle vara en del av beslutsprocessen när dödlig kraft kunde användas. Det finns ett antal andra principer på listan som ger allmänna råd, som att se till att AI-system alltid byggs av ingenjörer som förstår och dokumenterar sina program noggrant. En annan princip råder att militära AI-system alltid ska testas för sin tillförlitlighet. Dessa riktlinjer verkar vara allmänt sunt förnuft, men styrelsen vill understryka deras viktighet.
De andra principerna i listan är inblandade i kontrollen av partiskhet för AI-algoritmer och förmågan hos AI att upptäcka om oavsiktlig skada kan orsakas och att automatiskt koppla ur. Riktlinjerna specificerar att om onödig skada kommer att ske, bör AI kunna koppla ur sig och låta en mänsklig operatör ta över. Utkastet till principer rekommenderar också att AI:s utdata ska vara spårbara så att analytiker kan se vad som ledde till att AI fattade ett visst beslut.
Rekommendationerna som styrelsen lagt fram understryker två olika idéer. Principerna återspeglar det faktum att AI kommer att vara en integrerad del av militära operationers framtid, men att mycket av AI fortfarande beror på mänsklig hantering och beslutsfattande.
Medan Pentagon inte måste anta styrelsens rekommendationer, verkar det som om Pentagon tar rekommendationerna på allvar. Som rapporterats av Wired, uttalade chefen för Joint Artifical Intelligence Center, Lieutenant General Jack Shanahan, att styrelsens rekommendationer skulle hjälpa Pentagon att “upprätthålla de högsta etiska standarderna som anges i DoD AI-strategin, samtidigt som de omfamnar den amerikanska militärens starka historia av att tillämpa rigorösa test- och fältstandarder för tekniska innovationer”.
Teknikindustrin som helhet förblir försiktig när det gäller att använda AI i skapandet av militär hårdvara och programvara. Microsoft och Google-anställda har båda protesterat mot samarbeten med militära enheter, och Google har nyligen valt att inte förnya kontraktet som hade dem bidragande till Project Maven. Ett antal VD, forskare, ingenjörer och forskare har också undertecknat en löfte att inte “deltaga i eller stödja utvecklingen, tillverkningen, handeln eller användningen av dödliga autonoma vapen”. Om Pentagon antar riktlinjerna som föreslagits av styrelsen, kan det göra teknikindustrin mer villig att samarbeta i projekt, även om endast tiden kommer att visa.












