stub Teknisk rådgivande grupp strävar efter gränser för Pentagons AI-användning - Unite.AI
Anslut dig till vårt nätverk!

reglering

Tech Advisory Group strävar efter gränser för Pentagons AI-användning

mm
Uppdaterad on

Pentagon har klargjort sina avsikter att investera kraftigt i artificiell intelligens, och säger att AI kommer att göra den amerikanska militären mer kraftfull och robust mot eventuella nationella säkerhetshot. Som Engadget rapporterar, den senaste torsdagen förde Defense Innovation Board fram ett antal föreslagna etiska riktlinjer för användningen av AI i militären. Listan med förslag innehåller strategier för att undvika oavsiktlig fördom och reglerbar AI som skulle ha nödstoppsprocedurer som förhindrar AI från att orsaka onödig skada.

Trådbundna rapporter att Defense Innovation Board skapades av Obama-administrationen för att vägleda Pentagon i att skaffa teknisk industrierfarenhet och talang. Styrelsen leds för närvarande av den tidigare VD:n för Google, Eric Schmidt. Avdelningen fick nyligen i uppdrag att fastställa riktlinjer för det etiska genomförandet av AI i militära projekt. På torsdagen lade styrelsen ut sina riktlinjer och rekommendationer för granskning. Rapporten konstaterar att tiden för seriösa diskussioner om användningen av AI i militära sammanhang nu är innan någon allvarlig incident kräver att det måste finnas en sådan.

Enligt Artificial Intelligence News, en tidigare militärtjänsteman uttalade nyligen att Pentagon halkade efter när det gäller användningen av AI. Pentagon siktar på att kompensera för denna skillnad och har förklarat att utvecklingen och expansionen av AI inom militären är en nationell prioritet. AI-etiker är oroade över att i Pentagons brådska att bli ledande inom AI, kan AI-system användas på oetiska sätt. Medan olika oberoende AI-etiknämnder har lagt fram sina egna förslag, har Defence Innovation Board föreslagit minst fem principer som militären hela tiden bör följa när de utvecklar och implementerar AI-system.

Den första principen som föreslagits av styrelsen är principen att människor alltid ska vara ansvariga för utnyttjandet, utplaceringen och resultatet av alla artificiella intelligensplattformar som används i militära sammanhang. Detta påminner om en policy från 2012 som gav mandat att människor i slutändan skulle vara en del av beslutsprocessen närhelst dödligt våld kunde användas. Det finns ett antal andra principer på listan som ger allmänna råd som att se till att AI-system alltid byggs av ingenjörer som förstår och noggrant dokumenterar sina program. En annan princip rekommenderar att militära AI-system alltid bör testas för tillförlitlighet. Dessa riktlinjer verkar vara sunt förnuft, men styrelsen vill understryka deras betydelse.

De andra principerna i listan är involverade i kontrollen av bias för AI-algoritmer och förmågan hos AI:er att upptäcka om oavsiktlig skada kan orsakas och att automatiskt koppla ur. Riktlinjerna anger att om onödig skada inträffar, ska AI:n kunna koppla ur sig själv och låta en mänsklig operatör ta över. I utkastet till principer rekommenderas också att produktionen av AI:er kan spåras så att analytiker kan se vad som ledde till att AI fattade ett givet beslut.

Uppsättningen av rekommendationer som drivits fram av styrelsen understryker två olika idéer. Principerna återspeglar det faktum att AI kommer att vara en integrerad del av framtiden för militära operationer, men att mycket av AI fortfarande är beroende av mänsklig ledning och beslutsfattande.

Även om Pentagon inte behöver anta styrelsens rekommendationer, låter det som om Pentagon tar rekommendationerna på allvar. Som rapporterats av Wired, uppgav chefen för Joint Artifical Intelligence Center, generallöjtnant Jack Shanahan, att styrelsens rekommendationer skulle hjälpa Pentagon att "upprätthålla de högsta etiska standarderna som beskrivs i DoD AI-strategin, samtidigt som den omfamnar den amerikanska militärens starka historia av att tillämpa rigorösa tester och fältstandarder för tekniska innovationer."

Den tekniska industrin som helhet är fortfarande försiktig med att använda AI för att skapa militär hårdvara och mjukvara. Microsoft och Google-anställda har båda protesterat över samarbeten med militära enheter, och Google har nyligen valt att inte förnya kontraktet som fick dem att bidra till Project Maven. Ett antal VD:ar, forskare och ingenjörer har också gjort det undertecknade ett löfte Inte till "delta i eller stödja utveckling, tillverkning, handel med eller användning av dödliga autonoma vapen". Om Pentagon antar riktlinjerna som föreslagits av styrelsen kan det göra teknikindustrin mer villig att samarbeta i projekt, även om bara tiden kommer att utvisa.

Bloggare och programmerare med specialiteter inom Maskininlärning och Deep Learning ämnen. Daniel hoppas kunna hjälpa andra att använda kraften i AI för socialt bästa.