Regulering
Teknisk rådgivningsgruppe søger begrænsninger på Pentagons brug af AI

Pentagon har gjort det klart, at de har intentioner om at investere kraftigt i kunstig intelligens, og har udtalt, at AI vil gøre den amerikanske hær mere magtfuld og robust over for mulige nationale sikkerhetstrusler. Som Engadget rapporterer, fremmede Defense Innovation Board på torsdag en række foreslåede etiske retningslinjer for brugen af AI i militæret. Listen over forslag inkluderer strategier til at undgå uventet bias og styrbare AI, der ville have nødstopsprocedurer, der forhindrer, at AI forårsager unødig skade.
Wired rapporterer, at Defense Innovation Board blev oprettet af Obama-administrationen for at vejlede Pentagon i at erhverve teknisk industri-erfaring og talent. Boardet ledes i øjeblikket af den tidligere CEO af Google, Eric Schmidt. Afdelingen blev nylig bedt om at etablere retningslinjer for den etiske implementering af AI i militære projekter. Onsdag offentliggjorde boardet deres retningslinjer og anbefalinger til gennemsyn. Rapporten bemærker, at det er tid at have alvorlige diskussioner om brugen af AI i en militær kontekst, før nogen alvorlig incident kræver, at der skal være en.
Ifølge Artificial Intelligence News, udtalte en tidligere militærchef nylig, at Pentagon var faldet bagud, når det kommer til brugen af AI. Pentagon sigter mod at indhente denne forskel og har erklæret udviklingen og udvidelsen af AI i militæret for at være en national prioritet. AI-etikere er bekymrede for, at i Pentagons hast til at blive en leder i AI, kan AI-systemer blive brugt på uetiske måder. Mens forskellige uafhængige AI-etiske boarder har fremmet deres egne forslag, har Defense Innovation Board foreslået mindst fem principper, som militæret skal følge på alle tidspunkter, når de udvikler og implementerer AI-systemer.
Det første princip, der er foreslået af boardet, er principperne om, at mennesker altid skal være ansvarlige for udnyttelsen, udrulningen og resultaterne af enhver kunstig intelligensplatform, der bruges i en militær kontekst. Dette minder om en politik fra 2012, der krævede, at mennesker skulle være en del af beslutningsprocessen, når dødelig kraft kunne blive brugt. Der er en række andre principper på listen, der giver generel rådgivning som at sikre, at AI-systemer altid er bygget af ingeniører, der forstår og dokumenterer deres programmer grundigt. Et andet princip råder, at militære AI-systemer altid skal testes for deres pålidelighed. Disse retningslinjer synes at være sund fornuft, men boardet ønsker at understrege deres vigtighed.
De andre principper på listen er involveret i kontrollen af bias for AI-algoritmer og AI’ens evne til at registrere, om uventet skade kan blive forårsaget, og automatisk frakoble. Retningslinjerne specificerer, at hvis unødig skade vil opstå, skal AI være i stand til at frakoble sig selv og have en menneskelig operatør overtage. Udkastet til principper anbefaler også, at AI’ens output skal være sporbart, så analytikere kan se, hvad der ledte til, at AI traf en given beslutning.
Sættet af anbefalinger, der er fremmet af boardet, understreger to forskellige ideer. Principperne afspejler, at AI vil være en integreret del af militæroperationernes fremtid, men at meget af AI stadig afhænger af menneskelig ledelse og beslutningstagning.
Selvom Pentagon ikke er nødt til at følge boardets anbefalinger, lyder det, som om Pentagon tager anbefalingerne alvorligt. Som Wired rapporterer, udtalte direktøren for Joint Artifical Intelligence Center, Lieutenant General Jack Shanahan, at boardets anbefalinger ville hjælpe Pentagon med at “opretholde de højeste etiske standarder, som er fastlagt i DoD AI-strategien, samtidig med at man omfatter den amerikanske militærs stærke historie om at anvende strenge test- og feltstandarder for tekniske innovationer”.
Teknologiindustrien som helhed forbliver forsigtig med hensyn til brugen af AI i skabelsen af militær hård- og software. Microsoft- og Google-ansatte har begge protesteret over samarbejder med militære enheder, og Google har nylig valgt ikke at forlænge kontrakten, der havde dem bidragende til Project Maven. En række CEO’er, videnskabsmænd og ingeniører har også underskrevet en løfte ikke at “deltage i eller støtte udviklingen, fremstillingen, handelen eller brugen af dødelige autonome våben”. Hvis Pentagon følger retningslinjerne, der er foreslået af boardet, kan det gøre teknologiindustrien mere villig til at samarbejde om projekter, selvom kun tiden vil vise.












