taló El grup d'assessorament tecnològic demana límits a l'ús de la IA del Pentàgon - Unite.AI
Connecteu-vos amb nosaltres

Regulació

El grup d'assessorament tecnològic demana límits a l'ús de la IA del Pentàgon

mm
actualitzat on

El Pentàgon ha deixat clares les seves intencions d'invertir molt en intel·ligència artificial, afirmant que la IA farà que l'exèrcit nord-americà sigui més potent i robust davant de possibles amenaces a la seguretat nacional. Tal com informa Engadget, dijous passat, la Junta d'Innovació de Defensa va impulsar una sèrie de propostes de directrius ètiques per a l'ús de la IA a l'exèrcit. La llista de propostes inclou estratègies per evitar biaixos no desitjats i una IA governable que tindria procediments d'aturada d'emergència que impedeixin que la IA causin danys innecessaris.

Informes per cable que la Junta d'Innovació de Defensa va ser creada per l'Administració Obama per guiar el Pentàgon en l'adquisició d'experiència i talent en la indústria tecnològica. Actualment, el consell està presidit per l'antic conseller delegat de Google, Eric Schmidt. Recentment, el departament va rebre l'encàrrec d'establir directrius per a la implementació ètica de la IA en projectes militars. Dijous, la junta va publicar les seves directrius i recomanacions per revisar-les. L'informe assenyala que el moment de tenir discussions serioses sobre l'ús de la IA en un context militar és ara abans que alguns incidents greus obliguin que n'hi hagi d'haver.

Segons Artificial Intelligence News, un antic funcionari militar va declarar recentment que el Pentàgon s'estava endarrerint pel que fa a l'ús de la IA. El Pentàgon té com a objectiu compensar aquesta diferència i ha declarat que el desenvolupament i l'expansió de l'IA a l'exèrcit és una prioritat nacional. Els experts en IA estan preocupats perquè, en la pressa del Pentàgon per convertir-se en un líder en IA, els sistemes d'IA es puguin utilitzar de manera poc ètica. Tot i que diversos consells d'ètica d'IA independents han fet els seus propis suggeriments, la Junta d'Innovació de Defensa ha proposat almenys cinc principis que els militars han de seguir en tot moment a l'hora de desenvolupar i implementar sistemes d'IA.

El primer principi proposat per la junta és el principi que els humans han de ser sempre responsables de la utilització, el desplegament i els resultats de qualsevol plataforma d'intel·ligència artificial utilitzada en un context militar. Això recorda una política de 2012 que obligava que els humans havien de formar part, en última instància, del procés de presa de decisions sempre que es pogués utilitzar la força letal. Hi ha una sèrie d'altres principis a la llista que proporcionen consells generals, com ara assegurar-se que els sistemes d'IA sempre són construïts per enginyers que entenguin i documentin a fons els seus programes. Un altre principi aconsella que els sistemes d'IA militars s'han de provar sempre per a la seva fiabilitat. Aquestes directrius semblen ser de sentit comú, però la junta vol subratllar-ne la importància.

Els altres principis de la llista estan implicats en el control del biaix per als algorismes d'IA i la capacitat de les IA per detectar si es pot causar danys no desitjats i desactivar-se automàticament. Les directrius especifiquen que si es produeix un dany innecessari, l'IA hauria de poder desenganxar-se i fer que un operador humà se'n faci càrrec. L'esborrany de principis també recomana que la sortida de les IA sigui traçable perquè els analistes puguin veure què va portar a la IA a prendre una decisió determinada.

El conjunt de recomanacions impulsades pel consell subratlla dues idees diferents. Els principis reflecteixen el fet que la IA serà integral per al futur de les operacions militars, però que gran part de la IA encara depèn de la gestió humana i la presa de decisions.

Tot i que el Pentàgon no ha d'adoptar les recomanacions del tauler, sembla com si el Pentàgon es prengués seriosament les recomanacions. Segons informa Wired, el director del Centre Conjunt d'Intel·ligència Artificial, el tinent general Jack Shanahan, va declarar que les recomanacions de la junta ajudarien el Pentàgon a "mantenir els estàndards ètics més alts tal com es descriu a l'estratègia d'IA del DoD, alhora que s'adopta la forta història de l'exèrcit nord-americà d'aplicar proves rigoroses i establint estàndards per a les innovacions tecnològiques".

La indústria tecnològica en conjunt segueix desconfiada d'utilitzar la IA en la creació de maquinari i programari militar. Els empleats de Microsoft i Google han protestat per les col·laboracions amb entitats militars, i Google ha optat recentment per no renovar el contracte que els feia contribuir al Projecte Maven. També ho han fet diversos consellers delegats, científics i enginyers va signar un compromís no fer-ho "Participar ni donar suport al desenvolupament, fabricació, comerç o ús d'armes autònomes letals". Si el Pentàgon adopta les directrius suggerides pel consell, podria fer que la indústria tecnològica estigui més disposada a col·laborar en projectes, encara que només el temps ho dirà.