taló Un avion de caça controlat per IA derrota el pilot humà en un combat simulat - Unite.AI
Connecteu-vos amb nosaltres

Intel·ligència Artificial

Un avion de caça controlat per IA derrota el pilot humà en un combat simulat

mm
actualitzat on

Recentment es va celebrar un esdeveniment que enfrontava un avió de caça controlat per IA contra un pilot humà en una baralla virtual de gossos, amb el resultat final que la IA va aconseguir derrotar al seu oponent humà, afegint un altre exemple d'IA que superaven els humans fins i tot en tasques extraordinàriament complexes.

Segons informa DefenseOne, el recent combat virtual va ser orquestrat per l'exèrcit nord-americà com a part d'un esforç continu per demostrar la capacitat dels agents autònoms per derrotar avions en combats de gossos, un projecte anomenat Repte AlphaDogFight. L'Agència de Projectes d'Investigació Avançada de Defensa (DARPA) va triar vuit equips d'IA desenvolupats per diversos contractistes de defensa i va enfrontar aquests equips d'IA entre ells en baralles virtuals de gossos. El guanyador d'aquest torneig va ser una IA desenvolupada per Heron Systems, i després la IA es va enfrontar a un pilot humà que portava un casc de realitat virtual i es va asseure en un simulador de vol. Segons els informes, l'IA va guanyar les cinc rondes que va jugar.

La IA desenvolupada per Heron Systems era un sistema d'aprenentatge de reforç profund. Aprenentatge de reforç profund és el procés de permetre que un agent d'IA experimenti en un entorn una i altra vegada, aprenent de l'assaig i error. L'IA de Lockheed Martin va ser el segon classificat de la competició i també va utilitzar un sistema d'aprenentatge de reforç profund. Els enginyers i directors de Lockheed Martin van explicar que desenvolupar algorismes que puguin funcionar bé en combats aeri és una tasca molt diferent a simplement dissenyar un algorisme que pugui volar i mantenir orientacions i altituds particulars. Els algorismes d'IA han d'entendre no només que hi ha sancions a determinades accions, sinó que no totes les sancions tenen el mateix ponderació. Algunes accions tenen conseqüències molt greus en comparació amb altres accions, com ara l'estavellament. Això s'ha de fer assignant pesos a cada acció possible i després ajustant aquests pesos en funció de les experiències que tingui l'agent.

Heron Systems va dir que van entrenar el seu model fent-lo passar per més de 4 milions de simulacions i que el model havia adquirit uns 12 anys d'experiència com a resultat. Tanmateix, a la IA no se li va permetre aprendre de les seves experiències en els mateixos assajos de combat. No està clar com haurien canviat els resultats del concurs si el model hagués pogut aprendre de les rondes del concurs. Si el concurs hagués durat més temps, també podria haver-hi un resultat diferent. El pilot humà va poder adaptar-se a les tàctiques de l'IA després d'unes quantes rondes, i va poder durar molt més contra l'IA al final del joc. Era una mica massa tard quan el pilot s'havia adaptat.

En realitat, aquesta és la segona vegada que una IA guanya un ésser humà en una baralla de gossos simulada. L'any 2016, un sistema d'IA va derrotar a un instructor d'avions de combat. La recent simulació de DARPA va ser més robusta que la prova del 2016, a causa del fet que nombroses IA es van enfrontar entre elles per trobar la millor abans que s'enfrontés al pilot humà.

El director de l'Oficina de Tecnologia Estratègica de DARPA, Timothy Grayson, va dir que l'assaig té com a objectiu entendre millor com interactuen les màquines i els humans i crear millors equips home-màquina. Tal com va citar Grayson:

"Crec que el que estem veient avui és l'inici d'una cosa que anomenaré simbiosi home-màquina... Pensem en l'ésser humà assegut a la cabina, sent volat per un d'aquests algorismes d'IA com un sistema d'arma realment, on l'ésser humà se centra en allò que fa millor [com el pensament estratègic d'ordre superior] i la IA està fent el que fa millor".