talón Avión de combate controlado por IA derrota a piloto humano en combate simulado - Unite.AI
Contáctanos

Inteligencia artificial

Avión de combate controlado por IA derrota a piloto humano en combate simulado

mm
Actualizado on

Recientemente se llevó a cabo un evento que enfrentó a un avión de combate controlado por IA contra un piloto humano en una pelea de perros virtual, con el resultado final de que la IA logró derrotar a su oponente humano, agregando otro ejemplo de IA superando a los humanos incluso en tareas extraordinariamente complejas.

Según lo informado por DefenseOne, la reciente pelea de perros virtual fue orquestada por el ejército de los EE. UU. como parte de un esfuerzo continuo para demostrar la capacidad de los agentes autónomos para derrotar a los aviones en las peleas de perros, un proyecto llamado Desafío AlphaDogFight. La Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) eligió ocho equipos de IA desarrollados por varios contratistas de defensa y enfrentó a estos equipos de IA entre sí en peleas de perros virtuales. El ganador de este torneo fue una IA desarrollada por Heron Systems, y luego la IA se enfrentó a un piloto humano que usaba un casco VR y se sentaba en un simulador de vuelo. Según los informes, la IA ganó las cinco rondas que jugó.

La IA desarrollada por Heron Systems era un sistema de aprendizaje por refuerzo profundo. Aprendizaje por refuerzo profundo es el proceso de permitir que un agente de IA experimente en un entorno una y otra vez, aprendiendo de ensayo y error. La IA de Lockheed Martin fue finalista en la competencia y también utilizó un sistema de aprendizaje de refuerzo profundo. Los ingenieros y directores de Lockheed Martin explicaron que desarrollar algoritmos que puedan funcionar bien en el combate aéreo es una tarea muy diferente a simplemente diseñar un algoritmo que pueda volar y mantener orientaciones y altitudes particulares. Los algoritmos de IA deben llegar a comprender no solo que existen sanciones para ciertas acciones, sino que no todas las sanciones tienen el mismo peso. Algunas acciones tienen consecuencias muy graves en comparación con otras acciones, como estrellarse. Esto debe hacerse asignando pesos a cada acción posible y luego ajustando estos pesos en función de las experiencias que tenga el agente.

Heron Systems dijo que entrenaron su modelo al someterlo a más de 4 mil millones de simulaciones y que, como resultado, el modelo había adquirido alrededor de 12 años de experiencia. Sin embargo, a la IA no se le permitió aprender de sus experiencias en las propias pruebas de combate. No está claro cómo habrían cambiado los resultados del concurso si se hubiera permitido que el modelo aprendiera de las rondas del concurso. Si el concurso hubiera durado más, también podría haber habido un resultado diferente. El piloto humano pudo adaptarse a las tácticas de la IA después de algunas rondas y pudo resistir mucho más tiempo contra la IA al final del juego. Era un poco demasiado tarde el momento en que el piloto se había adaptado.

Esta es en realidad la segunda vez que una IA vence a un humano en una pelea de perros simulada. En 2016, un sistema de IA derrotó a un instructor de aviones de combate. La simulación reciente de DARPA fue más sólida que la prueba de 2016, debido al hecho de que numerosas IA se enfrentaron entre sí para encontrar la mejor antes de enfrentarse al piloto humano.

El director de la Oficina de Tecnología Estratégica de DARPA, Timothy Grayson, dijo que la prueba tiene como objetivo comprender mejor cómo interactúan las máquinas y los humanos y construir mejores equipos humano-máquina. Como Grayson fue citado por:

“Creo que lo que estamos viendo hoy es el comienzo de algo que voy a llamar simbiosis hombre-máquina… Pensemos en el ser humano sentado en la cabina, siendo piloteado por uno de estos algoritmos de IA como si fuera realmente un sistema de armas, donde el humano se enfoca en lo que el humano hace mejor [como el pensamiento estratégico de orden superior] y la IA está haciendo lo que la IA hace mejor”.