AGI
Cómo las Tres Leyes de la Robótica de Asimov Impactan en la IA

Las Tres Leyes de la Robótica son icónicas en el mundo de la ciencia ficción y se han convertido en un símbolo dentro de la comunidad de IA y robótica de lo difícil que es diseñar un sistema que sea infalible.
Para comprender completamente la importancia de estas tres leyes, debemos aprender primero sobre la mente brillante que concibió estas leyes, el difunto autor de ciencia ficción Isaac Asimov. Luego, debemos entender cómo adaptar estas leyes y hacer que evolucionen para proteger a la humanidad.
Isaac Asimov – El surgimiento de un genio
Isaac Asimov nació en Rusia el 2 de enero de 1920, y emigró a los Estados Unidos a los tres años de edad. Creció en Brooklyn, Nueva York, y se graduó de la Universidad de Columbia en 1939. Fue reconocido como un escritor dotado y prolífico que se centró en la ciencia y la ciencia ficción. Durante su carrera, escribió y/o editó más de 500 libros.
Asimov se inspiró en gran medida en algunos de los escritores más icónicos del mundo de la ciencia ficción. Comenzó a trabajar en el Astillero Naval de Filadelfia, donde conoció a dos de sus compañeros de trabajo, que pronto se convertirían en dos de los escritores de ciencia ficción más exitosos de la historia de la ficción especulativa: L. Sprague de Camp y Robert A. Heinlein.
L. Sprague de Camp es un autor galardonado que escribió más de 100 libros y fue una figura importante en la ciencia ficción en las décadas de 1930 y 1940. Algunas de sus obras más populares incluyeron “Darkness Fall” (1939), “The Wheels of If” (1940), “A Gun for Dinosaur” (1956), “Aristotle and the Gun” (1958) y “The Glory That Was” (1960).
Robert A. Heinlein fue posiblemente el escritor de ciencia ficción más popular del mundo en la cúspide de su carrera. Junto con Isaac Asimov y Arthur C. Clarke, se consideraba que eran los “Tres Grandes” de los autores de ciencia ficción. Algunas de las obras más populares de Robert A. Heinlein incluyeron “Farnham’s Freehold” (1964) y “To Sail Beyond the Sunset” (1987). La generación actual probablemente lo conoce mejor por la adaptación cinematográfica de su novela “Starship Troopers” (1959).
Estar rodeado de estos gigantes del futurismo inspiró a Isaac Asimov a lanzar su prolífica carrera como escritor. Asimov también era muy respetado en la comunidad científica y era frecuentemente invitado a dar conferencias sobre ciencia.
Las Tres Leyes de la Robótica
Isaac Asimov fue la primera persona en utilizar el término ‘Robótica’ en un cuento llamado ‘Liar!’ que se publicó en 1941.
Poco después, su cuento de 1942 “Runaround” introdujo al mundo sus tres leyes de la robótica. Las leyes son:
1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes que se le den por los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
3. Un robot debe proteger su propia existencia siempre que tal protección no entre en conflicto con la Primera o Segunda Ley.
Estas leyes fueron diseñadas para ofrecer puntos de trama interesantes, y Asimov continuó creando una serie de 37 cuentos de ciencia ficción y seis novelas que presentaban robots positrónicos.
Una de estas colecciones de cuentos titulada “I, Robot” se adaptó posteriormente al cine en 2004. La película “I, Robot” con Will Smith está ambientada en un futuro distópico de 2035 y presenta robots públicos altamente inteligentes que operan bajo las tres leyes de la robótica. La película, al igual que los cuentos, se convirtió rápidamente en una parábola de cómo la programación podría salir mal y que programar cualquier tipo de IA avanzada implica un alto nivel de riesgo.
El mundo ha alcanzado ahora lo que anteriormente era ciencia ficción, estamos diseñando IA que en algunos aspectos es mucho más avanzada que cualquier cosa que Isaac Asimov hubiera podido imaginar, y al mismo tiempo es mucho más limitada.
Las tres leyes de la robótica se mencionan con frecuencia en discusiones sobre Inteligencia Artificial General (AGI). Exploraremos rápidamente qué es AGI, así como cómo las tres leyes de la robótica deben evolucionar para evitar posibles problemas en el futuro.
Inteligencia Artificial General (AGI)
Actualmente, la mayoría de los tipos de IA que encontramos a diario se cuantifican como “IA estrecha”. Este es un tipo de IA que es muy específico y estrecho en su función de utilidad. Por ejemplo, un vehículo autónomo puede navegar por las calles, pero debido a sus limitaciones “estrechas”, la IA no puede completar fácilmente otras tareas. Otro ejemplo de IA estrecha sería un sistema de reconocimiento de imágenes que puede identificar y etiquetar fácilmente imágenes en una base de datos, pero no podría adaptarse fácilmente a otra tarea.
La Inteligencia Artificial General, comúnmente referida como “AGI”, es una IA que, al igual que los humanos, puede aprender, adaptarse, cambiar de dirección y funcionar en el mundo real. Es un tipo de inteligencia que no es estrecha en su alcance, puede adaptarse a cualquier situación y aprender a manejar problemas del mundo real.
Debería mencionarse que, aunque la IA está avanzando a un ritmo exponencial, aún no hemos logrado AGI. Cuándo alcanzaremos AGI es un tema de debate, y todos tienen una respuesta diferente sobre el cronograma. Personalmente, me suscribo a las opiniones de Ray Kurzweil, inventor, futurista y autor de “La singularidad está cerca”, quien cree que habremos logrado AGI para 2029.
Es este cronograma de 2029 el que es un reloj de cuenta regresiva, debemos aprender a codificar un tipo de libro de reglas en la IA, que no solo sea similar a las tres leyes, sino que sea más avanzado y pueda evitar realmente conflictos entre humanos y robots.
Leyes de la Robótica de la era moderna
Mientras que las tres leyes de la robótica fueron fenomenales para la literatura, carecen significativamente de sofisticación para programar seriamente en un robot. Esto fue, después de todo, el punto de trama detrás de los cuentos y las novelas. Los conflictos entre las tres leyes, o al menos la interpretación de las tres leyes, causaron que los robots se bloquearan, se rebelaran contra los humanos o otros puntos de trama cruciales.
El principal problema con las leyes actuales es la programación ética de siempre obedecer las instrucciones humanas y siempre protegerse a sí mismo puede entrar en conflicto. ¿Qué mecanismo de seguridad de fallo se debe programar? ¿Cómo se instruye a un robot que debe apagarse, no matter las consecuencias? ¿Qué sucede si un robot está en el proceso de salvar a una ama de casa de abuso, ¿debe el robot apagarse automáticamente si se le da la orden por el marido abusivo?
En otras palabras, ¿quién debe dar las instrucciones a los robots? Con armas autónomas capaces de identificar y apuntar a enemigos desde todo el mundo, ¿debe el robot poder negarse a una orden de eliminar un objetivo si identifica al objetivo como un niño?
En otras palabras, si el robot es propiedad y está controlado por un psicópata, ¿puede el robot negarse a órdenes que son inmorales? Las preguntas son numerosas, y las respuestas son demasiado difíciles para que cualquier individuo las responda. Es por esto que organizaciones como The Future of Life Institute son tan importantes, el momento de debatir estas dilemas morales es ahora, antes de que surja una verdadera AGI.








