Entrevistas
Charles J. Simon, autor, ¿Se rebelarán las computadoras? – Serie de entrevistas

Charles J. Simon, BSEE, MSCS, empresario, desarrollador de software y gerente reconocido a nivel nacional. Con una amplia experiencia técnica y de gestión y tÃtulos tanto en IngenierÃa Eléctrica como en Ciencias de la Computación, el Sr. Simon tiene muchos años de experiencia informática en la industria, incluido un trabajo pionero en IA y CAD (dos generaciones de CAD).
También es el autor de 'Will Computers Revolt', que ofrece una visión en profundidad de la posibilidad futura de la Inteligencia General Artificial (AGI).
¿Qué fue lo que te atrajo originalmente de la IA, y especÃficamente de AGI?
Me ha fascinado la pregunta: "¿Pueden pensar las máquinas?" desde que leà por primera vez el artÃculo seminal de Alan Turing de 1950 que comienza con esa pregunta. Hasta ahora, la respuesta es claramente, "No", pero no hay ninguna razón cientÃfica por la que no. Me unà a la comunidad de IA con el auge inicial de las redes neuronales a fines de la década de 1980 y, desde entonces, la IA ha logrado grandes avances. Pero los treinta años intermedios no han traÃdo comprensión a nuestras máquinas, una habilidad que catapultarÃa numerosas aplicaciones a nuevos niveles de utilidad.
Usted afirmó que comparte la opinión del experto en IA del MIT, Rodney Brooks, quien dice que "sin interacción con un entorno (sin un cuerpo robótico, por ejemplo) las máquinas nunca exhibirán AGI". Básicamente, esto significa que con entradas insuficientes de un cuerpo robótico, la IA nunca desarrollará capacidades AGI. Aparte de la visión por computadora, ¿qué tipos de insumos se necesitan para desarrollar AGI?
La IA actual debe complementarse con conceptos básicos como la existencia fÃsica de objetos en una realidad, el paso del tiempo, causa y efecto, conceptos claros para cualquier niño de tres años. Un niño pequeño usa varios sentidos para aprender estos conceptos tocando y manipulando juguetes, moviéndose por la casa, aprendiendo idiomas, etc. Si bien es posible crear un AGI con sentidos más limitados, al igual que hay personas sordas y ciegas que son perfectamente inteligente pero más sentidos y habilidades para interactuar hace que resolver el problema AGI sea más fácil.
Para completar, mi simulador puede proporcionar los sentidos del olfato y el gusto. Queda por ver si estos también serán importantes para AGI.
Usted afirmó que "un requisito clave para la inteligencia es un entorno externo a la inteligencia". El ejemplo que usted dio es que "no es razonable esperar que Watson de IBM "comprenda" algo si no tiene una idea subyacente de lo que es una "cosa". Esto claramente influye en las limitaciones actuales de la IA limitada, especialmente el procesamiento del lenguaje natural. ¿Cómo pueden los desarrolladores de IA superar mejor esta limitación actual de la IA?
Un factor clave es el almacenamiento de conocimiento que no es especÃficamente verbal, visual o táctil, sino como "cosas" abstractas que pueden tener atributos verbales, visuales y táctiles. Considere algo tan simple como la frase, "una bola roja". Sabes lo que significan estas palabras debido a tus experiencias visuales y táctiles. También conoce el significado de acciones relacionadas como lanzar, rebotar, patear, etc., que le vienen a la mente hasta cierto punto cuando escucha la frase. Cualquier sistema de IA que esté especÃficamente basado en palabras o especÃficamente en imágenes se perderá los otros niveles de comprensión.
Implementé un Almacén de conocimiento universal que almacena cualquier tipo de información en una estructura similar a un cerebro donde las cosas son análogas a las neuronas y tienen muchas referencias de atributos a otras cosas: las referencias son análogas a las sinapsis. AsÃ, rojo y pelota son Cosas individuales y una pelota roja es una Cosa que tiene referencias de atributo a la Cosa roja y la Cosa pelota. Tanto red como ball tienen referencias a las Cosas correspondientes a las palabras "red" y "ball", cada una de las cuales, a su vez, tiene referencias a otras Cosas que definen cómo se escuchan, hablan, leen o escriben las palabras, asà como posible acción Cosas.
Ha llegado a la conclusión de que la simulación cerebral de la inteligencia general está muy lejos, mientras que AGI puede estar (relativamente) a la vuelta de la esquina. Con base en esta afirmación, ¿deberÃamos dejar de intentar emular o crear una simulación del cerebro humano y centrarnos únicamente en AGI?
El aprendizaje profundo de hoy en dÃa y las tecnologÃas relacionadas son excelentes para aplicaciones apropiadas, pero no conducirán espontáneamente a la comprensión. Para dar los siguientes pasos, necesitamos agregar técnicas especÃficamente dirigidas a resolver los problemas que están dentro de la capacidad de cualquier niño de tres años.
Aprovechar las capacidades intrÃnsecas de nuestras computadoras puede ser mucho más eficiente que el equivalente biológico o cualquier simulación del mismo. Por ejemplo, su cerebro puede almacenar información en la quÃmica de las sinapsis biológicas durante varias iteraciones que requieren de 10 a 100 milisegundos. Una computadora puede simplemente almacenar el nuevo valor de sinapsis en un solo ciclo de memoria, mil millones de veces más rápido.
En el desarrollo del software AGI, he realizado tanto simulación neuronal biológica como algoritmos más eficientes. Continuando con el Almacén de conocimiento universal, cuando se simula en neuronas biológicas simuladas, cada Cosa requiere un mÃnimo de 10 neuronas y, por lo general, muchas más. Esto sitúa la capacidad del cerebro humano entre diez y cien millones de Cosas. Pero tal vez un AGI parecerÃa inteligente si comprende solo un millón de cosas, dentro del alcance de las computadoras de escritorio de alta gama de hoy.
Una incógnita clave es cuánto del tiempo del robot debe asignarse a procesar y reaccionar al mundo frente al tiempo dedicado a imaginar y planificar. ¿Puede explicar brevemente la importancia de la imaginación para un AGI?
Podemos imaginar muchas cosas y luego actuar solo en las que nos gustan, aquellas que promueven nuestras metas internas, por asà decirlo. El verdadero poder de la imaginación es poder predecir el futuro: un niño de tres años puede descubrir qué secuencias de movimiento lo llevarán a una meta en otra habitación y un adulto puede especular sobre qué palabras tendrán el mayor impacto en los demás. .
De manera similar, una AGI se beneficiará de ir más allá de ser puramente reactiva para especular sobre varias acciones complejas y elegir la mejor.
Usted cree que las tres leyes de la robótica de Asimov son demasiado simples y ambiguas. En tu libro compartiste algunas ideas de leyes recomendadas para ser programadas en robots. ¿Qué leyes crees que son las más importantes para que las siga un robot?
Las nuevas "leyes de la robótica" evolucionarán a lo largo de los años a medida que surja AGI. Propongo algunos entrantes:
- Maximizar el conocimiento interno y la comprensión del entorno.
- Comparta ese conocimiento con precisión con otros (tanto AGI como humanos).
- Maximice el bienestar tanto de los AGI como de los humanos en su conjunto, no solo como individuos.
Tiene algunos problemas con la prueba de Turing y el concepto detrás de ella. ¿Puedes explicar por qué crees que la prueba de Turing es defectuosa?
La prueba de Turing nos ha servido bien durante cincuenta años como una definición ad-hoc de inteligencia general, pero a medida que se acerca el AGI, necesitamos perfeccionar la definición y necesitamos una definición más clara. La prueba de Turing es en realidad una prueba de qué tan humano es uno, no qué tan inteligente es. Cuanto más tiempo una computadora pueda mantener el engaño, mejor se desempeñará en la prueba. Obviamente, hacer la pregunta, "¿Eres una computadora?" y preguntas de poder relacionadas como, "¿Cuál es tu comida favorita?" son obsequios a menos que el AGI esté programado para engañar, un objetivo dudoso en el mejor de los casos.
Además, la Prueba de Turing ha motivado el desarrollo de la IA en áreas de valor limitado con (por ejemplo) chatbots con gran flexibilidad en las respuestas pero sin comprensión subyacente.
¿Qué harÃas diferente en tu versión de la prueba de Turing?
Mejores preguntas podrÃan investigar especÃficamente la comprensión del tiempo, el espacio, la causa y el efecto, la previsión, etc. en lugar de preguntas aleatorias sin ninguna base particular en psicologÃa, neurociencia o IA. Aquà hay unos ejemplos:
- ¿Qué ves ahora mismo? Si retrocedieras un metro, ¿qué diferencias verÃas?
- Si yo [acción], ¿cuál serÃa tu reacción?
- si [acción], ¿cuáles serán mis reacciones probables?
- ¿Puedes nombrar tres cosas que son como [objeto]?
Entonces, en lugar de evaluar las respuestas en cuanto a si son indistinguibles de las respuestas humanas, deben evaluarse en términos de si son o no respuestas razonables (inteligentes) basadas en la experiencia de la entidad que se está probando.
Usted ha dicho que cuando se enfrentan a demandas para realizar alguna actividad destructiva a corto plazo, los AGI debidamente programados simplemente se negarán. ¿Cómo podemos asegurarnos de que el AGI esté correctamente programado para empezar?
La toma de decisiones se basa en objetivos. En combinación con la imaginación, usted (o un AGI) considera el resultado de diferentes acciones posibles y elige la que mejor logra los objetivos. En los humanos, nuestras metas están establecidas por instintos evolucionados y nuestra experiencia; los objetivos de un AGI dependen totalmente de los desarrolladores. Necesitamos asegurarnos de que los objetivos de un AGI se alineen con los objetivos de la humanidad en lugar de los objetivos personales de un individuo. [Tres posibles objetivos enumerados anteriormente.]
Ha declarado que es inevitable que los humanos creen un AGI, ¿cuál es su mejor estimación para una lÃnea de tiempo?
Las facetas de AGI comenzarán a surgir en la próxima década, pero no todos estaremos de acuerdo en que AGI haya llegado. Eventualmente, estaremos de acuerdo en que AGI ha llegado cuando superan la mayorÃa de las habilidades humanas por un margen sustancial. Esto llevará dos o tres décadas más.
Para todas las charlas de AGI, ¿será la conciencia real tal como la conocemos?
La conciencia se manifiesta en un conjunto de comportamientos (que podemos observar) que se basan en una sensación interna (que no podemos observar). Los AGI manifestarán los comportamientos; necesitan para tomar decisiones inteligentes. Pero sostengo que nuestra sensación interna depende en gran medida de nuestro hardware sensorial e instintos, por lo que puedo garantizar que, independientemente de las sensaciones internas que pueda tener un AGI, serán diferentes de las de un humano.
Lo mismo puede decirse de las emociones y nuestro sentido del libre albedrÃo. Al tomar decisiones, la creencia de uno en el libre albedrÃo impregna cada decisión que tomamos. Si no crees que tienes elección, simplemente reaccionas. Para que un AGI tome decisiones bien pensadas, también deberá ser consciente de su propia capacidad para tomar decisiones.
Última pregunta, ¿cree que un AGI tiene más potencial para bien o para mal?
Soy optimista de que los AGI nos ayudarán a avanzar como especie y nos brindarán respuestas a muchas preguntas sobre el universo. La clave será que nos preparemos y decidamos cuál será nuestra relación con las AGI a medida que definamos sus objetivos. Si decidimos utilizar los primeros AGI como herramientas de conquista y enriquecimiento, no deberÃa sorprendernos que, en el futuro, se conviertan en sus propias herramientas de conquista y enriquecimiento contra nosotros. Si elegimos que las AGI son herramientas de conocimiento, exploración y paz, entonces es probable que obtengamos eso a cambio. La elección depende de nosotros.
Gracias por una entrevista fantástica que explora el potencial futuro de construir un AGI. Para los lectores que deseen obtener más información, pueden leer 'Will Computers Revolt' o visitar el sitio web de Charle futureai.guru.