Realidad aumentada
Investigadores Crean Hologramas 3D en Tiempo Real con Inteligencia Artificial en Teléfonos Inteligentes

Los teléfonos inteligentes podrían generar pronto hologramas 3D fotorealistas, gracias en parte a un modelo de inteligencia artificial desarrollado por investigadores del MIT. El sistema de inteligencia artificial desarrollado por el equipo del MIT determina la mejor manera de generar hologramas a partir de una serie de imágenes de entrada.
Los investigadores del MIT han diseñado recientemente modelos de inteligencia artificial que permiten la generación de hologramas 3D fotorealistas. La tecnología podría tener aplicaciones para cascos de realidad virtual y aumentada, y los hologramas incluso pueden ser generados por un teléfono inteligente.
A diferencia de las pantallas 3D y de realidad virtual tradicionales, que simplemente producen la ilusión de profundidad y que pueden causar náuseas y dolores de cabeza, las pantallas holográficas pueden ser vistas por las personas sin causar tensión en los ojos. Un obstáculo importante hacia la creación de medios holográficos es el manejo de los datos necesarios para generar realmente el holograma. Cada holograma está compuesto por una gran cantidad de datos necesarios para crear la “profundidad” del holograma. Debido a esto, la generación de hologramas típicamente requiere una gran cantidad de potencia de cálculo. Para hacer que la tecnología holográfica sea más práctica, el equipo del MIT aplicó redes neuronales convolucionales profundas al problema, creando una red capaz de generar rápidamente hologramas a partir de imágenes de entrada.
El enfoque típico para generar hologramas esencialmente genera muchos trozos de hologramas y luego utiliza simulaciones físicas para combinar los trozos en una representación completa de un objeto o imagen. Esto difiere del enfoque típico utilizado para generar hologramas. En el método tradicional, las imágenes se dividen en trozos y se utilizan tablas de búsqueda para unir los trozos de holograma, ya que las tablas de búsqueda marcan los límites de los diferentes trozos de holograma. El proceso de definir los límites de los trozos de holograma con tablas de búsqueda es bastante tiempo-consuming y consume mucha potencia de procesamiento.
Según IEEE Spectrum, el equipo del MIT diseñó otro método de generación de hologramas. Utilizando la potencia de las redes de aprendizaje profundo, pudieron dividir las imágenes en trozos que podrían ser recompilados en hologramas utilizando mucho menos “rebanadas”. La nueva técnica aprovecha la capacidad de las redes neuronales convolucionales para analizar imágenes y separarlas en trozos discretos. Este nuevo método de análisis y división de imágenes reduce significativamente la cantidad de operaciones totales que un sistema debe realizar.
Para diseñar su generador de hologramas con inteligencia artificial, el equipo de investigación comenzó construyendo una base de datos compuesta por alrededor de 4000 imágenes generadas por computadora, con un holograma 3D correspondiente asignado a cada una de estas imágenes. La red neuronal convolucional se entrenó en este conjunto de datos, aprendiendo cómo cada una de las imágenes estaba vinculada con su holograma y la mejor manera de utilizar características para generar los hologramas. Cuando el sistema de inteligencia artificial se proporcionó con datos no vistos con información de profundidad, entonces pudo generar nuevos hologramas a partir de estos datos. La información de profundidad se suministra a través del uso de sensores lidar o pantallas de cámara múltiple y se renderiza como una imagen generada por computadora. Algunos nuevos iPhone tienen estos componentes, lo que significa que podrían generar potencialmente los hologramas si se conectan a la pantalla adecuada.
El nuevo sistema de holograma con inteligencia artificial necesita mucha menos memoria que los métodos clásicos. El sistema puede generar hologramas 3D a 60 cuadros por segundo en color completo con una resolución de 1920 x 1080 utilizando alrededor de 620 kilobytes de memoria mientras se ejecuta en una sola GPU comúnmente disponible. Los investigadores pudieron ejecutar su sistema en un iPhone 11 produciendo alrededor de 1 holograma por segundo, mientras que un Google Edge TPU el sistema podría renderizar 2 hologramas por segundo. Esto sugiere que el sistema podría adaptarse a teléfonos inteligentes, dispositivos de realidad aumentada y dispositivos de realidad virtual en general. El sistema también podría tener aplicaciones para la impresión 3D volumétrica o en el diseño de microscopios holográficos.
En el futuro, las mejoras en la tecnología podrían introducir hardware y software de seguimiento de ojos, lo que permitiría a los hologramas escalar dinámicamente en resolución mientras el usuario mira lugares específicos.










