talón Experto dice que los DeepFakes "perfectamente reales" estarán aquí en 6 meses - Unite.AI
Contáctanos

Inteligencia artificial

Experto dice que los DeepFakes "perfectamente reales" estarán aquí en 6 meses

mm
Actualizado on

Es probable que los impresionantes pero controvertidos DeepFakes, imágenes y vídeos manipulados o generados por redes neuronales profundas, se vuelvan más impresionantes y más controvertidos en un futuro próximo, según Hao Li, director del Laboratorio de Visión y Gráficos de la Universidad del Sur. California. Li es un experto en visión por computadora y DeepFakes, y en una entrevista reciente con CNBC dijo que es probable que Deepfakes "perfectamente reales" lleguen dentro de medio año.

Li explicó que la mayoría de los DeepFakes todavía son reconocibles como falsos a simple vista, e incluso los DeepFakes más convincentes aún requieren un esfuerzo sustancial por parte del creador para que parezcan realistas. Sin embargo, Li está convencido de que dentro de seis meses, es probable que aparezcan DeepFakes que parecen perfectamente reales a medida que los algoritmos se vuelven más sofisticados.

Inicialmente, Li pensó que tomaría entre dos y tres años para que los DeepFakes extremadamente convincentes se volvieran más comunes, e hizo esa predicción en una conferencia reciente organizada en el Instituto de Tecnología de Massachusetts. Sin embargo, Li revisó su línea de tiempo después de la revelación de la reciente aplicación china Zao y otros desarrollos recientes relacionados con la tecnología DeepFakes. li explicó a CNBC que los métodos necesarios para crear DeepFakes realistas son más o menos los métodos que se utilizan actualmente y que el ingrediente principal que creará DeepFakes realistas son más datos de entrenamiento.

Li y sus colegas investigadores han trabajado arduamente en la tecnología de detección de DeepFake, anticipando la llegada de DeepFakes extremadamente convincentes. Li y sus colegas, como Hany Farid de la Universidad de California en Berkeley, experimentaron con algoritmos DeepFake de última generación para comprender cómo funciona la tecnología que los crea.

Li explicó a CNBC:

“Si desea poder detectar deepfakes, también debe ver cuáles son los límites. Si necesita crear marcos de IA que sean capaces de detectar cosas que son extremadamente reales, deben entrenarse con este tipo de tecnologías, por lo que, de alguna manera, es imposible detectarlas si no sabe cómo funcionan".

Li y sus colegas están comprometidos con la creación de herramientas para detectar DeepFakes en reconocimiento de los posibles problemas y peligros que plantea la tecnología. Li y sus colegas están lejos de ser el único grupo de investigadores de IA preocupados por los posibles efectos de DeepFakes e interesados ​​en crear contramedidas para ellos.

Recientemente, Facebook comenzó una asociación conjunta con MIT, Microsoft y la Universidad de Oxford para crear DeepFake Detection Challenge, cuyo objetivo es crear herramientas que puedan usarse para detectar cuando se han alterado imágenes o videos. Estas herramientas serán de código abierto y podrán ser utilizadas por empresas, organizaciones de medios y gobiernos. Mientras tanto, investigadores del Instituto de Ciencias de la Información de la Universidad del Sur de California crearon recientemente una serie de algoritmos que podían distinguir videos falsos con una precisión de alrededor del 96%.

Sin embargo, Li también explicó que el problema con DeepFakes es la forma en que pueden usarse indebidamente, y no la tecnología en sí. Li señaló varios posibles usos legítimos de la tecnología DeepFake, incluso en las industrias del entretenimiento y la moda.

Las técnicas de DeepFake también se han utilizado para replicar las expresiones faciales de personas con sus rostros oscurecidos en imágenes. Los investigadores utilizaron Generative Adnversail Networks para crear una cara completamente nueva que tuviera la misma expresión de un sujeto en una imagen original. Las técnicas desarrolladas por la Universidad Noruega de Ciencia y Tecnología podrían ayudar a representar las expresiones faciales durante las entrevistas con personas sensibles que necesitan privacidad, como los denunciantes. Alguien más podría permitir que su rostro se use como sustituto de la persona que necesita anonimato, pero aún se pueden leer las expresiones faciales de la persona.

A medida que aumenta la sofisticación de la tecnología Deepfake, también aumentarán los casos de uso legítimos de Deepfakes. Sin embargo, el peligro también aumentará, y por esta razón, el trabajo de detección de DeepFakes realizado por Li y otros se vuelve aún más importante.