talón ¿Qué son las falsificaciones profundas? - Unite.AI
Contáctanos

AI 101

¿Qué son los deepfakes?

mm
Actualizado on

A medida que los deepfakes se vuelven más fáciles de hacer y más prolíficos, se les presta más atención. Los deepfakes se han convertido en el punto central de los debates sobre la ética de la IA, la desinformación, la apertura de la información y de Internet, y la regulación. Vale la pena estar informado sobre los deepfakes y tener una comprensión intuitiva de qué son los deepfakes. Este artículo aclarará la definición de deepfake, examinará sus casos de uso, discutirá cómo se pueden detectar los deepfake y examinará las implicaciones de los deepfake para la sociedad.

¿Qué son las falsificaciones profundas?

Antes de seguir discutiendo los deepfakes, sería útil tomarse un tiempo y aclarar qué son realmente los "deepfakes". Existe una cantidad sustancial de confusión con respecto al término Deepfake y, a menudo, el término se aplica incorrectamente a cualquier medio falsificado, independientemente de si se trata o no de un deepfake genuino. Para calificar como Deepfake, los medios falsos en cuestión deben generarse con un sistema de aprendizaje automático, específicamente una red neuronal profunda.

El ingrediente clave de los deepfakes es el aprendizaje automático. El aprendizaje automático ha hecho posible que las computadoras generen automáticamente videos y audio con relativa rapidez y facilidad. Las redes neuronales profundas se entrenan con imágenes de una persona real para que la red aprenda cómo se ven y se mueven las personas en las condiciones ambientales objetivo. Luego, la red entrenada se utiliza en imágenes de otro individuo y se aumenta con técnicas de gráficos por computadora adicionales para combinar la nueva persona con el metraje original. Se utiliza un algoritmo codificador para determinar las similitudes entre la cara original y la cara objetivo. Una vez aisladas las características comunes de las caras, se utiliza un segundo algoritmo de IA llamado decodificador. El decodificador examina las imágenes codificadas (comprimidas) y las reconstruye basándose en las características de las imágenes originales. Se utilizan dos decodificadores, uno en el rostro del sujeto original y el segundo en el rostro de la persona objetivo. Para que se realice el intercambio, el decodificador entrenado en imágenes de la persona X recibe imágenes de la persona Y. El resultado es que el rostro de la persona Y es una reconstrucción sobre las expresiones faciales y la orientación de la Persona X.

Actualmente, todavía se necesita una buena cantidad de tiempo para hacer una falsificación profunda. El creador de la falsificación tiene que pasar mucho tiempo ajustando manualmente los parámetros del modelo, ya que los parámetros subóptimos darán lugar a imperfecciones notables y fallas en la imagen que revelarán la verdadera naturaleza de la falsificación.

Aunque con frecuencia se asume que la mayoría de las falsificaciones profundas se realizan con un tipo de red neuronal llamada red antagónica generativa (GAN), muchos (quizás la mayoría) de los deepfakes creados en estos días no dependen de las GAN. Si bien las GAN desempeñaron un papel destacado en la creación de las primeras falsificaciones profundas, la mayoría de los videos falsos profundos se crean a través de métodos alternativos, según Siwei Lyu de SUNY Buffalo.

Se necesita una cantidad desproporcionadamente grande de datos de entrenamiento para entrenar una GAN, y las GAN a menudo tardan mucho más en renderizar una imagen en comparación con otras técnicas de generación de imágenes. Las GAN también son mejores para generar imágenes estáticas que video, ya que las GAN tienen dificultades para mantener la consistencia de un cuadro a otro. Es mucho más común usar un codificador y varios decodificadores para crear deepfakes.

¿Para qué se utilizan los deepfakes?

Muchos de los deepfakes que se encuentran en línea son de naturaleza pornográfica. Según una investigación realizada por Deeptrace, una empresa de IA, de una muestra de aproximadamente 15,000 2019 videos falsos tomados en septiembre de 95, aproximadamente el XNUMX % de ellos eran de naturaleza pornográfica. Una implicación preocupante de este hecho es que a medida que la tecnología se vuelva más fácil de usar, podrían aumentar los incidentes de pornografía de venganza falsa.

Sin embargo, no todas las falsificaciones profundas son de naturaleza pornográfica. Hay usos más legítimos para la tecnología deepfake. La tecnología de audio falso podría ayudar a las personas a transmitir sus voces regulares después de que se dañen o se pierdan debido a una enfermedad o lesión. Los deepfakes también se pueden usar para ocultar los rostros de las personas que se encuentran en situaciones delicadas y potencialmente peligrosas, al mismo tiempo que permiten leer sus labios y expresiones. La tecnología deepfake se puede utilizar potencialmente para mejorar el doblaje de películas en idiomas extranjeros, ayudar en la reparación de medios antiguos y dañados e incluso crear nuevos estilos de arte.

Deepfakes sin video

Si bien la mayoría de las personas piensan en videos falsos cuando escuchan el término "deepfake", los videos falsos no son de ninguna manera el único tipo de medios falsos producidos con tecnología deepfake. La tecnología Deepfake también se utiliza para crear falsificaciones de fotos y audio. Como se mencionó anteriormente, las GAN se usan con frecuencia para generar imágenes falsas. Se cree que ha habido muchos casos de perfiles falsos de LinkedIn y Facebook que tienen imágenes de perfil generadas con algoritmos falsos.

También es posible crear deepfakes de audio. Las redes neuronales profundas están entrenadas para producir clones de voz/máscaras de voz de diferentes personas, incluidas celebridades y políticos. Un ejemplo famoso de audio Deepfake es cuando la empresa de IA Dessa hizo uso de un modelo de IA, apoyado por algoritmos que no son de IA, para recrear la voz del presentador del podcast Joe Rogan.

Cómo detectar falsificaciones profundas

A medida que los deepfakes se vuelven cada vez más sofisticados, distinguirlos de los medios genuinos será cada vez más difícil. Actualmente, hay algunos signos reveladores las personas pueden buscar para determinar si un video es potencialmente un deepfake, como una mala sincronización de labios, un movimiento antinatural, parpadeo alrededor del borde de la cara y deformación de detalles finos como cabello, dientes o reflejos. Otros signos potenciales de una falsificación profunda incluyen partes de menor calidad del mismo video y parpadeo irregular de los ojos.

Si bien estos signos pueden ayudar a detectar una falsificación profunda en este momento, a medida que la tecnología de falsificación profunda mejora, la única opción para la detección confiable de falsificación profunda podría ser otros tipos de IA entrenada para distinguir las falsificaciones de los medios reales.

Las empresas de inteligencia artificial, incluidas muchas de las grandes empresas tecnológicas, están investigando métodos para detectar falsificaciones profundas. En diciembre pasado, se inició un desafío de detección de falsificaciones profundas, respaldado por tres gigantes tecnológicos: Amazon, Facebook y Microsoft. Equipos de investigación de todo el mundo trabajaron en métodos para detectar falsificaciones profundas y compitieron para desarrollar los mejores métodos de detección. Otros grupos de investigadores, como un grupo de investigadores combinados de Google y Jigsaw, están trabajando en un tipo de "análisis forense facial" que puede detectar videos que han sido alterados, hacer que sus conjuntos de datos sean de código abierto y alentar a otros a desarrollar métodos de detección de deepfake. El mencionado Dessa ha trabajado en el perfeccionamiento de las técnicas de detección de deepfake, tratando de garantizar que los modelos de detección funcionen en videos deepfake que se encuentran en la naturaleza (en Internet) en lugar de solo en conjuntos de datos de prueba y entrenamiento precompuestos, como el conjunto de datos de código abierto. proporcionado por Google.

También hay otras estrategias que están siendo investigados para hacer frente a la proliferación de deepfakes. Por ejemplo, verificar la concordancia de los videos con otras fuentes de información es una estrategia. Se pueden realizar búsquedas de videos de eventos potencialmente tomados desde otros ángulos, o se pueden verificar detalles de fondo del video (como patrones climáticos y ubicaciones) en busca de incongruencias. Más allá de esto, un sistema de registro en línea Blockchain podría registrar videos cuando se crean inicialmente, conservando su audio e imágenes originales para que los videos derivados siempre puedan verificarse en busca de manipulación.

En última instancia, es importante que se creen métodos confiables para detectar falsificaciones profundas y que estos métodos de detección se mantengan al día con los avances más recientes en tecnología de falsificaciones profundas. Si bien es difícil saber exactamente cuáles serán los efectos de las falsificaciones profundas, si no existen métodos confiables para detectarlas (y otras formas de medios falsos), la información errónea podría proliferar y degradar la confianza de las personas en la sociedad y las instituciones.

Implicaciones de las falsificaciones profundas

¿Cuáles son los peligros de permitir que las falsificaciones profundas proliferen sin control?

Uno de los mayores problemas que crean actualmente los deepfakes es la pornografía no consensuada, diseñada mediante la combinación de rostros de personas con videos e imágenes pornográficos. Los especialistas en ética de la IA están preocupados de que las falsificaciones profundas se utilicen más en la creación de pornografía de venganza falsa. Más allá de esto, los deepfakes podrían usarse para intimidar y dañar la reputación de casi cualquier persona, ya que podrían usarse para colocar a las personas en escenarios controvertidos y comprometedores.

Empresas y especialistas en ciberseguridad han expresado su preocupación por el uso de deepfakes para facilitar estafas, fraudes y extorsiones. Supuestamente, el audio deepfake ha sido utilizado para convencer a los empleados de una empresa para transferir dinero a los estafadores

Es posible que las falsificaciones profundas puedan tener efectos nocivos incluso más allá de los enumerados anteriormente. Deepfakes podría potencialmente erosionar la confianza de las personas en los medios en general y dificultar que las personas distingan entre noticias reales y noticias falsas. Si muchos videos en la web son falsos, es más fácil para los gobiernos, las empresas y otras entidades poner en duda las controversias legítimas y las prácticas poco éticas.

Cuando se trata de gobiernos, las falsificaciones profundas pueden incluso representar una amenaza para el funcionamiento de la democracia. La democracia requiere que los ciudadanos puedan tomar decisiones informadas sobre los políticos basadas en información confiable. La desinformación socava los procesos democráticos. Por ejemplo, el presidente de Gabón, Ali Bongo, apareció en un video tratando de tranquilizar a la ciudadanía de Gabón. Se suponía que el presidente no se encontraba bien durante un largo período de tiempo, y su repentina aparición en un probable video falso inició un intento de golpe. El presidente Donald Trump afirmó que una grabación de audio de él alardeando de agarrar a las mujeres por los genitales era falso, a pesar de que también lo describe como “charla de vestuario”. El príncipe Andrés también afirmó que una imagen proporcionada por el abogado de Emily Maitilis era falsa, aunque el abogado insistió en su autenticidad.

En última instancia, si bien existen usos legítimos para la tecnología deepfake, existen muchos daños potenciales que pueden surgir del mal uso de esa tecnología. Por esa razón, es extremadamente importante que se creen y mantengan métodos para determinar la autenticidad de los medios.