Contáctenos

Deepfakes y navegando por la nueva era de los medios sintéticos

Líderes del pensamiento

Deepfakes y navegando por la nueva era de los medios sintéticos

mm

¿Recuerdan las "noticias falsas"? El término se ha usado (y abusado) tanto que puede ser difícil recordar a qué se refería inicialmente. Pero el concepto tiene un origen muy específico. Hace diez años, los periodistas comenzaron a alertar sobre la avalancha de supuestos sitios web de "noticias" que publicaban afirmaciones falsas, a menudo descabelladas, sobre políticos y famosos. Muchos se dieron cuenta al instante de que estos sitios eran ilegítimos.

Pero muchos más carecían de las herramientas críticas para reconocerlo. El resultado fueron los primeros indicios de una crisis epistemológica que ahora está afectando a Internet y que ha alcanzado su manifestación más aterradora con el surgimiento de Internet. deepfakes.

Incluso al lado de un deepfake aceptable, los sitios web de “noticias falsas” de antaño parecen mansos. Peor aún, incluso aquellos que creen que poseen niveles relativamente altos de alfabetización mediática corren el riesgo de ser engañados. Medios sintéticos creado con el uso de algoritmos de aprendizaje profundo y el IA generativa tienen el potencial de causar estragos en los cimientos de nuestra sociedad. Según Deloitte, sólo este año podrían costar a las empresas más de 250 millones de dólares a través de transacciones falsas y otras variedades de fraude. Mientras tanto, el Foro Económico Mundial ha calificado a los deepfakes como “uno de los usos más preocupantes de la IA”, señalando el potencial de los “chatbots y avatares de IA en tiempo real y basados ​​en una agenda” para facilitar nuevas variedades de aplicaciones ultrapersonalizadas (y ultrapersonalizadas). efectiva) manipulación.

La respuesta que sugiere el FEM a este problema es sensata: abogan por una “mentalidad de confianza cero”, uno que aporta cierto grado de escepticismo a cada encuentro con los medios digitales. Si queremos distinguir entre lo auténtico y lo sintético en el futuro, especialmente en entornos inmersivos en línea, esa mentalidad será cada vez más esencial.

Dos enfoques para combatir la crisis de los deepfake

Luchando desenfrenadamente desinformación criado por medios sintéticos requerirá, en mi opinión, dos enfoques distintos.

El primero implica la verificación: proporcionar una forma sencilla para que los usuarios de internet determinen si el video que ven es auténtico. Estas herramientas ya están muy extendidas en sectores como el de los seguros, dada la posibilidad de que actores maliciosos presenten reclamaciones falsas con la ayuda de videos, fotografías y documentos manipulados. Democratizar estas herramientas —hacerlas gratuitas y de fácil acceso— es un primer paso crucial en esta lucha, y ya estamos viendo avances significativos en este ámbito.

El segundo paso es menos tecnológico y, por lo tanto, un mayor desafío: se trata de crear conciencia y fomentar el pensamiento crítico. Tras el escándalo original de las "noticias falsas", en 2015, organizaciones sin fines de lucro de todo el país diseñaron programas de alfabetización mediática y trabajaron para difundir las mejores prácticas, a menudo en colaboración con instituciones cívicas locales para empoderar a la ciudadanía y detectar falsedades. Por supuesto, las "noticias falsas" tradicionales son pan comido comparadas con los deepfakes más avanzados, por lo que debemos redoblar nuestros esfuerzos en este ámbito e invertir en educación a todos los niveles.

Los deepfakes avanzados requieren un pensamiento crítico avanzado

Por supuesto, estas iniciativas educativas eran algo más fáciles de llevar a cabo cuando la desinformación en cuestión estaba basada en textos. En el caso de los sitios de noticias falsas, los signos reveladores de fraude a menudo eran obvios: diseño web de mala calidad, errores tipográficos desenfrenados, fuentes extrañas. En el caso de los deepfakes, las señales son mucho más sutiles y, a menudo, imposibles de notar a primera vista.

En consecuencia, los usuarios de Internet de todas las edades deben volver a capacitarse de manera efectiva para examinar videos digitales en busca de indicadores de deepfake. Eso significa prestar mucha atención a una serie de factores. En el caso del vídeo, eso podría significar áreas borrosas y sombras que parecen irreales; movimientos y expresiones faciales de apariencia antinatural; tonos de piel demasiado perfectos; patrones inconsistentes en la ropa y en los movimientos; errores de sincronización de labios; incesantemente. En el caso del audio, eso podría significar voces que suenan demasiado prístinas (u obviamente digitalizadas), falta de un tono emocional humano, patrones de habla extraños o frases inusuales.

A corto plazo, este tipo de autoformación puede resultar muy útil. Al preguntarnos una y otra vez: ¿Esto parece sospechoso?, agudizamos no solo nuestra capacidad para detectar deepfakes sino también nuestras habilidades de pensamiento crítico en general. Dicho esto, nos acercamos rápidamente a un punto en el que ni siquiera el ojo mejor entrenado podrá separar la realidad de la ficción sin ayuda externa. Los indicios visuales (las irregularidades mencionadas anteriormente) se suavizarán tecnológicamente, de modo que los clips totalmente fabricados serán indistinguibles del artículo genuino. Lo que nos quedará es nuestra intuición situacional: nuestra capacidad de hacernos preguntas como ¿Diría realmente eso tal o cual político o celebridad? ¿Es plausible el contenido de este vídeo?

Es en este contexto que las plataformas de detección de IA se vuelven tan esenciales. Dado que el ojo desnudo se vuelve irrelevante para los propósitos de detección de deepfakes, estas plataformas pueden servir como árbitros definitivos de la realidad: barreras contra el abismo epistemológico. Cuando un vídeo parece real pero de alguna manera parece sospechoso (como ocurrirá cada vez con más frecuencia en los próximos meses y años), estas plataformas pueden mantenernos centrados en los hechos al confirmar la veracidad básica de lo que estamos viendo. En última instancia, con una tecnología tan poderosa, lo único que puede salvarnos es la propia IA. Necesitamos combatir el fuego con fuego, lo que significa utilizar una buena IA para erradicar los peores abusos de la tecnología.

En realidad, adquirir estas habilidades no tiene por qué ser un proceso cínico ni negativo. Fomentar una mentalidad de confianza cero puede considerarse, en cambio, una oportunidad para agudizar el pensamiento crítico, la intuición y la conciencia. Al plantearte repetidamente ciertas preguntas clave (¿Tiene sentido esto? ¿Es sospechoso?), aumentas tu capacidad para confrontar no solo los medios falsos, sino el mundo en general. Si hay un lado positivo en la era de las deepfakes, es este. Nos vemos obligados a pensar por nosotros mismos y a ser más empíricos en nuestra vida diaria, y eso solo puede ser positivo.

Nicos Vekiarides es el director ejecutivo y cofundador de Atestigua. Ha pasado los últimos 20 años en TI empresarial y en la nube, como director ejecutivo y emprendedor, llevando nuevas tecnologías innovadoras al mercado. Su startup anterior, TwinStrata, una innovadora empresa de almacenamiento en la nube donde fue pionero en el almacenamiento integrado en la nube para la empresa, fue adquirida por EMC en 2014. Antes de eso, lanzó al mercado el primer dispositivo de virtualización de almacenamiento de la industria para StorageApps, una empresa adquirida posteriormente por CV.