talón Las herramientas del navegador AI tienen como objetivo reconocer Deepfakes y otros medios falsos - Unite.AI
Contáctanos

Inteligencia artificial

Las herramientas del navegador AI tienen como objetivo reconocer Deepfakes y otros medios falsos

mm
Actualizado on

Los esfuerzos de las empresas de tecnología para abordar la desinformación y el contenido falso se están acelerando en los últimos tiempos a medida que las tecnologías sofisticadas de generación de contenido falso como DeepFakes se vuelven más fáciles de usar y más refinadas. Un próximo intento de ayudar a las personas a detectar y combatir los deepfakes es RealityDefender, producido por la fundación IA, que se ha comprometido a desarrollar agentes y asistentes de IA éticos que los usuarios puedan entrenar para completar diversas tareas.

El proyecto más notable de AI Foundation es una plataforma que permite a las personas crear sus propios personajes digitales que se parecen a ellos y los representan en espacios virtuales de reunión. La Fundación AI es supervisada por el Consejo Global de AI y, como parte de su mandato, debe anticipar los posibles impactos negativos de las plataformas de AI y luego tratar de adelantarse a estos problemas. Según lo informado por VentureBeat, Una de las herramientas que AI Foundation ha creado para ayudar en la detección de deepfakes se denomina Reality Defender. Reality Defender es una herramienta que una persona puede usar en su navegador web (verifique eso), que analizará videos, imágenes y otros tipos de medios para detectar signos de que los medios han sido falsificados o alterados de alguna manera. Se espera que la herramienta ayude a contrarrestar el creciente flujo de deepfakes en Internet, que según algunas estimaciones se ha duplicado aproximadamente en el transcurso de los últimos seis meses.

Reality Defender opera utilizando una variedad de algoritmos basados ​​en IA que pueden detectar pistas que sugieran que una imagen o video podría haber sido falsificado. Los modelos de IA detectan signos sutiles de engaño y manipulación, y los usuarios de la herramienta etiquetan los falsos positivos que detecta el modelo como incorrectos. A continuación, los datos se utilizan para volver a entrenar el modelo. Las empresas de IA que crean falsificaciones profundas no engañosas tienen su contenido etiquetado con una etiqueta o marca de agua de "IA honesta" que permite a las personas identificar fácilmente las falsificaciones generadas por IA.

Reality Defender es solo una de un conjunto de herramientas y una plataforma completa de responsabilidad de IA que AI Foundation está intentando crear. AI Foundation persigue la creación de Guardian AI, una plataforma de responsabilidad basada en el precepto de que las personas deben tener acceso a agentes personales de IA que trabajen para ellos y que puedan ayudarlos a protegerse contra su explotación por parte de malos actores. Esencialmente, AI Foundation tiene como objetivo expandir el alcance de la IA en la sociedad, llevándola a más personas, y al mismo tiempo protegerse contra los riesgos de la IA.

Reality Defender no es el único producto nuevo impulsado por IA que tiene como objetivo reducir la información errónea sobre los Estados Unidos. Un producto similar se llama SurfSafe, que fue creado por dos estudiantes universitarios de UC Berkeley, Rohan Phadte y Ash Bhat. De acuerdo con The Verge, SurfSafe funciona al permitir que sus usuarios hagan clic en un medio que les interese y el programa realizará una búsqueda inversa de imágenes e intentará encontrar contenido similar de varias fuentes confiables en Internet, marcando las imágenes que se sabe que son manipulado

No está claro cuán efectivas serán estas soluciones a largo plazo. Profesor de Dartmouth College y experto forense Hany Farid fue citado por The Verge diciendo que es "extremadamente escéptico" de que los sistemas de planes como Reality Defender funcionen de manera significativa. Farid explicó que uno de los desafíos clave para detectar contenido falso es que los medios no son puramente falsos o reales. Farid explicó:

“Hay un continuo; una gama increíblemente compleja de problemas a tratar. Algunos cambios no tienen sentido y otros alteran fundamentalmente la naturaleza de una imagen. Pretender que podemos entrenar una IA para detectar la diferencia es increíblemente ingenuo. Y pretender que podemos hacer crowdsourcing lo es aún más”.

Además, es difícil incluir elementos de crowdsourcing, como el etiquetado de falsos positivos, porque los humanos suelen ser bastante malos para identificar imágenes falsas. Los humanos a menudo cometen errores y pasan por alto detalles sutiles que marcan una imagen como falsa. Tampoco está claro cómo lidiar con los actores de mala fe que trollean cuando marcan el contenido.

Parece probable que, para que sean lo más efectivas posible, las herramientas de detección de falsificaciones deberán combinarse con esfuerzos de alfabetización digital que enseñen a las personas a razonar sobre el contenido con el que interactúan en línea.