Connect with us

Alex Fink, Ejecutivo de Tecnología, Fundador y CEO de Otherweb – Serie de Entrevistas

Entrevistas

Alex Fink, Ejecutivo de Tecnología, Fundador y CEO de Otherweb – Serie de Entrevistas

mm

Alex Fink es un Ejecutivo de Tecnología y el Fundador y CEO de Otherweb, una Corporación de Beneficio Público que utiliza la IA para ayudar a las personas a leer noticias y comentarios, escuchar podcasts y buscar en la web sin paywalls, clickbait, anuncios, videos que se reproducen automáticamente, enlaces de afiliados o cualquier otro contenido “basura”. Otherweb está disponible como una aplicación (iOS y Android), un sitio web, un boletín o una extensión de navegador independiente. Antes de Otherweb, Alex fue Fundador y CEO de Panopteo y Co-fundador y Presidente de Swarmer.

¿Puede proporcionar una visión general de Otherweb y su misión de crear un espacio de noticias libre de basura?

Otherweb es una corporación de beneficio público, creada para ayudar a mejorar la calidad de la información que consumen las personas.

Nuestro producto principal es una aplicación de noticias que utiliza la IA para filtrar la basura y permitir a los usuarios personalizaciones ilimitadas, controlando todos los umbrales de calidad y todos los mecanismos de ordenación que utiliza la aplicación.

En otras palabras, mientras que el resto del mundo crea algoritmos de caja negra para maximizar la participación del usuario, queremos dar a los usuarios tanto valor en tan poco tiempo como sea posible, y hacemos que todo sea personalizable. Incluso hicimos que nuestros modelos y conjuntos de datos de IA sean de código abierto para que las personas puedan ver exactamente lo que estamos haciendo y cómo evaluamos el contenido.

¿Qué lo inspiró a centrarse en combatir la desinformación y las noticias falsas utilizando la IA?

Nací en la Unión Soviética y vi lo que sucede a una sociedad cuando todos consumen propaganda, y nadie tiene idea de lo que está sucediendo en el mundo. Tengo recuerdos vívidos de mis padres despertándose a las 4 am, encerrándose en el armario y encendiendo la radio para escuchar la Voz de América. Era ilegal, por supuesto, por lo que lo hacían por la noche y se aseguraban de que los vecinos no pudieran escuchar, pero nos dio acceso a información real. Como resultado, nos fuimos 3 meses antes de que todo se derrumbara y estallara la guerra en mi ciudad natal.

De hecho, recuerdo ver fotos de tanques en la calle en la que crecí y pensar “así es lo que vale la información real”.

Quiero que más personas tengan acceso a información real y de alta calidad.

¿Cuán significativa es la amenaza de los deepfakes, particularmente en el contexto de influir en las elecciones? ¿Puede compartir ejemplos específicos de cómo se han utilizado los deepfakes para difundir desinformación y el impacto que tuvieron?

A corto plazo, es una amenaza muy seria.

Los votantes no se dan cuenta de que las grabaciones de video y audio ya no son de confianza. Piensan que el video es evidencia de que algo sucedió, y hace 2 años esto todavía era cierto, pero ahora obviamente ya no es el caso.

Este año, en Pakistán, los votantes de Imran Khan recibieron llamadas de Imran Khan en persona, pidiéndoles que boicotearan las elecciones. Era falso, por supuesto, pero mucha gente lo creyó.

Los votantes en Italia vieron a una de sus políticas femeninas aparecer en un video pornográfico. Era falso, por supuesto, pero para cuando se descubrió la falsedad, el daño ya estaba hecho.

Incluso aquí en Arizona, vimos un boletín que se anunciaba a sí mismo mostrando un video de endorsación protagonizado por Kari Lake. Ella nunca lo respaldó, por supuesto, pero el boletín aún obtuvo miles de suscriptores.

Así que en noviembre, creo que es casi inevitable que veamos al menos un escándalo falso. Y es muy probable que caiga justo antes de las elecciones y resulte ser falso justo después de las elecciones, cuando el daño ya esté hecho.

¿Cuán efectivas son las herramientas de IA actuales para identificar deepfakes, y qué mejoras prevé en el futuro?

En el pasado, la mejor manera de identificar imágenes falsas era acercarse y buscar los errores característicos (también conocidos como “artefactos”) que los creadores de imágenes tendían a cometer. Iluminación incorrecta, sombras ausentes, bordes irregulares en ciertos objetos, compresión excesiva alrededor de los objetos, etc.

El problema con la edición basada en GAN (también conocida como “deepfake”) es que ninguno de estos artefactos comunes está presente. La forma en que funciona el proceso es que un modelo de IA edita la imagen, y otro modelo de IA busca artefactos y los señala, y el ciclo se repite una y otra vez hasta que no queden artefactos.

Como resultado, generalmente no hay forma de identificar un deepfake de video bien hecho solo mirando el contenido en sí.

Tenemos que cambiar nuestra mentalidad y comenzar a asumir que el contenido solo es real si podemos rastrear su cadena de custodia hasta la fuente. Piense en ello como en huellas dactilares. Ver huellas dactilares en el arma del crimen no es suficiente. Necesitas saber quién encontró el arma del crimen, quién la trajo de vuelta al almacén, etc., necesitas poder rastrear cada vez que cambió de manos y asegurarte de que no se manipuló.

¿Qué medidas pueden tomar los gobiernos y las empresas de tecnología para prevenir la difusión de desinformación durante tiempos críticos como las elecciones?

El mejor antídoto contra la desinformación es el tiempo. Si ves algo que cambia las cosas, no te apresures a publicar, tómate un día o dos para verificar que sea realmente cierto.

Desafortunadamente, este enfoque choca con el modelo de negocio de los medios, que recompensa los clics incluso si el material resulta ser falso.

¿Cómo utiliza Otherweb la IA para garantizar la autenticidad y precisión de las noticias que agrega?

Hemos encontrado que existe una fuerte correlación entre la corrección y la forma. Las personas que quieren decir la verdad tienden a utilizar un lenguaje que enfatiza la restricción y la humildad, mientras que las personas que desprecian la verdad intentan llamar la atención.

El enfoque principal de Otherweb no es la verificación de hechos. Es la verificación de la forma. Seleccionamos artículos que evitan el lenguaje que busca llamar la atención, proporcionan referencias externas para cada afirmación, expresan las cosas como son y no utilizan técnicas de persuasión.

Este método no es perfecto, por supuesto, y en teoría un mal actor podría escribir una falsedad en el estilo exacto que nuestros modelos recompensan. Pero en la práctica, simplemente no sucede. Las personas que quieren mentir también quieren mucha atención, y esto es lo que hemos enseñado a nuestros modelos a detectar y filtrar.

Con la creciente dificultad para distinguir entre lo real y lo falso, ¿cómo pueden plataformas como Otherweb ayudar a restaurar la confianza del usuario en el contenido digital?

La mejor manera de ayudar a las personas a consumir mejor contenido es muestrear de todos los lados, elegir lo mejor de cada uno y ejercer mucha restricción. La mayoría de los medios están apresurándose a publicar información no verificada en estos días. Nuestra capacidad para cruzar información de cientos de fuentes y centrarnos en los mejores artículos nos permite proteger a nuestros usuarios de la mayoría de las formas de desinformación.

¿Cuál es el papel de los metadatos, como los estándares C2PA, en la verificación de la autenticidad de las imágenes y los videos?

Es la única solución viable. C2PA puede o no ser el estándar correcto, pero está claro que la única forma de validar si el video que estás viendo refleja algo que realmente sucedió en la realidad es a) asegurarse de que la cámara utilizada para capturar el video solo estuviera capturando y no editando, y b) asegurarse de que nadie editó el video después de que salió de la cámara. La mejor manera de hacerlo es centrarse en los metadatos.

¿Qué desarrollos futuros anticipa en la lucha contra la desinformación y los deepfakes?

Creo que, dentro de 2-3 años, las personas se adaptarán a la nueva realidad y cambiarán su mentalidad. Antes del siglo XIX, la mejor forma de prueba era el testimonio de testigos oculares. Los deepfakes probablemente nos harán regresar a estos estándares probados.

Con la desinformación en general, creo que es necesario adoptar una visión más matizada y separar la desinformación (es decir, información falsa que se crea intencionalmente para engañar) de la basura (es decir, información que se crea para ser monetizada, independientemente de su veracidad).

El antídoto contra la basura es un mecanismo de filtrado que hace que la basura sea menos probable que se propague. Cambiaría la estructura de incentivos que hace que la basura se propague como un incendio forestal. La desinformación seguirá existiendo, al igual que siempre ha existido. Hemos podido lidiar con ella a lo largo del siglo XX, y podremos lidiar con ella en el siglo XXI.

Es el diluvio de basura lo que debemos preocuparnos, porque esa es la parte con la que estamos mal equipados para lidiar en este momento. Ese es el principal problema que la humanidad necesita abordar.

Una vez que cambiemos los incentivos, la relación señaligen/ruido de Internet mejorará para todos.

Gracias por la gran entrevista, los lectores que deseen aprender más pueden visitar el sitio web de Otherweb, o seguirlos en X o LinkedIn.

Antoine es un líder visionario y socio fundador de Unite.AI, impulsado por una pasión inquebrantable por dar forma y promover el futuro de la IA y la robótica. Un empresario serial, cree que la IA será tan disruptiva para la sociedad como la electricidad, y a menudo se le escucha hablando con entusiasmo sobre el potencial de las tecnologías disruptivas y la AGI. Como un futurista, está dedicado a explorar cómo estas innovaciones darán forma a nuestro mundo. Además, es el fundador de Securities.io, una plataforma enfocada en invertir en tecnologías de vanguardia que están redefiniendo el futuro y remodelando sectores enteros.