Entretiens
Alex Fink, Directeur général de la technologie, Fondateur et PDG de l’Otherweb – Série d’entretiens

Alex Fink est un directeur général de la technologie et le fondateur et PDG de l’Otherweb, une société à but non lucratif qui utilise l’IA pour aider les gens à lire des actualités et des commentaires, à écouter des podcasts et à rechercher sur le web sans paywalls, clickbait, publicités, vidéos qui se lancent automatiquement, liens d’affiliation ou tout autre contenu « de mauvaise qualité ». Otherweb est disponible sous forme d’application (iOS et Android), de site web, de newsletter ou d’extension de navigateur autonome. Avant Otherweb, Alex était fondateur et PDG de Panopteo et co-fondateur et président de Swarmer.
Pouvez-vous fournir un aperçu de l’Otherweb et de sa mission pour créer un espace d’actualités sans contenu de mauvaise qualité ?
Otherweb est une société à but non lucratif, créée pour aider à améliorer la qualité de l’information que les gens consomment.
Notre produit principal est une application d’actualités qui utilise l’IA pour filtrer le contenu de mauvaise qualité et permettre aux utilisateurs une personnalisation illimitée – en contrôlant chaque seuil de qualité et chaque mécanisme de tri que l’application utilise.
En d’autres termes, tandis que le reste du monde crée des algorithmes de boîte noire pour maximiser l’engagement des utilisateurs, nous voulons donner aux utilisateurs autant de valeur que possible en un minimum de temps, et nous rendons tout personnalisable. Nous avons même rendu nos modèles et jeux de données d’IA accessibles à la source afin que les gens puissent voir exactement ce que nous faisons et comment nous évaluons le contenu.
Qu’est-ce qui vous a inspiré à vous concentrer sur la lutte contre la désinformation et les fausses nouvelles à l’aide de l’IA ?
Je suis né en Union soviétique et j’ai vu ce qui arrive à une société lorsque tout le monde consomme de la propagande, et que personne n’a aucune idée de ce qui se passe dans le monde. J’ai des souvenirs vivaces de mes parents qui se levaient à 4 heures du matin, se verrouillaient dans le placard et allumaient la radio pour écouter la Voix de l’Amérique. C’était illégal, bien sûr, c’est pourquoi ils le faisaient la nuit et s’assuraient que les voisins ne pouvaient pas les entendre – mais cela nous a donné accès à des informations réelles. En conséquence, nous sommes partis 3 mois avant que tout ne s’effondre et que la guerre n’éclate dans ma ville natale.
Je me souviens même d’avoir vu des photos de chars dans la rue où j’ai grandi et de penser « voilà ce que vaut l’information réelle ».
Je veux que plus de gens aient accès à des informations réelles et de haute qualité.
Quelle est l’importance de la menace des deepfakes, en particulier dans le contexte de l’influence des élections ? Pouvez-vous partager des exemples spécifiques de la façon dont les deepfakes ont été utilisés pour répandre la désinformation et de l’impact qu’ils ont eu ?
À court terme, c’est une menace très grave.
Les électeurs ne réalisent pas que les enregistrements vidéo et audio ne peuvent plus être considérés comme fiables. Ils pensent que la vidéo est une preuve que quelque chose s’est produit, et il y a 2 ans, c’était encore vrai, mais maintenant, ce n’est plus le cas.
Cette année, au Pakistan, les électeurs d’Imran Khan ont reçu des appels d’Imran Khan lui-même, personnellement, leur demandant de boycotter l’élection. C’était faux, bien sûr, mais beaucoup de gens y ont cru.
Les électeurs en Italie ont vu l’une de leurs politiciennes apparaître dans une vidéo pornographique. C’était faux, bien sûr, mais avant que la supercherie ne soit découverte – les dégâts étaient déjà faits.
Même ici, en Arizona, nous avons vu une newsletter se faire de la publicité en montrant une vidéo de soutien avec Kari Lake. Elle n’a jamais soutenu, bien sûr, mais la newsletter a tout de même obtenu des milliers d’abonnés.
Donc, en novembre, je pense qu’il est presque inévitable que nous verrons au moins une fausse bombe. Et il est très probable qu’elle tombe juste avant l’élection et se révèle être fausse juste après l’élection – lorsque les dégâts seront déjà faits.
Quelle est l’efficacité des outils d’IA actuels pour identifier les deepfakes, et quels améliorations prévoyez-vous pour l’avenir ?
Dans le passé, la meilleure façon d’identifier les images fausses était de zoomer et de regarder les erreurs caractéristiques (aka « artefacts ») que les créateurs d’images tendaient à faire. Éclairage incorrect, ombres manquantes, bords inégaux sur certains objets, surcompression autour des objets, etc.
Le problème avec l’édition basée sur les GAN (aka « deepfake ») est que none de ces artefacts courants sont présents. Le processus fonctionne de telle sorte qu’un modèle d’IA édite l’image, et qu’un autre modèle d’IA recherche les artefacts et les signale – et le cycle est répété plusieurs fois jusqu’à ce qu’il ne reste plus d’artefacts.
En conséquence, il n’y a généralement pas de moyen d’identifier un deepfake vidéo bien fait en regardant le contenu lui-même.
Nous devons changer notre mentalité, et commencer à supposer que le contenu n’est réel que si nous pouvons retracer sa chaîne de custody jusqu’à la source. Pensez-y comme des empreintes digitales. Voir des empreintes digitales sur l’arme du crime n’est pas suffisant. Vous devez savoir qui a trouvé l’arme, qui l’a ramenée à la salle de stockage, etc – vous devez être en mesure de retracer chaque fois qu’elle a changé de mains et de vous assurer qu’elle n’a pas été manipulée.
Quelles mesures les gouvernements et les entreprises technologiques peuvent-elles prendre pour prévenir la propagation de la désinformation pendant les périodes critiques telles que les élections ?
Le meilleur antidote à la désinformation est le temps. Si vous voyez quelque chose qui change les choses, ne vous précipitez pas pour publier – prenez un jour ou deux pour vérifier que c’est vraiment vrai.
Malheureusement, cette approche entre en collision avec le modèle économique des médias, qui récompense les clics même si le matériel s’avère être faux.
Comment l’Otherweb utilise-t-il l’IA pour assurer l’authenticité et l’exactitude des actualités qu’il agrège ?
Nous avons constaté qu’il existe une forte corrélation entre la correction et la forme. Les gens qui veulent dire la vérité tendent à utiliser un certain langage qui met l’accent sur la retenue et l’humilité, tandis que les gens qui méprisent la vérité essaient d’attirer autant d’attention que possible.
La plus grande concentration de l’Otherweb n’est pas la vérification des faits. C’est la vérification de la forme. Nous sélectionnons des articles qui évitent le langage accrocheur, fournissent des références externes pour chaque affirmation, déclarent les choses telles qu’elles sont, et n’utilisent pas de techniques de persuasion.
Cette méthode n’est pas parfaite, bien sûr, et en théorie, un acteur malveillant pourrait écrire une fausseté dans le style exact que nos modèles récompensent. Mais dans la pratique, cela ne se produit pas. Les gens qui veulent mentir veulent également beaucoup d’attention – c’est la chose que nous avons enseignée à nos modèles pour la détecter et la filtrer.
Avec la difficulté croissante de faire la distinction entre les images réelles et les fausses, comment des plateformes comme l’Otherweb peuvent-elles aider à restaurer la confiance des utilisateurs dans le contenu numérique ?
La meilleure façon d’aider les gens à consommer un meilleur contenu est de prendre des échantillons de tous les côtés, de choisir le meilleur de chaque, et d’exercer beaucoup de retenue. La plupart des médias se précipitent pour publier des informations non vérifiées ces jours-ci. Notre capacité à croiser des informations de centaines de sources et à nous concentrer sur les meilleurs éléments nous permet de protéger nos utilisateurs de la plupart des formes de désinformation.
Quel rôle les métadonnées, comme les normes C2PA, jouent-elles pour vérifier l’authenticité des images et des vidéos ?
C’est la seule solution viable. Les normes C2PA peuvent ou non être les bonnes, mais il est clair que la seule façon de valider si la vidéo que vous regardez reflète quelque chose qui s’est réellement produit dans la réalité est de a) s’assurer que l’appareil photo utilisé pour capturer la vidéo ne capturait que, et non édité, et b) s’assurer que personne n’a édité la vidéo après qu’elle ait quitté l’appareil photo. La meilleure façon de le faire est de se concentrer sur les métadonnées.
Quels développements futurs prévoyez-vous dans la lutte contre la désinformation et les deepfakes ?
Je pense que, dans 2-3 ans, les gens s’adapteront à la nouvelle réalité et changeront leur mentalité. Avant le 19e siècle, la meilleure preuve était le témoignage d’un témoin oculaire. Les deepfakes sont susceptibles de nous faire revenir à ces normes éprouvées.
En ce qui concerne la désinformation plus largement, je crois qu’il est nécessaire de prendre une vue plus nuancée et de séparer la désinformation (c’est-à-dire les fausses informations créées intentionnellement pour tromper) des déchets (c’est-à-dire les informations créées pour être monétisées, indépendamment de leur véracité).
L’antidote aux déchets est un mécanisme de filtrage qui rend les déchets moins susceptibles de se propager. Cela changerait la structure d’incitation qui fait que les déchets se propagent comme un feu de forêt. La désinformation existera toujours, tout comme elle a toujours existé. Nous avons été capables de nous en accommoder tout au long du 20e siècle, et nous serons capables de nous en accommoder au 21e.
C’est l’inondation de déchets dont nous devons nous inquiéter, car c’est la partie que nous sommes mal équipés pour gérer en ce moment. C’est le principal problème que l’humanité doit résoudre.
Une fois que nous changerons les incitations, le rapport signal/bruit de l’internet s’améliorera pour tout le monde.
Merci pour cette grande interview, les lecteurs qui souhaitent en savoir plus peuvent visiter le site web Otherweb, ou les suivre sur X ou LinkedIn.












