Connect with us

Alex Fink, Tech Executive, Founder & CEO of the Otherweb – Interview Series

Rozhovory

Alex Fink, Tech Executive, Founder & CEO of the Otherweb – Interview Series

mm

Alex Fink je Tech Executive a Founder a CEO společnosti Otherweb, veřejně prospěšná společnost, která využívá AI k pomoci lidem číst zprávy a komentáře, poslouchat podcasty a procházet web bez placených stěn, clickbaitu, reklam, automaticky přehrávaných videí, afiliálních odkazů nebo jakéhokoli jiného “junk” obsahu. Otherweb je k dispozici jako aplikace (iOS a Android), webová stránka, newsletter nebo samostatný prohlížečový doplněk. Před Otherwebem byl Alex Founderem a CEO společnosti Panopteo a Co-founderem a Předsedou společnosti Swarmer.

Můžete poskytnout přehled Otherwebu a jeho mise vytvořit prostor pro zprávy bez odpadků?

Otherweb je veřejně prospěšná společnost, vytvořená za účelem zlepšení kvality informací, které lidé konzumují.

Naším hlavním produktem je zpravodajská aplikace, která využívá AI k filtrování odpadků a umožňuje uživatelům neomezené přizpůsobení – řízení každé kvalitativní prahové hodnoty a každé řadicí mechanismus, který aplikace používá.

Jinými slovy, zatímco zbytek světa vytváří černé skříňky algoritmů pro maximalizaci uživatelské interakce, chceme uživatelům poskytnout co největší hodnotu v co nejkratším čase a děláme vše přizpůsobitelné. Dokonce jsme učinili naše AI modely a datové sady zdrojově dostupné, aby lidé mohli vidět přesně, co děláme a jak hodnotíme obsah.

Co vás inspirovalo soustředit se na boj proti dezinformacím a falešným zprávám pomocí AI?

Narodil jsem se v Sovětském svazu a viděl, co se stane se společností, když všichni konzumují propagandu a nikdo nemá žádné informace o tom, co se děje ve světě. Mám živé vzpomínky na to, jak moji rodiče vstávali v 4 hodiny ráno, zavírali se do skříně a zapínali rádio, aby poslouchali Hlas Ameriky. Bylo to samozřejmě nelegální, a proto to dělali v noci a zajistili, aby to nemohli slyšet sousedé – ale dalo nám to přístup k skutečným informacím. Jako výsledek, opustili jsme 3 měsíce předtím, než se všechno zhroutilo a válka vypukla v mém rodném městě.

Skutečně si pamatuji, jak jsem viděl fotografie tanků na ulici, kde jsem vyrostl, a myslel jsem si “tak tohle je, co skutečné informace stojí”.

Chci, aby více lidí mělo přístup k skutečným, vysoce kvalitním informacím.

Jak závažné je ohrožení hlubokými podvody, zejména v kontextu ovlivňování voleb? Můžete sdílet konkrétní příklady toho, jak byly hluboké podvody použity k šíření dezinformací a jaký dopad měly?

V krátkodobém horizontu je to velmi závažné ohrožení.

Voliči si neuvědomují, že video a audio nahrávky již nelze důvěřovat. Domnívají se, že video je důkazem toho, že něco se stalo, a před 2 lety to bylo stále pravda, ale nyní je zřejmé, že to již není případ.

Letos v Pákistánu voliči Imrana Chána dostali hovory od Imrana Chána samotného, osobně, žádající je, aby bojkotovali volby. Bylo to samozřejmě falešné, ale mnoho lidí tomu věřilo.

Voliči v Itálii viděli jednu ze svých ženských politik ve falešném pornografickém videu. Bylo to samozřejmě falešné, ale do té doby, než se podvod odhalil – škoda byla již způsobena.

I zde v Arizoně jsme viděli newsletter, který se sám propaguje tím, že ukazuje video s podporou Kari Lake. Ona nikdy nepodporovala, ale newsletter si přesto získal tisíce předplatitelů.

Takže si myslím, že je téměř nevyhnutelné, že uvidíme alespoň jeden falešný bombastický příběh. A je velmi pravděpodobné, že to bude zveřejněno těsně před volbami a ukáže se jako falešné až po volbách – když už bude škoda způsobena.

Jak efektivní jsou současné AI nástroje v identifikaci hlubokých podvodů a jaké zlepšení předpovídáte v budoucnosti?

V minulosti byl nejlepší způsob, jak identifikovat falešné obrázky, přiblížení a hledání charakteristických chyb (tzv. “artefaktů”), které tvůrci obrázků obvykle dělali. Nesprávné osvětlení, chybějící stíny, nerovné hrany na určitých objektech, pře-komprese kolem objektů atd.

Problém s GAN-založenou editací (tzv. “hlubokými podvody”) je, že none z těchto běžných artefaktů nejsou přítomny. Způsob, jakým tento proces funguje, je, že jeden AI model edituje obrázek, a jiný AI model hledá artefakty a označuje je – a cyklus se opakuje znovu a znovu, dokud nejsou žádné artefakty zbývající.

V důsledku toho není obecně žádný způsob, jak identifikovat dobře vyrobený hluboký podvodový video podle obsahu samotného.

Musíme změnit svůj přístup a začít předpokládat, že obsah je reálný pouze tehdy, pokud můžeme sledovat jeho řetězec kvestorů zpět k zdroji. Myslete na to jako na otisky prstů. Vidět otisky prstů na vražedné zbrani nestačí. Musíte vědět, kdo našel vražednou zbraň, kdo ji přinesl zpět do skladu, atd. – musíte být schopni sledovat každý jednotlivý okamžik, kdy se změnilo ruce a zajistit, aby nebyla zmanipulována.

Jaká opatření mohou vlády a technologické společnosti podniknout, aby zabránily šíření dezinformací během kritických období, jako jsou volby?

Nejlepším protijedem proti dezinformacím je čas. Pokud uvidíte něco, co změní situaci, neštěte se publikovat – vezměte si den nebo dva, abyste ověřili, zda je to skutečně pravda.

Bohužel, tento přístup koliduje s obchodním modelem médií, který odměňuje kliknutí, i když materiál se ukáže jako falešný.

Jak Otherweb využívá AI k zajištění autenticity a přesnosti zpráv, které agreguje?

Zjistili jsme, že existuje silná korelace mezi správností a formou. Lidé, kteří chtějí říci pravdu, tendenci používat určitý jazyk, který zdůrazňuje zdrženlivost a skromnost, zatímco lidé, kteří se nezajímají o pravdu, se snaží získat co nejvíce pozornosti.

Hlavní zaměření Otherwebu není faktické ověřování. Je to formální ověřování. Vybíráme články, které se vyhýbají pozornost-poutajícímu jazyku, poskytují externí odkazy pro každé tvrzení, uvádějí věci tak, jak jsou, a nepoužívají přesvědčovací techniky.

Tato metoda není samozřejmě dokonalá a teoreticky by špatný aktér mohl napsat nepravdu v přesně tom stylu, který naše modely odměňují. Ale v praxi se to prostě nestává. Lidé, kteří chtějí lhát, také chtějí získat hodně pozornosti – tohle je věc, kterou jsme naučili naše modely detekovat a filtrovat.

Jak mohou platformy, jako je Otherweb, pomoci obnovit důvěru uživatelů v digitální obsah, zejména s rostoucí obtížností rozlišovat skutečné od falešných obrázků?

Nejlepším způsobem, jak pomoci lidem konzumovat lepší obsah, je vzorkovat ze všech stran, vybrat nejlepší z každého a uplatňovat mnoho zdrženlivosti. Většina médií spěchá publikovat neověřené informace v těchto dnech. Naše schopnost křížově odkazovat informace z stovek zdrojů a soustředit se na nejlepší položky umožňuje nám chránit naše uživatele před většinou forem dezinformací.

Jakou roli hraje metadata, jako je C2PA standardy, při ověřování autenticity obrázků a videí?

Je to jediné životaschopné řešení. C2PA může nebo nemusí být správným standardem, ale je zřejmé, že jediný způsob, jak ověřit, zda video, které sledujete, odráží něco, co se skutečně stalo v realitě, je a) zajistit, aby kamera, která zachytila video, pouze zachytila a needitovala, a b) zajistit, aby nikdo video needitoval po opuštění kamery. Nejlepší způsob, jak to udělat, je zaměřit se na metadata.

Jaké budoucí vývojové trendy předpovídáte v boji proti dezinformacím a hlubokým podvodům?

Myslím, že do 2-3 let lidé přizpůsobí se nové realitě a změní svůj přístup. Před 19. stoletím byla nejlepší forma důkazu svědectví očitých svědků. Hluboké podvody pravděpodobně způsobí, že se vrátíme k těmto osvědčeným standardům.

S dezinformacemi obecněji se domnívám, že je nutné mít více nuancovaný pohled a oddělit dezinformace (tj. falešné informace, které jsou úmyslně vytvořeny, aby oklamaly) od odpadků (tj. informací, které jsou vytvořeny, aby byly zpeněženy, bez ohledu na jejich pravdivost).

Protijedem proti odpadkům je filtr, který činí odpadky méně pravděpodobné, aby se rozšířily. Změnil by to strukturu incentiv, která činí odpadky šíří se jako divoký oheň. Dezinformace budou stále existovat, stejně jako vždy existovaly. Bylo možné s nimi vyrovnat se během 20. století a budeme schopni s nimi vyrovnat se i v 21. století.

Je to záplava odpadků, o které se musíme obávat, protože to je část, se kterou jsme現在 špatně vybaveni. To je hlavní problém, který lidstvo potřebuje řešit.

Jakmile změníme incentivy, poměr signálu k šumu na internetu se zlepší pro každého.

Děkuji za skvělý rozhovor, čtenáři, kteří chtějí se dozvědět více, by měli navštívit webovou stránku Otherweb, nebo je sledovat na X nebo LinkedIn.

Antoine je vizionářský líder a zakládající partner Unite.AI, poháněný neotřesitelnou vášní pro formování a propagaci budoucnosti AI a robotiky. Jako sériový podnikatel věří, že AI bude mít na společnost stejně disruptivní vliv jako elektřina, a často je chycen při tom, jak hovoří o potenciálu disruptivních technologií a AGI. Jako futurist, je zasvěcen prozkoumání toho, jak tyto inovace budou formovat náš svět. Kromě toho je zakladatelem Securities.io, platformy zaměřené na investice do špičkových technologií, které předefinovávají budoucnost a mění celé sektory.