Connect with us

Alex Fink, Tech Executive, Founder & CEO of the Otherweb – Interview Serie

Interviews

Alex Fink, Tech Executive, Founder & CEO of the Otherweb – Interview Serie

mm

Alex Fink er en Tech Executive og grundlægger og administrerende direktør for Otherweb, en Public Benefit Corporation, der bruger AI til at hjælpe mennesker med at læse nyheder og kommentarer, lytte til podcasts og søge på internettet uden betalingsmure, klikfælder, reklamer, automatisk afspillede videoer, affiliate-links eller anden “skrammel”-indhold. Otherweb er tilgængelig som en app (iOS og Android), et website, en nyhedsbrev eller en selvstændig browser-udvidelse. Før Otherweb var Alex grundlægger og administrerende direktør for Panopteo og medstifter og formand for Swarmer.

Kan du give en oversigt over Otherweb og dens mission om at skabe et junk-frit nyhedsrum?

Otherweb er en public benefit corporation, der er oprettet for at hjælpe med at forbedre kvaliteten af den information, som mennesker forbruger.

Vores primære produkt er en nyhedsapp, der bruger AI til at filtrere skrammel ud, og tillade brugerne ubegrænsede tilpasninger – kontrollere hver enkelt kvalitetsgrænse og hver enkelt sorteringsmekanisme, appen bruger.

Med andre ord, mens resten af verden skaber sortboks-algoritmer til at maksimere brugerengagement, vil vi give brugerne så meget værdi som muligt i så lidt tid som muligt, og vi gør alt tilgængeligt. Vi har endda gjort vores AI-modeller og datasæt source-tilgængelige, så mennesker kan se præcis, hvad vi gør, og hvordan vi vurderer indhold.

Hvad inspirerede dig til at fokusere på at bekæmpe misinformation og falske nyheder med AI?

Jeg blev født i Sovjetunionen og så, hvad der sker med et samfund, når alle forbruger propaganda, og ingen har nogen idé om, hvad der sker i verden. Jeg har levende minder om mine forældre, der vågnede klokken 4 om morgenen, låste sig inde på toilettet og tændte for radioen for at lytte til Voice of America. Det var selvfølgelig ulovligt, hvilket er hvorfor de gjorde det om natten og sikrede, at naboerne ikke kunne høre – men det gav os adgang til rigtig information. Som resultat heraf forlod vi 3 måneder før det hele brød sammen, og krigen brød ud i min hjemby.

Jeg husker faktisk at have set billeder af tanks på gaden, hvor jeg voksede op, og tænkte “sådan er det, hvad rigtig information er værd”.

Jeg vil have, at flere mennesker har adgang til rigtig, højkvalitetsinformation.

Hvor stor er truslen fra deepfakes, især i sammenhæng med påvirkning af valg? Kan du dele specifikke eksempler på, hvordan deepfakes er blevet brugt til at sprede misinformation og hvilken indvirkning de havde?

På kort sigt er det en meget alvorlig trussel.

Vælgere indser ikke, at video- og lydoptagelser ikke længere kan betrodes. De tror, at video er bevis for, at noget er sket, og for 2 år siden var dette stadig sandt, men nu er det åbenbart ikke længere tilfældet.

I år i Pakistan modtog Imran Khan-vælgere opkald fra Imran Khan selv, personligt, og bad dem boykotte valget. Det var falsk, selvfølgelig, men mange mennesker troede på det.

Vælgere i Italien så en af deres kvindelige politikere optræde i en pornografisk video. Det var falsk, selvfølgelig, men inden det blev afsløret – var skaden allerede sket.

Selv her i Arizona så vi en nyhedsbrev reklamere for sig selv ved at vise en endorsementsvideo med Kari Lake. Hun havde aldrig støttet det, selvfølgelig, men nyhedsbrevet fik alligevel tusindvis af abonnenter.

Så når november kommer, tror jeg, det er næsten uundgåeligt, at vi vil se mindst én falsk bombshell. Og det er meget sandsynligt, at det vil blive afsløret lige før valget og vise sig at være falsk lige efter valget – når skaden allerede er sket.

Hvor effektive er nuværende AI-værktøjer til at identificere deepfakes, og hvilke forbedringer kan du forudse i fremtiden?

I fortiden var den bedste måde at identificere falske billeder at zoome ind og se efter karakteristiske fejl (aka “artefakter”) billedskabere tendede til at lave. Forkert belysning, manglende skygger, ujævne kanter på visse objekter, over-komprimering omkring objekterne osv.

Problemet med GAN-baseret redigering (aka “deepfake”) er, at ingen af disse almindelige artefakter er til stede. Processen virker sådan, at én AI-model redigerer billedet, og en anden AI-model søger efter artefakter og peger dem ud – og cyklen gentages igen og igen, indtil der ikke er nogen artefakter tilbage.

Som resultat er der generelt ingen måde at identificere en velgjort deepfake-video ved at se på indholdet selv.

Vi må ændre vores mindset og begynde at antage, at indholdet kun er ægte, hvis vi kan spore dets kæde af ejerskab tilbage til kilden. Tænk på det som fingeraftryk. At se fingeraftryk på mordvåben er ikke nok. Du skal vide, hvem fandt mordvåben, hvem bragte det tilbage til lageret osv – du skal kunne spore hver enkelt gang, det skiftede hænder, og sikre, at det ikke blev manipuleret.

Hvilke foranstaltninger kan regeringer og tech-virksomheder træffe for at forhindre spredning af misinformation under kritiske tidspunkter som valg?

Den bedste modgift mod misinformation er tid. Hvis du ser noget, der ændrer tingene, skal du ikke skynde dig at offentliggøre – tag en dag eller to til at verificere, at det faktisk er sandt.

Desværre kolliderer denne tilgang med mediers forretningsmodel, der belønner klik, selv hvis materialet viser sig at være falsk.

Hvordan udnytter Otherweb AI til at sikre ægthed og nøjagtighed af de nyheder, det aggregator?

Vi har fundet ud af, at der er en stærk korrelation mellem korrekthed og form. Mennesker, der vil fortælle sandheden, tenderer til at bruge sprog, der understreger tilbageholdenhed og ydmyghed, hvorimod mennesker, der ikke respekterer sandheden, forsøger at få så meget opmærksomhed som muligt.

Otherwebs største fokus er ikke faktatjek. Det er form-tjek. Vi vælger artikler, der undgår opmærksomhedskrævende sprog, giver eksterne referencer for hver påstand, udtrykker ting, som de er, og ikke bruger overbevisningsteknikker.

Denne metode er ikke perfekt, selvfølgelig, og i teorien kunne en dårlig skuespiller skrive en usandhed i præcis den stil, vores modeller belønner. Men i praksis sker det bare ikke. Mennesker, der vil lyve, vil også have meget opmærksomhed – dette er det, vi har lært vores modeller at detectere og filtrere ud.

Hvordan kan platforme som Otherweb hjælpe med at genskabe brugernes tillid til digitalt indhold, når det bliver sværere at skelne mellem rigtigt og falskt?

Den bedste måde at hjælpe mennesker med at forbruge bedre indhold er at prøve fra alle sider, vælge det bedste af hvert, og udøve en masse tilbageholdenhed. De fleste medier skynder sig at offentliggøre uverificeret information disse dage. Vores evne til at krydshenvisningsinformation fra hundredvis af kilder og fokusere på de bedste punkter giver os mulighed for at beskytte vores brugere mod de fleste former for misinformation.

Hvad er rollen af metadata, som C2PA-standarder, i at verificere ægthed af billeder og videoer?

Det er den eneste livskraftige løsning. C2PA kan måske eller måske ikke være den rigtige standard, men det er klart, at den eneste måde at validere, om videoen du ser afspejler noget, der faktisk skete i virkeligheden, er at a) sikre, at kameraet, der optog videoen, kun optog, og ikke redigerede, og b) sikre, at ingen redigerede videoen efter, at den forlod kameraet. Den bedste måde at gøre det på er at fokusere på metadata.

Hvilke fremtidige udviklinger kan du forudse i kampen mod misinformation og deepfakes?

Jeg tror, at inden for 2-3 år vil mennesker tilpasse sig den nye virkelighed og ændre deres mindset. Før det 19. århundrede var den bedste form for bevis vidneudsagn fra øjenvidner. Deepfakes er sandsynligvis til at få os til at vende tilbage til disse afprøvede standarder.

Med hensyn til misinformation mere bredt tror jeg, det er nødvendigt at tage en mere nuanceret syn og adskille desinformation (dvs. falsk information, der er lavet med vilje for at forføre) fra skrammel (dvs. information, der er lavet for at blive monetiseret, uanset dens sandhed).

Modgiften mod skrammel er en filtermekanisme, der gør det mindre sandsynligt, at skrammel spreder sig som en steppebrand. Det ville ændre incitamentsstrukturen, der får skrammel til at sprede sig. Desinformation vil stadig eksistere, ligesom det altid har gjort. Vi har været i stand til at klare os med det i det 20. århundrede, og vi vil være i stand til at klare os med det i det 21.

Det er oversvømmelsen af skrammel, vi skal bekymre os om, fordi det er den del, vi er dårligt udstyret til at håndtere lige nu. Det er det primære problem, menneskeheden skal løse.

Når vi ændrer incitamentsstrukturen, vil signal-til-støj-forholdet på internettet forbedre sig for alle.

Tak for det gode interview, læsere, der ønsker at lære mere, skal besøge Otherweb-sitet eller følge dem på X eller LinkedIn.

Antoine er en visionær leder og medstifter af Unite.AI, drevet af en urokkelig passion for at forme og fremme fremtiden for AI og robotteknologi. En serieiværksætter, han tror, at AI vil være lige så omvæltende for samfundet som elektricitet, og bliver ofte fanget i at tale begejstret om potentialet for omvæltende teknologier og AGI.

Som en futurist, er han dedikeret til at udforske, hvordan disse innovationer vil forme vores verden. Derudover er han grundlægger af Securities.io, en platform, der fokuserer på at investere i skærende teknologier, der gendefinerer fremtiden og omformer hele sektorer.