Connect with us

Myslitelé

Kdo nás ochrání před dezinformacemi generovanými pomocí AI?

mm

Generativní AI se za méně než rok vyvinula z nuly na sto. Ačkoli je to stále začátek, již ukázala svůj potenciál transformovat podnikání. To je něco, na čem se všichni můžeme shodnout. Lišíme se však v názoru na to, jak omezit nebezpečí, která představuje.

Chci být jasný, jsem pro inovace a nejsem žádný strašák. Ale recentní nárůst dezinformací – většinou zaměřených na polarizaci kolem kontroverzních otázek – ukázal, že pokud nebude gen AI regulován, může způsobit chaos ve společnosti.

Už jsme tohle viděli u sociálních médií, ale trvalo to roky a tvrdé урокy, než jsme se probudili k jeho chybám. Už jsme (předpokládám) něco naučili. Otázkou dneška je kdo pomůže zastavit příliv reality distortion z gen AI, a jak?

Predikovatelně, vlády začínají jednat. Evropa vede útok, jak již několikrát prokázala při regulaci technologií. USA jsou hned za nimi, s Prezidentem Bidenem, který vydal výkonný příkaz minulý říjen.

Ale bude to vyžadovat globální vesnici, která bude jednat společně, aby “udržela gen AI poctivou.” A předtím, než vlády mohou pomoci, musí pochopit omezení dostupných přístupů.

Problém identity se výrazně zhoršil

V tomto novém světě se pravda stává jehlou v kupce názorů vydávaných za fakta. Vědět od koho pochází obsah, je důležitější než kdykoli předtím.

A není to tak jednoduché, jako nařídit, že každý účet na sociálních médiích musí být ověřen. Existuje silný odpor proti tomu, a v některých případech je anonymita nutná k ochraně držitelů účtů. Navíc, mnoho spotřebitelů nejhoršího obsahu se nezajímá o to, zda je obsah důvěryhodný, ani o tom, odkud pochází.

Přes tyto výhrady je potenciální role identity při zvládání gen AI podceňována. Skeptici, vyslechněte mě.

Představme si, že regulace nebo sociální svědomí donutí platformy nabídnout každému držiteli účtu tyto možnosti:

  1. Ověřit svou identitu nebo ne, a
  2. Veřejně odhalit svou ověřenou identitu, nebo být pouze označen jako „ID Ověřen”

Pak může publika na sociálních médiích lépe rozhodnout, kdo je důvěryhodný. Stejně důležité, ne-li důležitější, je, že identita podporuje odpovědnost. Platformy mohou rozhodnout o opatřeních proti sériovým „dezinformátorům“ a opakujícím se zneuživatelům obsahu generovaného pomocí AI, i když se objevují pod různými názvy účtů.

S gen AI, která zvyšuje sázky, jsem přesvědčen, že identita – vědět přesně kdo zveřejnil co – je kritická. Někteří budou proti tomu, a identita není komplexní odpověď. Ve skutečnosti žádné řešení neuspokojí všechny zúčastněné strany. Ale pokud regulace donutí platformy nabídnout ověření identity pro všechny účty, jsem přesvědčen, že dopad bude obrovský.

Moderační dilema

Moderace obsahu – automatizovaná a lidská – je poslední obrannou linií proti nežádoucímu obsahu. Lidská moderace je náročná práce, s rizikem psychického poškození z expozice nejhoršímu, co může lidstvo nabídnout. Je také drahá a často obviněna z předpojaté cenzury, kterou platformy snaží omezit.

Automatizovaná moderace přesahuje lidskou kapacitu, aby zvládla nové toky obsahu, ale selhává v pochopení kontextu (memes jsou běžným příkladem) a kulturních nuancí. Oba typy moderace jsou cruciální a nezbytné, ale jsou pouze částí odpovědi.

Často opakovaná, konvenční receptura na kontrolu gen AI zní: „Spolupráce mezi technologickými lídry, vládami a občanskou společností je nutná.“ Samozřejmě, ale co konkrétně?

Vládám, na jejich straně, může být doporučeno, aby donutily sociální a mediální platformy nabídnout ověření identity a zobrazit je prominentně na všech příspěvcích. Regulátoři mohou také vyhladit cestu k metrikám důvěryhodnosti, které skutečně pomáhají posoudit, zda je zdroj důvěryhodný. Spolupráce je nutná k vývoji univerzálních standardů, které poskytují konkrétní pokyny a směry, aby se soukromý sektor nemusel hádat.

Nakonec, mělo by být nezákonné vytvářet škodlivý AI výstup? Zákonodárství, které zakazuje obsah určený pro nezákonnou činnost, by mohlo snížit objem toxického obsahu a ulehčit moderátorům. Nerozumím regulaci a zákonům jako schopným porazit dezinformace, ale jsou nezbytné při konfrontaci s touto hrozbou.

Slunná strana ulice: inovace

Slib inovací mě činí optimistou. Nemůžeme očekávat, že politici nebo vlastníci platforem budou plně chránit proti AI-generovaným klamáním. Zanechávají velkou mezeru, a to je přesně to, co bude inspirovat vynález nových technologií k ověření obsahu a detekci podvodů.

Poznáme-li již negativní stránku sociálních médií, rychle jsme si uvědomili, že generativní AI by mohla skončit jako obrovský net-negative pro lidstvo, s její schopností polarizovat a klamat.

Optimisticky vidím výhody vícerých přístupů, kde kontrolní metody spolupracují, nejprve na zdroji, omezují vytváření obsahu určeného pro nezákonné použití. Poté, před zveřejněním, ověřují identitu těch, kteří odmítají anonymitu. Dále, jasná označení ukazují hodnocení důvěryhodnosti a identitu nebo absenci identity. Nakonec, automatizovaná a lidská moderace mohou filtrovat některé z nejhorších. Očekávám, že brzy budou k dispozici nové technologie ověřování.

Sečtěme to všechno, a budeme mít mnohem lepší, i když nikoli dokonalé, řešení. Mezitím bychom měli rozvíjet své dovednosti, abychom mohli určit, co je reálné, kdo říká pravdu, a kdo se snaží nás oklamat.

Jeff Sakasegawa je Persona’s Trust & Safety Architect. S více než desetiletou zkušeností v oblasti Trust & Safety napříč společnostmi jako Google, Facebook, Square a Sift je Jeff odborníkem na řízení rizik a compliance. Je vášnivý ohledně zajištění bezpečných online zkušeností pro všechny uživatele.