Myšlenkové vůdce
Obavy z potenciálních rizik ChatGPT nabývají na síle, ale je pauza v AI dobrý krok?

Zatímco Elon Musk a další světoví tech lídři požadovali a pauza v AI po vydání ChatGPT se někteří kritici domnívají, že zastavení vývoje není řešením. Evangelista AI Andrew Pery ze společnosti ABBYY pro inteligentní automatizaci věří, že dát si pauzu je jako vrátit zubní pastu zpět do tuby. Zde nám říká, proč…
Aplikace umělé inteligence jsou všudypřítomné a ovlivňují prakticky každý aspekt našeho života. I když je to chvályhodné, zabrzdit nyní může být nevěrohodné.
Určitě existují hmatatelné obavy volající po zvýšeném regulačním dohledu, který by vládl nad jeho potenciálními škodlivými dopady.
Zrovna nedávno italský úřad pro ochranu údajů dočasně zablokoval používání ChatGPT na celostátní úrovni kvůli obavám o soukromí souvisejícím se způsobem shromažďování a zpracování osobních údajů používaných k trénování modelu, stejně jako zjevnému nedostatku záruk, což vystavuje děti odpovědím „absolutně“. nepřiměřené jejich věku a vědomí."
Evropská spotřebitelská organizace (BEUC) naléhá na EU, aby prošetřila potenciální škodlivé dopady rozsáhlých jazykových modelů vzhledem k „růstajícím obavám z toho, jak by ChatGPT a podobní chatboti mohli klamat a manipulovat lidi. Tyto systémy umělé inteligence potřebují větší veřejnou kontrolu a veřejné orgány nad nimi musí znovu prosadit kontrolu.“
V USA, Centrum pro umělou inteligenci a digitální politiku podal stížnost u Federal Trade Commission, že ChatGPT porušuje oddíl 5 zákona o Federální obchodní komisi (FTC Act) (15 USC 45). Základem stížnosti je, že ChatGPT údajně nesplňuje vedení stanovené FTC pro transparentnost a vysvětlitelnost systémů umělé inteligence. Byl učiněn odkaz na uznání ChatGPT několika známých rizika včetně narušování práv na soukromí, generování škodlivého obsahu a šíření dezinformací.
Užitečnost rozsáhlých jazykových modelů, jako je ChatGPT, bez ohledu na výzkum poukazuje na jeho potenciál temná strana. Je prokázáno, že vytváří nesprávné odpovědi, protože základní model ChatGPT je založen na algoritmech hlubokého učení, které využívají velké sady tréninkových dat z internetu. Na rozdíl od jiných chatbotů používá ChatGPT jazykové modely založené na technikách hlubokého učení, které generují text podobný lidským konverzacím, a platforma „dochází k odpovědi na základě řady odhadů, což je jedním z důvodů, proč může argumentovat nesprávnými odpověďmi, jako by byly byly zcela pravdivé."
Kromě toho je prokázáno, že ChatGPT zdůrazňuje a zesiluje zaujatost, což vede k „odpovědím, které diskriminují pohlaví, rasu a menšinové skupiny, což se společnost snaží zmírnit“. ChatGPT může být také bonanzou pro hanebné herce, kteří zneužívají nic netušící uživatele a kompromitují jejich soukromí a vystavit je podvodné útoky.
Tyto obavy přiměly Evropský parlament, aby zveřejnil a komentář což posiluje potřebu dalšího posílení stávajících ustanovení návrhu zákon EU o umělé inteligenci, (AIA), který stále čeká na ratifikaci. Komentář poukazuje na to, že současný návrh navrhovaného nařízení se zaměřuje na to, co je označováno jako úzké aplikace umělé inteligence, sestávající ze specifických kategorií vysoce rizikových systémů umělé inteligence, jako je nábor, úvěrová způsobilost, zaměstnání, vymáhání práva a způsobilost k sociálním službám. Návrh nařízení EU o AIA však nepokrývá AI pro všeobecné účely, jako jsou velké jazykové modely, které poskytují pokročilejší kognitivní schopnosti a které mohou „provádět širokou škálu inteligentních úkolů“. Objevují se výzvy k rozšíření oblasti působnosti návrhu nařízení tak, aby zahrnovala samostatnou vysoce rizikovou kategorii všeobecných systémů umělé inteligence, která vyžaduje, aby vývojáři před uvedením těchto systémů na trh prováděli přísné ex ante testování shody a průběžně sledovali jejich výkon. potenciální neočekávané škodlivé výstupy.
Zvláště užitečný kousek výzkum upozorňuje na tuto mezeru, že nařízení EU AIA je „primárně zaměřeno na konvenční modely umělé inteligence, a nikoli na novou generaci, jejíž zrod jsme dnes svědky“.
Doporučuje čtyři strategie, které by regulátoři měli zvážit.
- Vyžadovat od vývojářů takových systémů, aby pravidelně podávali zprávy o účinnosti svých procesů řízení rizik ke zmírnění škodlivých výstupů.
- Podniky využívající rozsáhlé jazykové modely by měly být povinny sdělit svým zákazníkům, že obsah byl vytvořen AI.
- Vývojáři by se měli přihlásit k formálnímu procesu postupných vydání jako součásti rámce řízení rizik, který je navržen tak, aby chránil před potenciálně nepředvídanými škodlivými výsledky.
- Dejte břemeno vývojářům, aby „zmírnili riziko u jeho kořenů“ tím, že budou muset „proaktivně auditovat trénovací data, zda neobsahují nepravdivá prohlášení“.
Faktorem, který udržuje rizika spojená s převratnými technologiemi, je snaha inovátorů dosáhnout výhody prvního tahu přijetím obchodního modelu „nejdříve odeslat a opravit později“. Zatímco OpenAI je poněkud průhledný o potenciálních rizicích ChatGPT, uvolnili jej pro široké komerční použití s povinností „kupující pozor“ na uživatelích, aby zvážili a převzali rizika sami. To může být neudržitelný přístup vzhledem k všudypřítomnému dopadu konverzačních systémů umělé inteligence. Proaktivní regulace spojená s robustními donucovacími opatřeními musí být prvořadá při manipulaci s takovou převratnou technologií.
Umělá inteligence již prostupuje téměř každou částí našich životů, což znamená, že pozastavení vývoje umělé inteligence by mohlo znamenat řadu nepředvídaných překážek a důsledků. Namísto náhlého čerpání přestávek by měli průmysloví a zákonodární hráči v dobré víře spolupracovat na přijetí účinné regulace, která je zakořeněna v hodnotách zaměřených na člověka, jako je transparentnost, odpovědnost a spravedlnost. S odkazem na existující legislativu, jako je AIA, mohou lídři v soukromém a veřejném sektoru navrhnout důkladné, globálně standardizované politiky, které zabrání nekalému použití a zmírní nepříznivé výsledky, čímž udrží umělou inteligenci v mezích zlepšování lidských zkušeností.