výhonek Nová studie odhaluje skryté zranitelnosti v AI – Unite.AI
Spojte se s námi

Umělá inteligence

Nová studie odhaluje skryté zranitelnosti v AI

Zveřejněno

 on

V rychle se vyvíjejícím prostředí umělé inteligence se příslib transformativních změn rozprostírá v mnoha oblastech, od revolučních vyhlídek autonomních vozidel přetvářejících dopravu až po sofistikované využití umělé inteligence při interpretaci složitých lékařských snímků. Pokrok v technologiích umělé inteligence nebyl ničím menším než digitální renesance, která ohlašuje budoucnost překypující možnostmi a pokroky.

Nedávná studie však vrhá světlo na znepokojivý aspekt, který byl často přehlížen: zvýšená zranitelnost systémů AI vůči cíleným nepřátelským útokům. Toto odhalení zpochybňuje robustnost aplikací AI v kritických oblastech a zdůrazňuje potřebu hlubšího pochopení těchto zranitelností.

Koncept nepřátelských útoků

Útoky protivníka v oblasti umělé inteligence jsou typem kybernetické hrozby, kdy útočníci záměrně manipulují se vstupními daty systému umělé inteligence, aby jej přiměli učinit nesprávná rozhodnutí nebo klasifikaci. Tyto útoky využívají inherentní slabiny ve způsobu, jakým algoritmy AI zpracovávají a interpretují data.

Zvažte například autonomní vozidlo, které při rozpoznávání dopravních značek spoléhá na umělou inteligenci. Útok protivníka může být tak jednoduchý, jako umístění speciálně navržené nálepky na značku stop, což způsobí, že AI si to špatně vyloží, což může mít katastrofální následky. Podobně v lékařské oblasti by hacker mohl nenápadně pozměnit data vkládaná do systému AI analyzujícího rentgenové snímky, což by vedlo k nesprávným diagnózám. Tyto příklady podtrhují kritickou povahu těchto zranitelností, zejména v aplikacích, kde je v sázce bezpečnost a lidské životy.

Alarmující zjištění studie

Studie, jejímž spoluautorem je Tianfu Wu, doc. profesor elektrotechniky a počítačového inženýrství na Státní univerzitě v Severní Karolíně se ponořil do rozšířenosti těchto nepřátelských zranitelností a odhalil, že jsou mnohem častější, než se dříve myslelo. Toto odhalení je zvláště znepokojivé vzhledem k rostoucí integraci AI do kritických a každodenních technologií.

Wu zdůrazňuje závažnost této situace a uvádí: „Útočníci mohou využít těchto zranitelností k tomu, aby donutili AI interpretovat data tak, aby byla jakákoli chtějí. To je neuvěřitelně důležité, protože pokud systém umělé inteligence není odolný vůči těmto druhům útoků, nechcete jej prakticky používat – zejména pro aplikace, které mohou ovlivnit lidské životy.“

QuadAttacK: Nástroj pro odmaskování zranitelností

V reakci na tato zjištění Wu a jeho tým vyvinuli QuadAttacK, průkopnický kus softwaru navržený k systematickému testování hlubokých neuronových sítí na zranitelnost protivníka. QuadAttacK funguje tak, že pozoruje reakce systému AI na čistá data a učí se, jak se rozhoduje. Poté manipuluje s daty, aby otestoval zranitelnost AI.

Wu objasňuje: „QuadAttacK sleduje tyto operace a učí se, jak AI dělá rozhodnutí související s daty. To umožňuje QuadAttacK zjistit, jak lze data zmanipulovat k oklamání AI.“

Při testování proof-of-concept, QuadAttacK byla použita k hodnocení čtyř široce používaných neuronových sítí. Výsledky byly zarážející.

„Byli jsme překvapeni, když jsme zjistili, že všechny čtyři tyto sítě byly velmi zranitelné vůči nepřátelským útokům,“ říká Wu a zdůrazňuje kritický problém v oblasti umělé inteligence.

Tato zjištění slouží jako budíček pro výzkumnou komunitu AI a průmyslová odvětví závislá na technologiích AI. Odhalená zranitelnost nejenže představuje riziko pro současné aplikace, ale také zpochybňuje budoucí nasazení systémů umělé inteligence v citlivých oblastech.

Výzva k akci pro komunitu AI

Veřejná dostupnost QuadAttacK představuje významný krok směrem k širšímu výzkumu a vývoji v oblasti zabezpečení systémů umělé inteligence. Zpřístupněním tohoto nástroje Wu a jeho tým poskytli výzkumníkům a vývojářům cenný zdroj k identifikaci a řešení zranitelností v jejich systémech AI.

Zjištění výzkumného týmu a QuadAttacK nástroje jsou prezentovány na konferenci o systémech zpracování neuronových informací (NeurIPS 2023). Hlavním autorem článku je Thomas Paniagua, Ph.D. student na NC State spolu se spoluautorem Ryanem Graingerem, rovněž Ph.D. student na univerzitě. Tato prezentace není jen akademickým cvičením, ale výzvou k akci pro globální komunitu AI, aby upřednostnila bezpečnost při vývoji AI.

Když stojíme na křižovatce inovací a bezpečnosti AI, práce Wu a jeho spolupracovníků nabízí jak varovný příběh, tak plán pro budoucnost, kde AI může být výkonná a bezpečná. Cesta vpřed je složitá, ale nezbytná pro udržitelnou integraci umělé inteligence do struktury naší digitální společnosti.

Tým vytvořil QuadAttacK veřejně dostupné. Najdete ho zde: https://thomaspaniagua.github.io/quadattack_web/

Alex McFarland je AI novinář a spisovatel, který zkoumá nejnovější vývoj v oblasti umělé inteligence. Spolupracoval s řadou AI startupů a publikací po celém světě.