Connect with us

AI a národní bezpečnost: Nová bitevní pole

Umělá inteligence

AI a národní bezpečnost: Nová bitevní pole

mm

Umělá inteligence mění, jak národy chrání sebe. Stala se nezbytnou pro kybernetickou bezpečnost, vývoj zbraní, kontrolu hranic a dokonce i veřejnou diskusi. Přestože nabízí významné strategické výhody, také představuje mnoho rizik. Tento článek zkoumá, jak AI mění bezpečnost, současné výsledky a náročné otázky, které tyto nové technologie vyvolávají.

  • Kybernetická bezpečnost: Boj AI proti AI

Většina dnešních útoků začíná v kybernetickém prostoru. Zločinci již nepíší každý phishingový e-mail ručně. Používají jazykové modely k vypracování zpráv, které znějí přátelsky a přirozeně. V roce 2024 použila skupina deep-fake video chief financial officera ke krádeži 25 milionů dolarů z vlastní firmy. Video vypadalo tak realisticky, že zaměstnanec následoval falešný příkaz bez pochybností. Útočníci nyní krmí velké jazykové modely uniklými životopisy nebo daty z LinkedIn k vytvoření osobních nástrah. Některé skupiny dokonce používají generativní AI k vytváření softwarových chyb nebo psaní malware.

Obránci také používají AI k ochraně proti těmto útokům. Bezpečnostní týmy krmí síťové protokoly, uživatelské kliky a globální zprávy o hrozbách do nástrojů AI. Software se učí „normální“ aktivitu a varuje, když se něco podezřelého stane. Když je detekován vpád, systémy AI odpojí podezřelý počítač, aby omezily škody, které by se otherwise rozšířily, kdyby lidé reagovali pomaleji.

  • Autonomní zbraně

AI také vstupuje na fyzická bojiště. Na Ukrajině drony používají palubní vidění k nalezení cisteren nebo radarových stanic, než explodují. USA použily AI k pomoci identifikovat cíle pro letecké údery v místech, jako je Sýrie. Izraelská armáda nedávno použila platformu AI pro výběr cílů k seřazení tisíců leteckých snímků a označení potenciálních úkrytů militantů. Čína, Rusko, Turecko a Spojené království testovaly „loitering munitions“, které krouží kolem oblasti, dokud AI nezjistí cíl. Tyto technologie mohou učinit vojenské operace přesnější a snížit rizika pro vojáky. Ale také přinášejí vážné obavy. Kdo je zodpovědný, když algoritmus zvolí špatný cíl? Někteří experti se obávají „flash válek“, kde stroje reagují příliš rychle na to, aby je diplomaté mohli zastavit. Mnoho expertů volá po mezinárodních pravidlech pro kontrolu autonomních zbraní, ale státy se obávají, že zůstanou pozadu, pokud se zastaví.

  • Dozor a zpravodajství

Zpravodajské služby dříve závisely na týmech analytiků, kteří četli zprávy nebo sledovali videozáznamy. Dnes závisí na AI, aby prošla miliony obrázků a zpráv každou hodinu. V některých zemích, jako je Čína, AI sleduje chování občanů, od malých věcí, jako je přecházení cesty, až po to, co dělají online. Podobně na hranici USA a Mexika, solární věže s kamerami a teploměry skenují prázdnou poušť. AI identifikuje pohybující se postavu, označí ji jako člověka nebo zvíře a upozorní pohraniční agenty. Tato „virtuální zeď“ pokrývá širokou oblast, kterou lidé nemohou sami sledovat.

Přestože tyto nástroje prodlužují pokrytí, také zveličují chyby. Systémy rozpoznávání obličeje byly prokázány jako nesprávné identifikace žen a lidí s tmavší pletí ve vyšších sazbách než bílých mužů. Jedna falešná shoda může způsobit, že nevinná osoba bude čelit dalšímu vyšetřování nebo zadržení. Tvůrci politik požadují audited algoritmy, jasnou cestu odvolání a lidskou kontrolu před jakoukoli silnou akcí.

  • Informační válka

Moderní konflikty se vedou nejen pomocí střel a kódů, ale také pomocí narativů. V březnu 2024 falešné video ukázalo ukrajinského prezidenta, jak nařizuje vojákům, aby se vzdali; to se rozšířilo online, než je mohli faktičtí kontrolóři vyvrátit. Během bojů mezi Izraelem a Hamasem v roce 2023 AI-generované falešné zprávy favorizující politiku jedné strany zaplňovaly sociální kanály, aby ovlivnily veřejné mínění.

Falešné informace se šíří rychleji, než je vlády mohou opravit. To je zejména problématické během voleb, kde je AI-generovaný obsah často používán k ovlivnění voličů. Voliči mají problém rozlišit mezi skutečnými a AI-generovanými obrázky nebo videy. Přestože vlády a technologické firmy pracují na protikladných projektech AI, aby skenovaly digitální otisky AI, závod je těsný; tvůrci zlepšují své falešné zprávy právě tak rychle, jako obránci zlepšují své filtry.

  • Podpora rozhodování

Armády a agentury shromažďují obrovské množství dat, včetně hodin leteckého videa, záznamů údržby, satelitních snímků a otevřených zdrojů. AI pomáhá tříděním a zvýrazněním relevantních informací. NATO nedávno přijalo systém inspirovaný americkým projektem Maven. Propojuje databáze z 30 členských států a poskytuje plánovačům ucelený pohled. Systém navrhuje pravděpodobné pohyby nepřítele a identifikuje potenciální nedostatky zásobování. Velitelství speciálních operací USA používá AI k pomoci při vypracování částí svého ročního rozpočtu skenováním faktur a doporučováním realokací. Podobné AI platformy předpovídají selhání motorů, naplánují opravy dopředu a přizpůsobí simulace letu individuálním potřebám pilotů.

  • Vykonávání práva a kontrola hranic

Policejní síly a imigrační úředníci používají AI pro úkoly, které vyžadují stálou pozornost. Na rušných letištích biometrické kiosky potvrzují identity cestujících, aby proces byl efektivnější. Software pro analýzu vzorců vybírá záznamy o cestách, které naznačují obchod s lidmi nebo pašování drog. V roce 2024 jedna evropská partnerství použila takové nástroje k odhalení skupiny, která pašovala migranty na nákladních lodích. Tyto nástroje mohou učinit hranice bezpečnějšími a pomoci chytit zločince. Ale existují také obavy. Rozpoznávání obličeje někdy selhává u určitých tříd lidí s nízkou reprezentací, což může vést k chybám. Další otázkou je soukromí. Klíčová otázka je, zda by se AI mělo používat ke sledování každého tak úzce.

Závěrečné slovo

AI mění národní bezpečnost mnoha způsoby, nabízí jak příležitosti, tak rizika. Může chránit země před kybernetickými hrozbami, učinit vojenské operace přesnější a zlepšit rozhodování. Ale také může šířit lži, porušovat soukromí nebo dělat smrtelné chyby. Když se AI stává běžnější v bezpečnosti, musíme najít rovnováhu mezi využíváním její síly pro dobro a kontrolou jejích nebezpečí. To znamená, že země musí spolupracovat a stanovit jasná pravidla pro to, jak lze AI používat. Nakonec je AI nástrojem a jak jej použijeme, bude definovat budoucnost bezpečnosti. Musíme být opatrní a používat ji moudře, aby nás více prospívala než poškozovala.

Dr. Tehseen Zia je docent s trvalým úvazkem na COMSATS University Islamabad, držitel titulu PhD v oblasti AI z Vienna University of Technology, Rakousko. Specializuje se na umělou inteligenci, strojové učení, datové vědy a počítačové vidění, a významně přispěl publikacemi v renomovaných vědeckých časopisech. Dr. Tehseen také vedl různé průmyslové projekty jako hlavní výzkumník a působil jako konzultant pro umělou inteligenci.