Connect with us

Kybernetická bezpečnost

Jak hackeři využívají umělou inteligenci

mm

Umělá inteligence se prokázala jako technologická adice s přidanou hodnotou v globální ekonomice.

Jak se firmy snažily přizpůsobit současným událostem v posledních letech, některé z nich našly způsoby, jak vměstnat půl desetiletí digitální transformace do mnohem kratšího časového rámce. V případě Frito-Lay to bylo – digitální transformace za mnohem kratší dobu. Harris Poll a Appen zjistily, že rozpočet na umělou inteligenci se zvýšil o 55% během globální pandemie.

Jako jakýkoli jiný nástroj, umělá inteligence nemá žádnou vrozenou morální hodnotu. Užitečnost nebo potenciál pro škodu umělých inteligencí závisí na tom, jak systém „učí“ a co s ním nakonec lidé dělají.

Některé pokusy využít umělou inteligenci – jako je „předpovídání“ zločinu, než k němu dojde – ukazují, že modely trénované na zkreslených datech tendují k replikaci lidských nedostatků. Dosud se ukázalo, že trénování umělých inteligencí pomocí dat ze systému spravedlnosti USA vedlo k tragicky předpojatému AI rozumu.

V jiných případech lidé volí úmyslnější způsoby, jak využít destruktivní potenciál umělých inteligencí. Hackeři opět ukazují svou inovační tendenci tím, že využívají umělou inteligenci ke zlepšení dosahu, účinnosti a ziskovosti svých útoků. A jak kybernetická válka se stává stále častější po celém světě, jistě uvidíme, jak se aplikace umělých inteligencí v hackingu dále rozvíjí.

Umělá inteligence je příležitostí i rizikem

Umělá inteligence poskytuje svět možností pro firmy, které chtějí zlepšit předpovědi, optimalizaci podnikání a strategie udržení zákazníků. Je to také dar pro ty, kteří se snaží ohrozit digitální suverenitu ostatních.

Zde jsou beberapa způsobů, jak může být umělá inteligence náchylná k diskrétnímu zasahování a otevřenějším snahám o její agresivní využití.

1. Ohrožení logiky strojů

Hlavní výhodou umělých inteligencí pro spotřebitele a komerční podniky je, že provádějí předvídatelné a opakované logické úkony bez lidského zásahu. To je také jejich největší slabina.

Jako jakýkoli jiný digitální konstrukt může být umělá inteligence náchylná k proniknutí vnějšími silami. Hackeři, kteří získají přístup a ohrozí logiku strojů, které pohánějí umělou inteligenci, mohou způsobit, že budou provádět nepředvídatelné nebo škodlivé akce. Například umělá inteligence, která má na starosti monitorování průmyslových podmínek, by mohla poskytnout falešné údaje nebo neodeslat signály o údržbě.

Pоскольку celý smysl investic do umělých inteligencí spočívá v eliminaci lidského zásahu a zpochybnění výsledků, škoda na infrastruktuře nebo kvalitě produktu způsobená takovým útokem nemusí být zřejmá, dokud nedojde ke katastrofálnímu selhání.

2. Využití algoritmů pro reverzní inženýrství

Další potenciální cesta ke škodě – zejména pokud jde o duševní vlastnictví (IP) a spotřebitelská nebo komerční data – je koncept reverzního inženýrství. Hackeři mohou dokonce ukrást samotný kód umělých inteligencí. S dostatečným časem na studium, jak funguje, by mohli nakonec odhalit datové sady, které byly použity k trénování umělých inteligencí.

To by mohlo mít několik důsledků, z nichž první je otrávení umělých inteligencí. Další příklady by mohly zahrnovat hackery, kteří využívají data pro trénování umělých inteligencí k získání kompromitujících informací o trzích, konkurentech, vládách, dodavatelích nebo spotřebitelích.

3. Získání informací o cílech

Špehování cílů je pravděpodobně jednou z nejvíce znepokojivých implikací toho, že umělá inteligence padne do rukou hackerů. Schopnost umělých inteligencí dospět k závěrům o schopnostech, znalostních oblastech, povaze a pravděpodobnosti, že se stanou obětí cíleného útoku, podvodu nebo zneužití, je pro některé odborníky na kybernetickou bezpečnost zvláště znepokojivá.

Umělá inteligence může přijímat a dospět k překvapivě podrobným závěrům o lidech, týmech a skupinách na základě některých z nejnepravděpodobnějších datových bodů. „Zapojený“ nebo „roztěkaný“ jedinec by mohl psát rychle, hrát si s myší nebo přecházet mezi kartami prohlížeče rychle. Uživatel, který je „zmatený“ nebo „váhavý“, by mohl před kliknutím na prvky stránky nebo návratem na více stránek váhat.

V správných rukou by tyto signály mohly pomoci personálnímu oddělení zlepšit angažovanost zaměstnanců nebo marketingovým týmům vylepšit jejich webové stránky a prodejní kanály.

Pro hackery by tyto signály mohly vést k překvapivě nuancovanému psychologickému profilu zamýšleného cíle. Kyberzločinci by mohli zjistit, na základě náznaků neviditelných pro lidi, kteří lidé by mohli být zranitelní vůči phishingovým útokům, smishingu, ransomwaru, finančním podvodům a dalším typům škod.

4. Testování zranitelností sítě

Odborníci na kybernetickou bezpečnost zveřejnili data o 20 175 známých bezpečnostních zranitelnostech v roce 2021. To bylo zvýšení oproti roku 2020, kdy jich bylo 17 049.

Svět se stává stále více digitálně propojeným – někteří by řekli, že závislým – každou hodinou. Svět nyní hostí ohromné množství malých a průmyslových sítí, s miliardami připojených zařízení online a dalšími na cestě. Vše je online, od senzorů pro monitorování podmínek po softwarové plánování podnikání.

Umělá inteligence ukazuje slib v pomoci týmům kybernetické bezpečnosti rychle prohledávat sítě, software a hardwarové zranitelnosti rychleji, než by to mohli udělat lidé sami. Rychlost a rozsah růstu digitální infrastruktury Země znamenají, že je téměř nemožné prohledávat trillions řádků kódu pro bezpečnostní chyby, které je třeba opravit. To vše se musí stát, zatímco tyto systémy jsou online kvůli nákladům na odstávku.

Pokud je umělá inteligence nástrojem kybernetické bezpečnosti, je to také dvojí meč. Hackeři mohou použít stejné mechanismy jako „bílí klobouky“ IT komunity, aby provedli stejnou práci: prohledávání sítí, software a firmware pro zranitelnosti účinněji, než by to mohli udělat lidské IT odborníky.

Digitální závod ve zbrojení

Existuje příliš mnoho aplikací umělých inteligencí v kybernetických zločinech, aby je všechny jmenovat, ale zde jsou beberapa dalších:

  • Hackeři by mohli skrýt kód umělých inteligencí v jinak neškodné aplikaci, která spustí škodlivou činnost, když detekuje předem určený spouštěč nebo práh.
  • Škodlivé modely umělých inteligencí by mohly být použity k určení přihlašovacích údajů nebo funkcí IT správy monitorováním biometrických vstupů, jako jsou otisky prstů a rozpoznání hlasu.
  • I když nakonec selže pokus o kybernetický útok, hackeři vybavení umělou inteligencí by mohli použít strojové učení, aby zjistili, co šlo špatně a co by mohli dělat jinak příště.

Zdálo se, že stačilo pouze jedna dobře umístěná zpráva o hackingu džípu, zatímco jede, aby zpomalila vývoj autonomních vozidel. Jeden high-profile hack, kde umělá inteligence působí jako klíčový prvek, by mohl způsobit podobnou erozi veřejného mínění. Některé průzkumy ukazují, že průměrný Američan je velmi pochybovačný o výhodách umělých inteligencí již.

Omnipresentní výpočetní technika přichází s riziky kybernetické bezpečnosti – a obě „bílé“ i „černé“ hackeři to vědí. Umělá inteligence může pomoci udržet naše online životy v bezpečí, ale je také epicentrem nové digitální závodě ve zbrojení.

Zac Amos je technický spisovatel, který se zaměřuje na umělou inteligenci. Je také editorem funkcí na ReHack, kde můžete číst více jeho práce.