Connect with us

Cybersäkerhet

Hur Hackare Använder Artificiell Intelligens

mm

AI har visat sig vara en värdeadderande teknik över hela den globala ekonomin.

Medan företag kämpade för att anpassa sig till aktuella händelser under de senaste åren, hittade några av dem sätt att klämma in ett halvt decenniums värd – i Frito-Lays fall – av digitala transformationer i en mycket kortare tidsram. Harris Poll och Appen fann att AI-budgeten ökade med 55% under den globala pandemin.

Liksom alla verktyg har artificiell intelligens ingen medfödd moralisk värdering. AI:s användbarhet eller potential för skada beror på hur systemet “lär” och vad människor slutligen gör med det.

Vissa försök att utnyttja AI – såsom “förutsäga” brott innan de inträffar – visar att modeller som tränats på partiska data tenderar att replikera mänskliga brister. Hittills har tränandet av AI med hjälp av data från det amerikanska rättssystemet resulterat i tragiskt partiskt AI-resonemang.

I andra exempel väljer människor mer medvetna sätt att utnyttja AI:s destruktiva potential. Hackare visar sina innovativa tendenser igen genom att använda artificiell intelligens för att förbättra sina attacker, räckvidd, effektivitet och lönsamhet. Och eftersom cyberkrigföring blir allt vanligare runt om i världen, kommer vi säkert att se tillämpningarna av AI i hacking utvecklas ännu mer.

AI Är En Möjlighet Och En Risk

Artificiell intelligens erbjuder en värld av möjligheter för företag som vill förbättra prognostisering, affärsoptimering och kundretentionstrategier. Det är också en skatt för dem som avser att kompromettera andras digitala suveränitet.

Här är några sätt artificiell intelligens kan vara mottaglig för diskret sabotage och mer öppna ansträngningar för att vända den mot aggressiva handlingar.

1. Att Kompromettera Maskinlogik

Den främsta fördelen med AI för konsumenter och kommersiella företag är att den utför förutsägbara och upprepningsbara logiska handlingar utan mänskligt ingripande. Detta är också dess största svaghet.

Liksom alla digitala konstruktioner kan AI vara mottaglig för penetration av yttre krafter. Hackare som får tillgång till och komprometterar maskinlogiken som driver AI kan orsaka att den utför oförutsägbara eller skadliga handlingar. Till exempel kan en AI som är tilldelad industriell tillståndsuppföljning leverera falska läsningar eller låta underhållspingar gå obesvarade.

Eftersom hela poängen med AI-investeringar är att eliminera mänskligt ingripande och ifrågasätta resultaten, kan skadan på infrastruktur eller produktkvalitet orsakad av ett angrepp av detta slag kanske inte märkas förrän en katastrofal fel inträffar.

2. Använda Inversengineeringsalgoritmer

En annan potentiell farväg – särskilt när det gäller immateriella rättigheter (IP) och konsument- eller kommersiell data – är begreppet omvänd konstruktion. Hackare kan till och med stjäla den artificiella intelligenskoden själv. Med tillräckligt med tid för att studera hur den fungerar, kan de så småningom avslöja de datamängder som användes för att träna AI från början.

Detta kan orsaka flera resultat, det första av vilka är AI-förgiftning. Andra exempel kan inbegripa hackare som använder AI-träningsdata själva för att få komprometterande information om marknader, konkurrenter, regeringar, leverantörer eller allmänna konsumenter.

3. Lära Känna Avsedda Mål

Övervakning av mål är troligen en av de mer obehagliga konsekvenserna av att AI hamnar i händerna på hackare. AI:s förmåga att dra slutsatser om en persons förmågor, kunskapsområden, temperament och sannolikhet att falla offer för riktad, bedrägeri eller missbruk är särskilt oroväckande för vissa cybersäkerhetsexperter.

Artificiell intelligens kan inta och komma till förvånansvärt detaljerade slutsatser om människor, team och grupper baserat på några av de mest osannolika datapunkterna. En “engagerad” eller “distracted” individ kan skriva snabbt, leka med musen eller växla mellan webbläsarflikar snabbt. En användare som är “förvirrad” eller “tveksam” kan pausa innan man klickar på sid-element eller besöka flera webbplatser.

I rätt händer kan signaler som dessa hjälpa HR-avdelningar förbättra anställdas engagemang eller hjälpa marknadsföringsteam att polera sina webbplatser och försäljningskanaler.

För hackare kan signaler som dessa resultera i en förvånansvärt nyanserad psykologisk profil av ett avsett mål. Cyberkriminella kan vara i stånd att avgöra baserat på ledtrådar som är osynliga för människor vilka personer som kan vara sårbara för phishing, smishing, ransomware, finansiellt bedrägeri och andra typer av skada. Det kan också hjälpa illasinnade aktörer att lära sig hur man bäst övertygar sina mål om att deras bedrägeriförsök kommer från legitima källor.

4. Söka Nätverksvulnerabiliteter

Cybersäkerhetsproffs publicerade data om 20,175 kända säkerhetsvulnerabiliteter 2021. Det var en ökning jämfört med 2020, då det fanns 17,049 sådana sårbarheter.

Världen blir allt mer digitalt sammanlänkad – några skulle säga interdependent – för varje timme. Världen är nu värd för en hisnande mängd småskaliga och industriella nätverk, med miljarder anslutna enheter online och ännu fler på väg. Allt är online, från tillståndsuppföljningssensorer till företagsplaneringsprogram.

Artificiell intelligens visar löfte i att hjälpa cybersäkerhetsteam snabbt söka efter nätverks-, programvaru- och maskinvarusårbarheter snabbare än människor kan ensamma. Hastigheten och omfattningen av tillväxten av jordens digitala infrastruktur gör det nästan omöjligt att söka efter miljarder rader kod för säkerhetsexploater att laga. Allt detta måste hända medan dessa system är online på grund av kostnaden för nedtid.

Om AI är ett cybersäkerhetsverktyg här, är det också ett tvåeggat svärd. Hackare kan använda samma mekanismer som “white hat”-IT-gänget för att utföra samma arbete: söka efter sårbarheter i nätverk, programvara och firmware mer effektivt än mänskliga IT-specialister kan.

En Digital Vapenkapplöpning

Det finns för många AI-tillämpningar i cyberbrott för att nämna dem alla, men här är några till:

  • Hackare kunde dölja AI-kod inom en i övrigt harmlös applikation som utför ett skadligt beteende när den upptäcker en förutbestämd utlösare eller tröskel.
  • Skadliga AI-modeller kan användas för att avgöra autentiseringsuppgifter eller IT-hanteringsfunktioner genom att övervaka biometrisk inmatning, såsom fingeravtryck och röstigenkänning.
  • Även om ett försök till cyberattack slutligen misslyckas, kan hackare utrustade med AI använda maskinlärning för att avgöra vad som gick fel och vad de kunde göra annorlunda nästa gång.

Det tycktes ta bara en välplacerad historia om att hacka en jeep medan den kör för att sakta ner utvecklingen av autonoma fordon. Ett högprofilerat hack där AI fungerar som en huvudfaktor kunde orsaka en liknande erosion i allmänhetens åsikt. Vissa undersökningar visar att den genomsnittliga amerikanen är mycket tvivlande till AI:s fördelar redan.

Allomfattande datorkraft kommer med cybersäkerhetsrisker – och både vita och svarta hackare vet det. AI kan hjälpa till att hålla våra online-liv säkra, men det är också epicentrum för en ny digital vapenkapplöpning.

Zac Amos är en tech-författare som fokuserar på artificiell intelligens. Han är också Features Editor på ReHack, där du kan läsa mer av hans arbete.