ciot Construirea încrederii în AI cu verificarea ID - Unite.AI
Conectează-te cu noi

Liderii gândirii

Construirea încrederii în AI cu verificarea ID

mm

Publicat

 on

Inteligența artificială generativă a captat interesul companiilor la nivel global. De fapt, 60% dintre organizațiile care au raportat adoptarea AI folosesc acum AI generativă. Liderii de astăzi se întrec pentru a determina cum să încorporeze instrumentele AI în stack-urile lor de tehnologie pentru a rămâne competitivi și relevanți – iar dezvoltatorii de AI creează mai multe instrumente decât oricând. Dar, odată cu adoptarea rapidă și natura tehnologiei, multe preocupări de securitate și etică nu sunt pe deplin luate în considerare, deoarece companiile se grăbesc să încorporeze cea mai recentă și cea mai bună tehnologie. Ca urmare, încrederea scade.

Un studiu recent a constatat că doar 48% dintre americani cred că IA este sigură și securizată, în timp ce 78% spun că sunt foarte sau oarecum îngrijorați de faptul că AI poate fi folosită în scopuri rău intenționate. Deși s-a descoperit că AI îmbunătățește fluxurile de lucru zilnice, consumatorii sunt îngrijorați de actorii răi și de capacitatea lor de a manipula AI. Capacitățile deepfake, de exemplu, devin din ce în ce mai mult o amenințare pe măsură ce accesibilitatea tehnologiei pentru mase crește.

Nu mai este suficient să ai un instrument AI. Pentru ca inteligența artificială să își atingă potențialul adevărat și benefic, întreprinderile trebuie să încorporeze inteligența artificială în soluții care demonstrează utilizarea responsabilă și viabilă a tehnologiei pentru a aduce o încredere mai mare consumatorilor, în special în securitatea cibernetică, unde încrederea este esențială.

Provocări în domeniul securității cibernetice AI

Tehnologia AI generativă progresează într-un ritm rapid, iar dezvoltatorii înțeleg abia acum importanța aducerii acestei tehnologii în întreprindere, așa cum se vede prin recenta lansare a ChatGPT Enterprise.

Tehnologia actuală AI este capabilă să realizeze lucruri despre care se vorbește doar în domeniul science fiction-ului cu mai puțin de un deceniu în urmă. Modul în care funcționează este impresionant, dar expansiunea relativ rapidă în care se întâmplă totul este și mai impresionantă. Acesta este ceea ce face tehnologia AI atât de scalabilă și accesibilă companiilor, persoanelor fizice și, desigur, fraudătorilor. În timp ce capacitățile tehnologiei AI au condus inovația, utilizarea pe scară largă a acesteia a dus și la dezvoltarea unor tehnologii periculoase, cum ar fi deepfakes-as-a-service. Termenul „deepfake” este derivat din tehnologia care creează acest stil particular de conținut manipulat (sau „fals”) care necesită utilizarea tehnicilor de învățare profundă.

Escrocii vor urma întotdeauna banii care le oferă cel mai mare ROI – astfel încât orice afacere cu un potențial mare de rentabilitate va fi ținta lor. Aceasta înseamnă că fintech, companiile care plătesc facturi, serviciile guvernamentale și comercianții cu amănuntul de bunuri de mare valoare vor fi întotdeauna în fruntea listei lor.

Ne aflăm într-un loc în care încrederea este pe linie, iar consumatorii sunt din ce în ce mai puțin de încredere, oferind fraudătorilor amatori mai multe oportunități ca niciodată de a ataca. Odată cu noua accesibilitate a instrumentelor AI și cu un cost din ce în ce mai scăzut, este mai ușor pentru actorii răi de orice nivel de calificare să manipuleze imaginile și identitățile altora. Capacitățile deepfake devin din ce în ce mai accesibile maselor prin intermediul aplicațiilor și site-urilor web deepfake, iar crearea deepfake-urilor sofisticate necesită foarte puțin timp și un nivel relativ scăzut de abilități.

Odată cu utilizarea AI, am observat și o creștere a preluărilor de conturi. Deepfake-urile generate de inteligență artificială facilitează crearea de imitații sau identități sintetice pentru oricine, indiferent dacă este vorba de celebrități sau chiar de șeful tău.​

Aplicațiile de limbaj generativ AI și Large Language Model (LLM) pot fi utilizate pentru a crea fraude mai sofisticate și mai evazive, care este dificil de detectat și eliminat. În mod special, LLM-urile au creat o utilizare pe scară largă a atacurilor de tip phishing care pot vorbi perfect limba ta maternă. Acestea creează, de asemenea, un risc de „fraudă romantică” la scară, atunci când o persoană face o conexiune cu cineva printr-un site sau o aplicație de întâlniri, dar persoana cu care comunică este un escroc care folosește un profil fals. Acest lucru determină multe platforme sociale să ia în considerare implementarea controalelor „dovada umanității” pentru a rămâne viabile la scară.

Cu toate acestea, aceste soluții de securitate actuale, care utilizează analiza metadatelor, nu pot opri actorii răi. Detectarea deepfake se bazează pe clasificatoare care caută diferențe între real și fals. Cu toate acestea, această detectare nu mai este suficient de puternică, deoarece aceste amenințări avansate necesită mai multe puncte de date pentru a fi detectate.

AI și verificarea identității: lucrând împreună

Dezvoltatorii de IA trebuie să se concentreze pe utilizarea tehnologiei pentru a oferi garanții îmbunătățite pentru măsurile dovedite de securitate cibernetică. Acest lucru nu numai că va oferi un caz de utilizare mai fiabil pentru IA, dar poate oferi și o utilizare mai responsabilă – încurajând practici mai bune de securitate cibernetică, în timp ce promovează capabilitățile soluțiilor existente.

Un caz principal de utilizare al acestei tehnologii este verificarea identității. Peisajul amenințărilor AI este în continuă evoluție, iar echipele trebuie să fie echipate cu tehnologie care să poată ajusta și implementa rapid și ușor tehnici noi.

Unele oportunități în utilizarea AI cu tehnologia de verificare a identității includ:

  • Examinarea atributelor cheie ale dispozitivului
  • Utilizarea contra-AI pentru a identifica manipularea: Pentru a evita fraudarea și pentru a proteja datele importante, contra-AI poate identifica manipularea imaginilor primite.
  • Tratarea „absenței datelor” ca un factor de risc în anumite circumstanțe
  • Caută activ modele în mai multe sesiuni și clienți

Aceste apărări stratificate oferite atât de AI, cât și de tehnologia de verificare a identității, investighează persoana, documentul de identitate afirmat, rețeaua și dispozitivul, reducând la minimum riscul manipulării ca urmare a deepfake-urilor și asigurând doar accesul la serviciile dvs. de către persoane autentice și de încredere.

AI și verificarea identității trebuie să continue să lucreze împreună. Cu cât datele de antrenament sunt mai robuste și complete, cu atât modelul devine mai bun și, deoarece IA este la fel de bună ca datele pe care le furnizează, cu cât avem mai multe puncte de date, cu atât verificarea identității și IA pot fi mai precise.

Viitorul verificării AI și ID-ului

Este greu să ai încredere în ceva online, dacă nu este dovedit de o sursă de încredere. Astăzi, nucleul încrederii online constă în identitatea dovedită. Accesibilitatea la LLM și instrumentele deepfake prezintă un risc crescut de fraudă online. Grupurile criminale organizate sunt bine finanțate și acum sunt capabile să folosească cea mai recentă tehnologie la o scară mai mare.

Companiile trebuie să-și lărgească peisajul de apărare și nu le este frică să investească în tehnologie, chiar dacă adaugă un pic de frecare. Nu mai poate exista un singur punct de apărare – trebuie să se uite la toate punctele de date asociate cu persoana care încearcă să obțină acces la sisteme, bunuri sau servicii și să continue să verifice pe tot parcursul călătoriei.

Deepfakes vor continua să evolueze și să devină mai sofisticați, liderii de afaceri trebuie să revizuiască continuu datele din implementările de soluții pentru a identifica noi modele de fraudă și să lucreze pentru a-și dezvolta strategiile de securitate cibernetică în mod continuu alături de amenințări.

În calitate de CEO și co-fondator, Kaarel este gânditorul strategic și vizionarul din spate Veriff.
Cu multă energie și entuziasm, el încurajează echipa Veriff să susțină onestitatea în digital
lume și menține echipa cu un pas înaintea fraudei și a concurenței în lumea dinamică a online-ului
verificare. În 2023, Kaarel a fost onorat în UE Forbes 30 Under 30, în 2020 a fost numit EY
Antreprenorul anului în Estonia și Nordic Business Report l-au numit unul dintre cei mai mulți 25
tineri antreprenori influenți din Europa de Nord.