заглушки Створення довіри до ШІ за допомогою ідентифікаційної перевірки - Unite.AI
Зв'язатися з нами

Лідери думок

Побудова довіри до ШІ за допомогою ідентифікаційної перевірки

mm

опублікований

 on

Генеративний штучний інтелект привернув увагу компаній у всьому світі. Насправді, ​​60% організацій, які повідомили про впровадження ШІ, зараз використовують генеративний ШІ. Сучасні лідери змагаються, щоб визначити, як включити інструменти штучного інтелекту в свої технологічні набори, щоб залишатися конкурентоспроможними та відповідними, а розробники штучного інтелекту створюють більше інструментів, ніж будь-коли раніше. Але через швидке впровадження та характер технології багато питань безпеки та етики не враховуються в повній мірі, оскільки компанії поспішають використовувати новітні та найкращі технології. В результаті довіра слабшає.

Нещодавнє опитування виявлено, що лише 48% американців вважають, що штучний інтелект є безпечним і надійним, тоді як 78% кажуть, що вони дуже чи певною мірою стурбовані тим, що штучний інтелект може бути використаний для зловмисних намірів. Незважаючи на те, що штучний інтелект покращує щоденні робочі процеси, споживачі стурбовані поганими акторами та їхньою здатністю маніпулювати ШІ. Можливості Deepfake, наприклад, стають все більшою загрозою, оскільки доступність технології для мас зростає.

Наявності інструменту ШІ вже недостатньо. Щоб штучний інтелект міг реалізувати свій справжній корисний потенціал, компаніям необхідно включати штучний інтелект у рішення, які демонструють відповідальне та життєздатне використання технології, щоб забезпечити більшу впевненість споживачів, особливо в кібербезпеці, де довіра є ключовою.

Проблеми кібербезпеки ШІ

Технологія Generative AI прогресує швидкими темпами, і розробники тільки зараз розуміють важливість запровадження цієї технології на підприємствах, як це видно з нещодавнього запуску ChatGPT Enterprise.

Сучасна технологія штучного інтелекту здатна досягти того, про що говорили лише у сфері наукової фантастики менше десяти років тому. Те, як він працює, вражає, але відносно швидке розширення, у якому все це відбувається, вражає ще більше. Саме це робить технологію штучного інтелекту такою масштабованою та доступною для компаній, окремих людей і, звичайно, шахраїв. Хоча можливості технології штучного інтелекту стали поштовхом до інновацій, її широке використання також призвело до розвитку небезпечних технологій, таких як deepfakes-as-a-service. Термін «deepfake» походить від технології створення цього конкретного стилю маніпуляційного вмісту (або «фейку»), що вимагає використання методів глибокого навчання.

Шахраї завжди стежать за грошима, які забезпечують їм найбільшу рентабельність інвестицій, тому будь-який бізнес із високим потенційним прибутком стане їхньою ціллю. Це означає, що фінтех, підприємства, які оплачують рахунки, державні послуги та роздрібні торговці дорогоцінними товарами завжди будуть у верхній частині їх списку.

Ми знаходимося в тому місці, де довіра стоїть на кону, а споживачі все менше заслуговують на довіру, що дає шахраям-любителям більше можливостей для нападу, ніж будь-коли. Завдяки новій доступності інструментів штучного інтелекту та дедалі дешевшій ціні поганим акторам будь-якого рівня навичок легше маніпулювати образами та особистістю інших. Можливості Deepfake стають все більш доступними для широких мас через додатки та веб-сайти deepfake, а створення складних deepfake вимагає дуже мало часу та відносно низького рівня навичок.

З використанням штучного інтелекту ми також спостерігали збільшення захоплення облікових записів. Дипфейки, створені штучним інтелектом, дозволяють будь-кому легко створювати імітацію або штучну ідентичність, незалежно від того, чи це знаменитості, чи навіть ваш бос.​

ШІ та генеративні мовні програми Large Language Model (LLM) можна використовувати для створення складнішого й уникливого шахрайства, яке важко виявити та видалити. LLM спеціально створили широке використання фішингових атак, які можуть чудово розмовляти вашою рідною мовою. Це також створює ризик масштабного «романичного шахрайства», коли людина встановлює зв’язок з кимось через веб-сайт або додаток для знайомств, але особа, з якою вони спілкуються, є шахраєм, який використовує підроблений профіль. Це спонукає багато соціальних платформ розглянути можливість впровадження перевірок «доказу людяності», щоб залишатися життєздатними в масштабі.

Однак ці поточні рішення безпеки, які використовують аналіз метаданих, не можуть зупинити зловмисників. Виявлення Deepfeke базується на класифікаторах, які шукають відмінності між справжніми та фейковими. Однак це виявлення вже недостатньо потужне, оскільки для виявлення цих розширених загроз потрібно більше точок даних.

ШІ та перевірка особи: спільна робота

Розробники штучного інтелекту повинні зосередитися на використанні технології для забезпечення покращених гарантій захисту перевірених заходів кібербезпеки. Це не тільки забезпечить більш надійний варіант використання штучного інтелекту, але й забезпечить більш відповідальне використання – заохочуючи кращі практики кібербезпеки, одночасно розширюючи можливості існуючих рішень.

Основним випадком використання цієї технології є перевірка особи. Ландшафт загроз штучного інтелекту постійно розвивається, і команди повинні мати технологію, яка може швидко й легко коригувати та впроваджувати нові методи.

Деякі можливості використання ШІ з технологією перевірки особи включають:

  • Вивчення основних атрибутів пристрою
  • Використання контр-AI для виявлення маніпуляції: Щоб уникнути шахрайства та захистити важливі дані, штучний інтелект може виявити маніпуляції з вхідними зображеннями.
  • Вважати «відсутність даних» фактором ризику за певних обставин
  • Активно шукає шаблони для кількох сеансів і клієнтів

Ці багаторівневі засоби захисту, які забезпечуються як штучним інтелектом, так і технологією перевірки особи, досліджують особу, її заявлений документ, що посвідчує особу, мережу та пристрій, мінімізуючи ризик маніпуляцій у результаті глибоких фейків і гарантуючи, що лише довірені, справжні люди отримають доступ до ваших послуг.

Штучний інтелект і перевірка особи повинні продовжувати працювати разом. Чим надійніші та повніші навчальні дані, тим кращою стає модель, а оскільки штучний інтелект настільки хороший, наскільки хороші дані, які він подає, чим більше точок даних ми маємо, тим точнішими можуть бути перевірка особистості та штучний інтелект.

Майбутнє ШІ та ідентифікаційної верифікації

Важко довіряти будь-чому в Інтернеті, якщо це не підтверджено надійним джерелом. Сьогодні основа онлайн-довіри полягає в підтвердженій ідентичності. Доступ до LLM та інструментів deepfake створює зростаючий ризик онлайн-шахрайства. Організовані злочинні групи добре фінансуються, і тепер вони можуть використовувати новітні технології в більших масштабах.

Компанії повинні розширювати свій оборонний ландшафт і не боятися інвестувати в технології, навіть якщо це додає трохи тертя. Більше не може бути лише одна точка захисту – їм потрібно переглянути всі точки даних, пов’язані з особою, яка намагається отримати доступ до систем, товарів чи послуг, і продовжувати перевірку протягом усього шляху.

Deepfakes продовжуватимуть розвиватися та ставати складнішими, бізнес-лідерам потрібно постійно переглядати дані про розгортання рішень, щоб виявити нові моделі шахрайства та працювати над постійним вдосконаленням своїх стратегій кібербезпеки разом із загрозами.

Як генеральний директор і співзасновник, Каарел є стратегічним мислителем і провидцем Перевірка.
З великою кількістю енергії та ентузіазму він заохочує команду Veriff відстоювати чесність у цифровому світі.
і тримає команду на крок попереду шахрайства та конкуренції в динамічному світі онлайн
перевірка. У 2023 році Каарел отримав відзнаку в ЄС Forbes 30 Under 30, у 2020 році його назвали EY
Підприємець року в Естонії, а Nordic Business Report назвав його одним із 25 найбільших
впливові молоді підприємці Північної Європи.