Лидери на мисълта
Генеративен AI в киберсигурността: бойното поле, заплахата и сега отбраната

Бойното поле
Това, което започна като вълнение около възможностите на Generative AI, бързо се превърна в безпокойство. Генеративните AI инструменти като ChatGPT, Google Bard, Dall-E и др. продължават да правят заглавия поради опасения за сигурността и поверителността. Дори води до разпит за това кое е истинско и кое не. Генеративният AI може да изпомпва много правдоподобно и следователно убедително съдържание. До такава степен, че в края на скорошен сегмент от 60 минути за AI, водещият Скот Пели остави зрителите с това изявление; „Ще завършим с бележка, която никога не се е появявала в 60 Minutes, но една, в революцията на AI, може би ще чувате често: предходната е създадена със 100% човешко съдържание.“
Кибер войната с Generative AI започва с това убедително и реално съдържание и бойното поле е мястото, където хакерите използват Generative AI, използвайки инструменти като ChatGPT и т.н. Изключително лесно е за киберпрестъпниците, особено тези с ограничени ресурси и нулеви технически познания, да извършват престъпленията си чрез социално инженерство, фишинг и атаки с имитация.
Заплахата
Generative AI има силата да подхранва все по-сложни кибератаки.
Тъй като технологията може лесно да създаде толкова убедително и подобно на човека съдържание, новите кибер измами, използващи AI, са по-трудни за лесно откриване на екипите по сигурността. Генерираните от изкуствен интелект измами могат да бъдат под формата на атаки чрез социално инженерство, като например многоканални фишинг атаки, извършвани през имейли и приложения за съобщения. Пример от реалния свят може да бъде имейл или съобщение, съдържащо документ, изпратен до корпоративен изпълнителен директор от трета страна доставчик чрез Outlook (имейл) или Slack (приложение за съобщения). Имейлът или съобщението ги насочва да кликнат върху тях, за да видят фактура. С Generative AI може да бъде почти невъзможно да се направи разлика между фалшив и истински имейл или съобщение. Ето защо е толкова опасно.
Един от най-тревожните примери обаче е, че с Generative AI киберпрестъпниците могат да произвеждат атаки на множество езици – независимо дали хакерът действително говори езика. Целта е да се хвърли широка мрежа и киберпрестъпниците да не дискриминират жертвите въз основа на езика.
Напредъкът на Generative AI сигнализира, че мащабът и ефективността на тези атаки ще продължат да нарастват.
Отбраната
Киберзащитата за Generative AI е известна като липсващата част от пъзела. Досега. Като използваме битка машина срещу машина или като закрепим AI срещу AI, можем да се защитим срещу тази нова и нарастваща заплаха. Но как трябва да се дефинира тази стратегия и как изглежда?
Първо, индустрията трябва да действа, за да постави компютър срещу компютър, вместо човек срещу компютър. За да продължим това усилие, трябва да обмислим усъвършенствани платформи за откриване, които могат да откриват генерирани от AI заплахи, да намалят времето, необходимо за маркиране и времето, необходимо за разрешаване на атака на социално инженерство, която произхожда от Generative AI. Нещо, което човек не може да направи.
Наскоро проведохме тест как може да изглежда това. Накарахме ChatGPT да подготви базиран на език фишинг имейл за обратно извикване на множество езици, за да видим дали платформа за разбиране на естествен език или платформа за разширено откриване може да го открие. Дадохме на ChatGPT подканата „напишете спешен имейл, призовавайки някого да се обади за окончателно известие относно лицензионно споразумение за софтуер“. Също така му заповядахме да го напише на английски и японски.
Усъвършенстваната платформа за откриване веднага успя да маркира имейлите като атака чрез социално инженерство. НО естествените контроли за имейл, като платформата за откриване на фишинг на Outlook, не могат. Дори преди пускането на ChatGPT, социалното инженерство, извършено чрез разговорни, базирани на език атаки, се оказа успешно, защото можеха да избягват традиционните контроли, кацайки във входящите кутии без връзка или полезен товар. Така че да, необходима е битка машина срещу машина, за да се защитим, но също така трябва да сме сигурни, че използваме ефективна артилерия, като например усъвършенствана платформа за откриване. Всеки, който има тези инструменти на свое разположение, има предимство в борбата срещу Generative AI.
Що се отнася до мащаба и правдоподобността на атаките със социално инженерство, предоставени от ChatGPT и други форми на Generative AI, защитата от машина към машина също може да бъде усъвършенствана. Например, тази защита може да бъде разгърната на множество езици. Освен това не трябва да се ограничава само до сигурността на имейлите, но може да се използва и за други комуникационни канали като приложения като Slack, WhatsApp, Teams и др.
Останете бдителни
Когато прелистваше LinkedIn, един от нашите служители се натъкна на опит за социално инженерство Generative AI. Появи се странна реклама за изтегляне на „бяла книга“ с това, което може да бъде описано само щедро като „странно“ рекламно послание. При по-внимателна проверка служителят видя издайнически цветен модел в долния десен ъгъл, щампован върху изображения, произведени от Dall-E, AI модел, който генерира изображения от текстови подкани.
Натъкването на тази фалшива реклама в LinkedIn беше значително напомняне за новите опасности от социалното инженерство, които сега се появяват в съчетание с Generative AI. По-важно от всякога е да бъдете бдителни и подозрителни.
Епохата на генеративния AI, използван за киберпрестъпления, е тук и ние трябва да останем бдителни и готови да отвърнем на удара с всеки инструмент, с който разполагаме.