Connect with us

Nebezpečí říkat ne umělé inteligenci

Myslitelé

Nebezpečí říkat ne umělé inteligenci

mm

Minulý týden jsem se připojil k hovoru potenciálního klienta. Přítomni byli všichni lidé z bezpečnosti a sítí, plus management. Rozliční prezentéři pokrývali témata současné doby. Pak někdo začal vysvětlovat, jak jeho technické týmy používají umělou inteligenci ve své denní práci.

Prezentér byl nadšený. Našel způsob, jak zkomprimovat tři dny manuální práce kopírování a vkládání na pár minut pomocí nástrojů umělé inteligence. Super cool, že? Chápu, co dělal – a proč to dělal. To je slib umělé inteligence!

Ale jako osoba zodpovědná za bezpečnost v místnosti, jsem si myslel: “Bože můj.” “Jaký je ten nástroj? Kdo vlastní ten nástroj?” Protože vkládá zákaznické informace do těchto platforem – cenová data. Možná finanční informace? Cokoliv to může být. Všechno proto, aby urychlil svůj pracovní postup.

Takže jsem položil očividnou otázku: “Máte politiku umělé inteligence?” Šli jsme hledat. Našli jsme stručnou poznámku zakopanou v přijatelném použití. Něco vágního o nástrojích umělé inteligence. Čte někdo to vlastně? Pravděpodobně ne. Vous podepisujete během nástupu a jste hotovi.

Vaši lidé již používají umělou inteligenci

To, co jsem se naučil, když jsem mluvil s firmami napříč všemi odvětvími, je, že umělá inteligence je již všude, zda to uznáváte nebo ne. Nedávný výzkum potvrzuje tuto realitu – 75% pracovníků nyní používá umělou inteligenci v práci, téměř zdvojnásobeno za pouhých šest měsíců.

Minulý týden v Houstonu jsem potkal chlapíka, jehož společnost vrtá za ropu. Mají platformu umělé inteligence, která analyzuje složení půdy a povětrnostní podmínky, aby optimalizovala místa vrtů. Vysvětlil, jak zohledňují údaje o srážkách – “Věděli jsme, že pršelo o 18 dní více, než tomu bylo v této oblasti, takže kapacita ropy je pravděpodobně vyšší, což umožňuje vrtům dostat se hlouběji.”

Zatímco já jsem používal umělou inteligenci k vytvoření itineráře pro Německo. Mluvil jsem s firmami ve zdravotnictví, které ji používají pro platformy telehealth. Finanční týmy běžící rizika. I potkal jsem někoho, kdo provozuje limonádový obchod a využívá umělou inteligenci nějakým způsobem.

Bod je: Umělá inteligence je v každém odvětví, každém pracovním postupu. Nepřichází – je zde. A většina z těchto organizací je ve stejné lodi, ve které jsme byli. Vědí, že jejich lidé ji používají. Oni prostě nevědí, jak ji spravovat.

Shadow IT se stává nebezpečným rychle

Víte, co se stane, když řeknete lidem, že nesmí používat umělou inteligenci? Je to přesně jako když řeknete svému teenagerovi, aby nikdy nepil. GRATULUJI, nyní budou pít v nejnebezpečnějších způsobech, protože jste vytvořili prohibici.

Čísla prokazují tuto realitu: 72% generativní umělé inteligence v podnikových firmách je shadow IT, přičemž zaměstnanci používají osobní účty k přístupu k aplikacím umělé inteligence.

Lidé si jdou koupit druhý laptop. Používají své osobní telefony, které nejsou chráněny firemní bezpečností. Pak používají umělou inteligenci stejně. Najednou ztrácíte přehled a vytváříte přesně ty mezery, které jste se snažili zabránit.

Jsem viděl tento vzorec dříve. Týmy bezpečnosti, které říkají “ne” všemu, nakonec donutí lidi jít podzemím – a ztratí veškerý přehled o tom, co se skutečně děje.

Bezpečnost se stává nepřítelem

Existuje toto vnímání, že týmy bezpečnosti jsou “zlí chlapíci v suterénu.” Lidé si myslí: “Och, bezpečnost pravděpodobně řekne ne, tak je to jedno. Budu to dělat stejně.”

My jsme vytvořili toto nedorozumění. A s umělou inteligencí lidé předpokládají, že my ji uzavřeme, takže se ani nebudou ptát. To zabíjí komunikaci, kterou vlastně chcete.

Měl jsem vývojáře, který přišel ke mně po konferenční prezentaci. Používá API každý den a snažil se upoutat pozornost svého týmu bezpečnosti ohledně testování a validace. Ale rozhodl se neptát, protože předpokládal, že jim řeknou ne.

Důvěrný deficit vás stojí všechno

Toto je rozhovor, který chcete: někdo z marketingu přijde k vám a řekne: “Hej, chci použít tento nástroj umělé inteligence. Jaký je náš postoj k němu? Jak ho mohu použít bezpečně?” To je správný způsob, jak spolupracovat s bezpečností.

Budeme to prověřovat. Chápeme, že umělá inteligence bude součástí podnikání. Nebudeme říkat ne – chceme, aby lidé používali bezpečně. Ale potřebujeme tuhle konverzaci první.

Když lidé předpokládají, že bezpečnost všechno zastaví, přestanou se ptát. Přihlásí se pomocí osobních e-mailů, začnou vkládat firemní data do neověřených platforem a ztratíte veškerý přehled a kontrolu. Výsledek je předvídatelný: 38% zaměstnanců sdílí citlivé pracovní informace s nástroji umělé inteligence bez povolení zaměstnavatele.

Organizace budou používat umělou inteligenci, ať už chceme nebo ne. Otázka je: jak zajistíme, aby naši zaměstnanci mohli využívat umělou inteligenci bezpečně, aniž by ohrozili firemní data, soukromí nebo bezpečnost?

Začněte s chytrými ano, ne s absolutním ne

Toto je to, co skutečně funguje: proaktivní komunikace. Posílejte newslettery nebo pořádайте 30minutové webináře, které říkají: “Povolujeme umělou inteligenci v rámci organizace. Toto je, jak ji použít bezpečně.” Zaznamenejte relace pro lidi, kteří je zmeškáli.

Ukažte příklady zaměstnanců, kteří úspěšně spolupracovali s bezpečností. Učiněte tyto partnerství viditelnými místo toho, abyste byli stínovou entitou, o které se lidé domnívají, že je uzavřou.

Potřebujete budovat důvěru mezi bezpečností a zaměstnanci. Na konci dne všichni používáme umělou inteligenci velkými a malými způsoby. Použil jsem ji k naplánování mé cesty do Německa – řekl jsem jí, aby vytvořila třídní itinerář a dostal skvělé výsledky.

Z podnikového hlediska potřebujeme uznat, kde umělá inteligence sedí v podnikání. Zvýší-li to výnosy? Pravděpodobně. Obchodní případ je jasný: Umělá inteligence se přesunula z ‘experimentu’ na ‘nezbytnost’, s podnikovým výdajem skokově zvýšeným o 130%. Co tedy děláme? Jak poskytujeme ochranu a zároveň umožňujeme produktivitu?

Cíl není dokonalá kontrola, to je nemožné. Cíl je informované přijetí umělé inteligence s ochrannými zábranami, které skutečně fungují v praxi. Nové riziko pro bezpečnost je stát se izolovaným od používání umělé inteligence – používání, které se děje s nebo bez vás.

Pro organizace, které jsou vážné o tom, aby to udělaly správně, odborníci doporučují vyvinout jasné politiky řízení umělé inteligence, které vyvažují podnikové potřeby s požadavky na bezpečnost předtím, než použití stínové umělé inteligence úplně ztratí kontrolu.

Jeremy Ventura je Field CISO ve globálním systémovém integrátoru Myriad360, kde pomáhá organizacím zvládat komplexní bezpečnostní výzvy v oblasti cloudu, zabezpečení API a nových technologií.