Spojte se s námi

Myšlenkové vůdce

AI na prvním místě znamená bezpečnost na prvním místě

mm

Kupte dítěti úplně nové kolo a veškerou pozornost si získá kolo – ne lesklá helma, která ho doprovází. Rodiče si ale helmu ocení.

Obávám se, že mnoho z nás se dnes v oblasti umělé inteligence chová spíš jako děti. Soustředíme se na to, jak je skvělá a jak rychle s ní dokážeme pracovat. Ne tak moc na to, co můžeme udělat pro bezpečnost, jako spíše na to, jak ji používáme. Je to škoda, protože bez výhod jednoho nemůžete mít výhody druhého.

Jednoduše řečeno, použití umělé inteligence bez pečlivého plánování bezpečnosti není jen riskantní. Je to přímá cesta z útesu.

Co vlastně znamená bezpečnost umělé inteligence?

Bezpečnost umělé inteligence zahrnuje řadu kroků. Ale možná nejdůležitějším prvkem je kdy aby je přijali. Aby byla bezpečnost umělé inteligence efektivní, musí být podle návrhu.

To znamená, že než si umělou inteligenci vyzkoušíme, zvážíme, jak předejít újmám. Nejdříve zjistíme, jak zajistit, aby fungovala a generovala výsledky v souladu s našimi hodnotami a společenskými očekáváními – ne až poté, co dosáhneme nějakých hrozných výsledků.

Navrhování s ohledem na bezpečnost umělé inteligence zahrnuje také přemýšlení o tom, jak ji učinit robustní nebo schopnou fungovat předvídatelně i v nepříznivých situacích. Znamená to zajistit transparentnost umělé inteligence, aby rozhodnutí, která umělá inteligence činí, byla srozumitelná, auditovatelná a nezaujatá.

Zahrnuje to ale také pohled na svět, ve kterém bude umělá inteligence fungovat. Jaké institucionální a právní záruky potřebujeme, zejména pro dodržování platných vládních předpisů? A nemohu dostatečně zdůraznit lidskou složku: Jaký bude dopad používání umělé inteligence na lidi, kteří s ní interagují?

Bezpečnost již od návrhu znamená začlenění bezpečnosti s využitím umělé inteligence do všech našich procesů, pracovních postupů a operací ještě předtím, než napíšeme první příkaz.

Rizika převažují nad obavami

Ne všichni s tím souhlasí. Když slyší „bezpečnost na prvním místě“, někteří slyší „kročte tak opatrně a pomalu, abyste zůstali pozadu“. To samozřejmě bezpečnost na prvním místě neznamená. Nemusí to brzdit inovace ani zpomalovat uvedení na trh. A neznamená to nekonečný proud pilotních projektů, které se nikdy neprosadí. Právě naopak.

Znamená to pochopit rizika, která ne navrhování bezpečnosti v umělé inteligenci. Vezměme si alespoň několik příkladů.

  • Centrum finančních služeb společnosti Deloitte předpovídá, že GenAI by mohla být zodpovědná za ztráty způsobené podvody v samotných USA do roku 2027, které dosáhly 40 miliard USD, oproti 12.3 miliardám USD v roce 2023, což představuje 32% složenou roční míru růstu.
  • Zaujatá rozhodnutí. Dokument o případech zaujatá lékařská péče kvůli umělé inteligenci, která byla trénována na zkreslených datech.
  • Špatná rozhodnutí, která inspirují další špatná rozhodnutí. Horší než počáteční špatné rozhodnutí vyvolané vadnou umělou inteligencí, studie naznačují že tato chybná rozhodnutí se mohou stát součástí našeho myšlení a budoucích rozhodnutí.
  • Skutečné důsledky. Umělá inteligence, která poskytuje špatné lékařské rady, je zodpovědná za smrtelné následky u pacientů. Právní problémy vyplynuly z uvádění halucinací umělé inteligence jako právního precedentu. A softwarové chyby způsobené tím, že asistent umělé inteligence poskytoval dezinformace, poškodily produkty společnosti a její reputaci a vedly k rozsáhlé nespokojenosti uživatelů.

A věci se začnou ještě více vyvíjet.

Příchod a rychlé přijetí agentní umělé inteligenceAI, která může fungovat autonomně a jednat na základě svých rozhodnutí, zdůrazní důležitost navrhování s ohledem na bezpečnost AI.

Agent s umělou inteligencí, který může jednat vaším jménem, ​​by mohl být nesmírně užitečný. Místo toho, aby vám radil o nejlepších letech na cestu, mohl by je najít a rezervovat za vás. Pokud chcete vrátit produkt, agent s umělou inteligencí dané společnosti by vám mohl nejen sdělit podmínky vrácení a jak podat žádost o vrácení, ale také za vás vyřídit celou transakci.

Skvělé – pokud agent nepředstírá let nebo nezneužívá vaše finanční informace. Nebo pokud nepochybuje o zásadách vrácení zboží dané společnosti a neodmítne platné vrácení.

Není příliš těžké si představit, jak by se současná bezpečnostní rizika umělé inteligence mohla snadno nahromadit v podobě množství agentů umělé inteligence, kteří pobíhají kolem, rozhodují se a jednají, zejména proto, že pravděpodobně nebudou jednat sami. Velká část skutečné hodnoty agentní umělé inteligence bude pocházet z týmů agentů, kde jednotliví agenti zpracovávají části úkolů a spolupracují – agent s agentem – na dokončení práce.

Jak tedy přijmout bezpečnost umělé inteligence již od návrhu, aniž byste brzdili inovace a ničili její potenciální hodnotu?

Bezpečnost již od návrhu v praxi

Ad hoc bezpečnostní kontroly nejsou řešením. Integrace bezpečnostních postupů do každé fáze implementace umělé inteligence však ano.

Začněte s daty. Ujistěte se, že jsou data označena, anotována tam, kde je to potřeba, bez zkreslení a vysoce kvalitní. To platí zejména pro trénovací data.

Trénujte své modely pomocí lidské zpětné vazby, protože lidský úsudek je nezbytný pro formování chování modelu. Posilovací učení s lidskou zpětnou vazbou (RLHF) a další podobné techniky umožňují anotátorům hodnotit a řídit reakce, což pomáhá LLM generovat výstupy, které jsou bezpečné a v souladu s lidskými hodnotami.

Pak před vydáním modelu proveďte zátěžový test. Červené týmy, které se snaží vyprovokovat nebezpečné chování pomocí kontradiktorních výzev, okrajových případů a pokusů o jailbreak, mohou odhalit zranitelnosti. Jejich oprava dříve, než se dostanou veřejnosti, udrží věci v bezpečí dříve, než nastane problém.

I když toto testování zajišťuje robustnost vašich modelů umělé inteligence, neustále je sledujte s ohledem na nově vznikající hrozby a úpravy, které by mohly být u modelů nutné.

V podobném duchu pravidelně monitorujte zdroje obsahu a digitální interakce, zda neobsahují známky podvodu. Rozhodující je používat hybridní přístup umělé inteligence a člověka, kdy necháte automatizaci umělé inteligence postarat se o obrovský objem monitorovaných dat a kvalifikované lidi zajistí kontroly za účelem vymáhání práva a zajištění přesnosti.

Aplikace agentní umělé inteligence vyžaduje ještě větší pečlivost. Základní požadavek: naučit agenta, aby znal svá omezení. Když se setká s nejistotou, etickými dilematy, novými situacemi nebo obzvláště důležitými rozhodnutími, ujistěte se, že ví, jak požádat o pomoc.

Také navrhněte sledovatelnost vašich agentů. To je obzvláště důležité, aby interakce probíhaly pouze s ověřenými uživateli, a zabránilo se tak podvodným aktérům ovlivňujícím jednání agentů.

Pokud se zdá, že pracují efektivně, mohlo by být lákavé nechat agenty volnou ruku a nechat je dělat si svou práci. Naše zkušenosti ukazují, že je třeba je a úkoly, které plní, neustále sledovat, abyste se vyhnuli chybám nebo neočekávanému chování. Používejte jak automatizované kontroly, tak i lidskou kontrolu.

Ve skutečnosti je základním prvkem bezpečnosti umělé inteligence pravidelné zapojení lidí. Lidé by měli být záměrně zapojeni tam, kde se v rozhodnutí nebo jednání objevuje kritický úsudek, empatie nebo nuance a nejednoznačnost.

Aby bylo jasno, toto všechno jsou postupy, které předem zabudujete do implementace umělé inteligence, podle návrhuNejsou výsledkem toho, že se něco pokazí, a pak se člověk snaží vymyslet, jak minimalizovat škody.

Má to funguje?

Filozofii „bezpečnost na prvním místě“ a rámec „by design“ pro naše klienty uplatňujeme od samého začátku vzniku GenAI a nyní jsme na rychlé cestě k agentní umělé inteligenci. Zjišťujeme, že navzdory obavám ze zpomalování procesů je ve skutečnosti urychluje.

Agentická umělá inteligence má potenciál snížit náklady na zákaznickou podporu o 25–50 % a zároveň zvýšit spokojenost zákazníků. To vše ale závisí na důvěře.

Lidé používající umělou inteligenci jí musí důvěřovat a zákazníci interagující s lidskými agenty s umělou inteligencí nebo se skutečnými agenty umělé inteligence nesmí zažít jedinou interakci, která by podkopala jejich důvěru. Jedna špatná zkušenost může zničit důvěru ve značku.

Nevěříme tomu, co není bezpečné. Takže když zabudujeme bezpečnost do každé vrstvy umělé inteligence, kterou se chystáme zavést, můžeme tak učinit s jistotou. A až budeme připraveni ji škálovat, budeme schopni tak učinit rychle – s jistotou.

I když se zavedení principu „Bezpečnost s umělou inteligencí na prvním místě“ může zdát náročné, nejste sami. Existuje mnoho odborníků, kteří vám mohou pomoci, a partnerů, kteří se mohou podělit o to, co se naučili a učí, abyste mohli bezpečně využít hodnotu umělé inteligence, aniž byste se zpomalili.

Umělá inteligence je zatím vzrušující jízda a jak se zrychluje, tak mě to baví. Jsem ale také rád, že mám na hlavě helmu.

Joe Anderson je vrchním ředitelem pro poradenství a digitální transformaci ve společnosti TaskUs, kde vede strategii a inovace pro vstup na trh. Zaměřuje se na prolínání umělé inteligence, zákaznické zkušenosti a digitálních operací a vede novou konzultační praxi v oblasti umělé inteligence pro agenty ve společnosti TaskUs.