Tanke ledare
AI-First betyder sÀkerhet först

Köp en helt ny cykel till ett barn, sĂ„ fĂ„r cykeln all uppmĂ€rksamhet â inte den glĂ€nsande hjĂ€lmen som följer med. Men förĂ€ldrar uppskattar hjĂ€lmen.
Jag Àr rÀdd att mÄnga av oss idag Àr mer som barn nÀr det gÀller AI. Vi fokuserar pÄ hur coolt det Àr och hur snabbt vi kan anvÀnda det. Inte sÄ mycket pÄ vad vi kan göra för att vara sÀkra som pÄ hur vi anvÀnder det. Det Àr synd, för man kan inte dra nytta av det ena utan det andra.
Enkelt uttryckt Àr det inte bara riskabelt att tillÀmpa AI utan att noggrant planera för sÀkerheten först. Det Àr en rak vÀg utför en klippa.
Vad betyder AI-sÀkerhet ens?
AI-sÀkerhet innefattar en mÀngd steg. Men kanske den viktigaste delen Àr nÀr att ta dem. För att vara effektiv mÄste AI-sÀkerhet vara efter design.
Det betyder att vi funderar över hur vi kan förebygga skada innan vi testar den. Vi tar reda pĂ„ hur vi kan se till att AI:n fungerar och genererar resultat i linje med vĂ„ra vĂ€rderingar och sociala förvĂ€ntningar först â inte efter att vi fĂ„tt nĂ„gra hemska resultat.
Att designa för AI-sÀkerhet innebÀr ocksÄ att tÀnka pÄ hur man kan göra den robust, eller att den kan fungera förutsÀgbart Àven i ogynnsamma situationer. Det innebÀr att göra AI transparent, sÄ att de beslut AI fattar Àr förstÄeliga, granskningsbara och opartiska.
Men det inkluderar ocksÄ att titta pÄ den vÀrld dÀr AI:n kommer att fungera. Vilka institutionella och rÀttsliga skyddsÄtgÀrder behöver vi, sÀrskilt för att följa gÀllande myndighetsregler? Och jag kan inte nog betona mÀnniskokomponenten: Vilken inverkan kommer anvÀndningen av AI att ha pÄ de mÀnniskor som interagerar med den?
SÀkerhet genom design innebÀr att integrera AI-sÀkerhet i alla vÄra processer, arbetsflöden och verksamheter innan vi skriver vÄr första prompt.
Riskerna övervÀger oron
Alla hĂ„ller inte med. NĂ€r de hör âsĂ€kerhet förstâ hör vissa âgĂ„ sĂ„ försiktigt och lĂ„ngsamt att du blir efterâ. Det Ă€r förstĂ„s inte vad sĂ€kerhet först betyder. Det behöver inte hĂ€mma innovation eller fördröja tiden till marknaden. Och det betyder inte en oĂ€ndlig ström av pilotprojekt som aldrig skalas upp. TvĂ€rtom.
Det innebÀr att förstÄ riskerna med inte designa sÀkerhet i AI. Ta bara nÄgra exempel.
- Deloittes center för finansiella tjÀnster förutspÄr att GenAI kan vara ansvarigt för bedrÀgerier som nÄr 40 miljarder USD enbart i USA Är 2027, frÄn 12.3 miljarder USD Är 2023, en Ärlig tillvÀxttakt pÄ 32 %.
- Partiska beslut. Falldokument partisk medicinsk vÄrd pÄ grund av AI som hade trÀnats pÄ partisk data.
- DÄliga beslut som inspirerar till fler dÄliga beslut. VÀrre Àn ett initialt dÄligt beslut sporrat av felaktig AI, studier indikerar att dessa felaktiga beslut kan bli en del av hur vi tÀnker och fattar framtida beslut.
- Verkliga konsekvenser. AI som ger dÄliga medicinska rÄd har varit ansvarig för dödliga patientresultat. RÀttsliga problem har uppstÄtt genom att en AI:s hallucinationer har Äberopats som prejudikat. Och programvarufel som uppstÄtt pÄ grund av att en AI-assistent har lÀmnat felinformation har skadat företagsprodukter och deras rykte och lett till utbrett missnöje hos anvÀndarna.
Och saker och ting kommer att bli Ànnu mer intressanta.
Adventen och snabb implementering av agent AI, AI som kan fungera autonomt för att vidta ÄtgÀrder baserat pÄ fattade beslut, kommer att förstÀrka vikten av att designa för AI-sÀkerhet.
En AI-agent som kan agera för din rÀkning kan vara oerhört anvÀndbar. IstÀllet för att berÀtta om de bÀsta flygen för en resa kan den hitta dem och boka dem Ät dig. Om du vill returnera en produkt kan ett företags AI-agent inte bara berÀtta om returpolicyn och hur du gör en retur, utan ocksÄ hantera hela transaktionen Ät dig.
UtmĂ€rkt â sĂ„ lĂ€nge agenten inte hallucinerar en flygresa eller missköter din ekonomiska information. Eller missbrukar företagets returpolicy och vĂ€grar giltiga returer.
Det Ă€r inte alltför svĂ„rt att se hur de nuvarande AI-sĂ€kerhetsriskerna lĂ€tt skulle kunna kaskadföras med en mĂ€ngd AI-agenter som springer runt och fattar beslut och agerar, sĂ€rskilt eftersom de sannolikt inte kommer att agera ensamma. Mycket av det verkliga vĂ€rdet i agentbaserad AI kommer att komma frĂ„n team av agenter, dĂ€r enskilda agenter hanterar delar av uppgifter och samarbetar â agent till agent â ââför att fĂ„ arbete gjort.
SÄ hur kan man omfamna AI-sÀkerhet genom design utan att hÀmma innovation och döda dess potentiella vÀrde?
SĂ€kerhet genom design i praktiken
Ad hoc-sÀkerhetskontroller Àr inte lösningen. Men att integrera sÀkerhetsrutiner i varje fas av en AI-implementering Àr det.
Börja med data. Se till att data Àr mÀrkta, kommenterade dÀr det behövs, fria frÄn bias och av hög kvalitet. Detta gÀller sÀrskilt för trÀningsdata.
TrÀna dina modeller med mÀnsklig feedback, eftersom mÀnskligt omdöme Àr avgörande för att forma modellens beteende. FörstÀrkningsinlÀrning med mÀnsklig feedback (RLHF) och andra liknande tekniker gör det möjligt för annotatörer att betygsÀtta och vÀgleda svar, vilket hjÀlper LLM:er att generera resultat som Àr sÀkra och i linje med mÀnskliga vÀrderingar.
Stresstesta sedan en modell innan du slÀpper den. Röda team som försöker provocera fram osÀkert beteende genom att anvÀnda kontradiktoriska uppmaningar, edge-fall och försök till jailbreak kan avslöja sÄrbarheter. Att ÄtgÀrda dem innan de nÄr allmÀnheten hÄller saker sÀkra innan det uppstÄr ett problem.
Medan dessa tester sÀkerstÀller att dina AI-modeller Àr robusta, fortsÀtt övervaka dem med ett öga pÄ nya hot och justeringar som kan behövas av modellerna.
PÄ liknande sÀtt bör innehÄllskÀllor och digitala interaktioner regelbundet övervakas för tecken pÄ bedrÀgerier. AnvÀnd en hybridstrategi mellan AI och mÀnniska, dÀr AI-automation hanterar den enorma mÀngd data som ska övervakas, och skickliga mÀnniskor hanterar granskningar för att sÀkerstÀlla noggrannhet.
Att tillÀmpa agentbaserad AI krÀver Ànnu mer omsorg. Ett grundlÀggande krav: trÀna agenten att kÀnna till sina begrÀnsningar. NÀr den stöter pÄ osÀkerhet, etiska dilemman, nya situationer eller sÀrskilt viktiga beslut, se till att den vet hur man ber om hjÀlp.
Se ocksÄ till att dina agenter kan spÄras. Detta Àr sÀrskilt viktigt sÄ att interaktionerna endast sker med verifierade anvÀndare, för att undvika att bedrÀgliga aktörer pÄverkar agentens handlingar.
Om de verkar fungera effektivt kan det vara frestande att slÀppa loss agenterna och lÄta dem göra sitt. VÄr erfarenhet sÀger att man bör fortsÀtta övervaka dem och de uppgifter de utför för att hÄlla utkik efter fel eller ovÀntat beteende. AnvÀnd bÄde automatiserade kontroller och mÀnsklig granskning.
Faktum Àr att en viktig del av AI-sÀkerhet Àr regelbunden mÀnsklig medverkan. MÀnniskor bör medvetet engageras dÀr kritisk bedömning, empati eller nyanser och tvetydighet Àr inblandade i ett beslut eller en handling.
à terigen, för att vara tydlig, detta Àr alla metoder som du bygger in i AI-implementeringen i förvÀg, genom designDe Àr inte resultatet av att nÄgot gÄr fel och man sedan rusar för att lista ut hur man minimerar skadan.
Fungerar det?
Vi har tillÀmpat en AI Safety First-filosofi och ett "by design"-ramverk med vÄra kunder under hela GenAI:s framvÀxt och nu pÄ snabbspÄret mot agentbaserad AI. Vi upptÀcker att det, i motsats till oron för att det saktar ner saker och ting, faktiskt hjÀlper till att accelerera dem.
Agentic AI har potential att sĂ€nka kostnaden för kundsupport med 25â50 %, till exempel, samtidigt som kundnöjdheten ökar. Men allt beror pĂ„ förtroende.
MÀnniskor som anvÀnder AI mÄste lita pÄ den, och kunder som interagerar med AI-aktiverade mÀnskliga agenter eller med faktiska AI-agenter fÄr inte uppleva en enda interaktion som skulle undergrÀva deras förtroende. En dÄlig upplevelse kan utplÄna förtroendet för ett varumÀrke.
Vi litar inte pĂ„ det som inte Ă€r sĂ€kert. SĂ„ nĂ€r vi bygger in sĂ€kerhet i varje lager av den AI vi ska lansera kan vi göra det med tillförsikt. Och nĂ€r vi Ă€r redo att skala upp det kan vi göra det snabbt â med tillförsikt.
Ăven om det kan verka övervĂ€ldigande att omsĂ€tta AI Safety First i praktiken, Ă€r du inte ensam. Det finns mĂ„nga experter som kan hjĂ€lpa till och partners som kan dela med sig av vad de har lĂ€rt sig och lĂ€r sig sĂ„ att du kan utnyttja vĂ€rdet av AI pĂ„ ett sĂ€kert sĂ€tt utan att sakta ner dig.
AI har varit en spÀnnande resa hittills, och allt eftersom fÀrden accelererar blir det upplyftande. Men jag Àr ocksÄ glad att jag har hjÀlmen pÄ mig.












