Connect with us

Varför Governed AI är arbetsplatsens nästa frontier

Tankeledare

Varför Governed AI är arbetsplatsens nästa frontier

mm
A split-view comparison of an office desk showing the messy, chaotic reality of Shadow AI on one side and a clean, governed AI workspace on the other.

Vi tillbringade ett decennium med att bekämpa skugg-IT. Oauktoriserade SaaS-appar. Rogue-kalkylblad. Oauktoriserade Dropbox-konton. IT-chefer byggde hela efterlevnadsprogram runt problemet, och de flesta av dem förlorade ändå. Reco AI:s 2025 State of Shadow AI Report fann att endast 47% av SaaS-applikationerna inom den genomsnittliga företaget är formellt auktoriserade — och den genomsnittliga organisationen hanterar nu 490 av dem.

Det var det gamla problemet. Det nya är värre.

Skugg-AI-problemet är annorlunda den här gången

När en anställd registrerar sig för ett oauktoriserat projektledningsverktyg är skadan begränsad. Ett teams uppgifter finns på fel plats. Kanske läcker några data. Typen av data läckage är ganska förutsägbar.

AI är annorlunda. Anställda använder nu AI-verktyg för att skriva kundkommunikation, generera finansiella rapporter, sammanfatta konfidentiella möten och bygga automatiserade arbetsflöden, ofta utan att berätta för någon. Microsofts 2024 Work Trend Index fann att 78% av AI-användare tar med sig egna AI-verktyg till arbetet. Inte för att de försöker vara svåra eller illvilliga, utan för att verktygen är genuint användbara och de känner trycket av att prestera bättre. Men deras organisationer är för långsamma för att tillhandahålla processer, procedurer och verktyg.

Utdata här är problemet. När ett AI-verktyg utkastar ett kundavtal, sammanfattar ett juridiskt samtal eller genererar en kvartalsstyrelserapport, är risken inte bara “vi vet inte vilket verktyg de använde.” Det är att datapraxis, noggrannhet och beslutsfattande som är inbäddade i dessa utdata är helt osynliga för organisationen. Ingen granskade prompten. Ingen validerade resultatet. Ingen visste ens att det hände. Och eftersom AI verkar vara så säker kommer de flesta användare inte att kontrollera källorna och blint acceptera resultaten.

KPMG:s 2025 analys av skugg-AI rapporterade att 44% av anställda som använder AI på jobbet har gjort det på sätt som strider mot företagets policyer och riktlinjer. Det är inte en perifer beteende. Det är nästan hälften av arbetskraften.

Varför autonoma agenter gör det här svårare (och bättre)

Här är där samtalet blir intressant. Vi pratar inte bara om anställda som klistrar in text i ChatGPT längre. Vi går in i eran av AI-agenter — autonoma system som kan köra kontinuerligt, utföra multi-stegsuppgifter, ansluta till företagsverktyg och vidta åtgärder utan en mänsklig i loopen för varje beslut.

Deloittes 2025 Tech Trends rapport beskriver detta som skiftet mot en “silikonbaserad arbetskraft” och noterar att många tidiga agenter-ai-implementationer misslyckas precis för att organisationer försöker automatisera befintliga processer som är utformade för människor snarare än att ompröva hur arbetet ska flöda.

Detta är vägskälet. Autonoma AI kan gå åt två håll;

Väg ett: mer skugg-IT, men värre. Anställda spinner upp agenter med personliga konton, som körs på företagets IT, ansluter dem till företagsverktyg via personliga API-nycklar, genererar utdata som ingen annan i teamet kan se, granska eller reproducera. Agenten kör en daglig rapport. Rapporten är fel. Ingen fångar det på flera veckor för att ingen annan visste att det ens existerade. Detta är inte hypotetiskt. Det händer just nu i organisationer som behandlar AI-antagande som en individuell produktivitetsspel.

Väg två: styrda autonoma. Samma agent kör samma dagliga rapport — men inom en miljö där teamet kan se vad den gör, vilka data den berör, vem som ställde in den och vad den producerade. Agenten är delad, inte isolerad. Dess utdata är synliga. Dess behörigheter är begränsade. Och när något går fel, finns det en spår.

Vad Governed AI faktiskt ser ut som i praktiken

Styrning är ett av de orden som får byggare att rysa. Det betyder vanligtvis “långsamt”. Mer godkännanden. Mer process. Mer friktion mellan de som gör arbetet och de som hanterar risken.

Men styrda AI behöver inte fungera så. De bästa implementationerna jag har sett delar några egenskaper;

Synlighet som standard. Varje AI-genererad utdata — varje rapport, varje varning, varje utkast — är synlig för teamet, inte begraven i någons personliga chatt-historik. Detta handlar inte om övervakning. Det handlar om delad kontext. När en agent producerar en veckovis konkurrentanalys, bör hela teamet kunna se den, ifrågasätta den och bygga på den.

Begränsade behörigheter, inte blankettåtkomst. En agent som övervakar dina felloggar behöver inte åtkomst till ditt CRM. En agent som utkastar socialt innehåll behöver inte åtkomst till dina finansiella data. Principen om minsta behörighet är inte ny. Det är bara sällan tillämpat på AI-system — och det borde vara.

Granskningsbara spår som faktiskt existerar. McKinseys playbook på agenter-ai-säkerhet betonar att autonoma agenter presenterar “en mängd nya och komplexa risker och sårbarheter som kräver uppmärksamhet och åtgärd nu.” En av de mest grundläggande: om du inte kan spåra vad en agent gjorde, vilka data den åtkom, och vilka beslut den fattade, kan du inte styra den. Punkt slut.

Där organisationer får det rätt

Företagen som distribuerar AI-agenter väl är inte de med de mest avancerade modellerna. De är de med de tydligaste driftsgränserna.

Jag ser de starkaste resultaten i tre områden;

Rapportering och övervakning. Agenter som kör schemalagda rapporter — dagliga möten, veckovisa måttsummeringar, felloggsammanfattningar — och levererar dem direkt till teamkanalerna. Värdet här är inte bara automatisering. Det är konsekvent. Rapporten körs varje morgon, oavsett om någon kommer ihåg att hämta data eller inte. Och eftersom det är synligt för teamet, fångas fel snabbare.

Innehålls- och kommunikationsflöden. Utkast, inte publicering. Agenter som producerar första utkasten av interna uppdateringar, mötesammanfattningar eller utgående innehåll — och sedan ytor dem för mänsklig granskning. Styrningsbiten är viktig här eftersom kvalitetsstången är annorlunda när utdata går till en kund jämfört med en intern Slack-kanal.

Analys och varning. Agenter som tittar på instrumentpaneler, flaggar avvikelser och skickar varningar när mått faller utanför förväntade intervall. Detta ersätter “någon borde titta på det här” problemet som plågar varje team som någonsin förlorat en helg till ett oövervakat produktionsproblem.

Vad de flesta organisationer fortfarande får fel

Det största misstaget är att behandla AI-styrning som ett policyproblem snarare än ett infrastrukturproblem.

Du kan skriva alla acceptabla användningspolicyer du vill. Om dina anställda inte har en auktoriserad, lättanvänd miljö för att distribuera AI som faktiskt fungerar för deras dagliga behov, kommer de att dirigera runt din policy. Det är inte ett människoproblem. Det är ett designproblem.

IDC:s analys av skugg-AI gör denna punkt tydligt: stealth-AI-produktivitet är “strypande företags-AI-antagande” eftersom organisationer är fångade mellan att vilja vinna och frukta riskerna. Resultatet är inaktivitet — vilket är den sämsta möjliga utgången, eftersom det garanterar okontrollerad antagande.

Det andra misstaget är att behandla styrning och hastighet som motsatser. De är inte. De bäst styrda AI-miljöerna är också de snabbaste — eftersom teamen inte tillbringar tid med att återskapa arbete som redan existerar, felsöka agenter de inte kan se, eller återuppbygga arbetsflöden som bröt för att någon lämnade företaget och deras personliga AI-konto gick med dem.

Frontieren är miljön, inte modellen

Branschens uppmärksamhet är fokuserad på modellförmågor. Större kontextfönster. Bättre resonemang. Multimodala indata. Det betyder. Men för de flesta team som försöker få jobbet gjort, är flaskhalsen inte modellen. Det är miljön modellen körs i.

Kan teamet se vad den gör? Kan de kontrollera vad den åtkommer? Kan de dela vad den producerar? Kan de lita på att den fungerar med rätt data och rätt begränsningar?

Dessa är infrastrukturfrågor, inte modellfrågor. Och de är de som kommer att skilja organisationer som får verkligt, varaktigt värde från AI från de som bara lägger till ett annat lager av skugg-IT.

Frontieren är inte att bygga smartare modeller. Det är att bygga miljöer där smarta modeller faktiskt kan lita på att fungera.

Marcel Folaron är medgrundare av CoChat, där han bygger styrda AI-arbetsutrymmen för team. Han har tillbringat det senaste decenniet med att arbeta i skärningspunkten mellan samarbete i team, automatisering och företagsledning.