Følg os

Tanke ledere

AI i virksomheden: Beregning af de fulde omkostninger

mm

AI har bevæget sig ud over teori og nyhed. For mange organisationer sidder det nu side om side med kernesystemer som en del af infrastrukturen. Mange mennesker tænker stadig primært på offentlige LLM'er og chatbots – noget, man kan dykke ned i og ud af i en browser og kassere, når man er færdig. Når man ser på AI gennem denne linse, kan man gå glip af det bredere udvalg af modeller og teknikker, der kan forbedre resultater mere effektivt med mindre risiko.

Sandheden er, at AI bør vurderes ligesom enhver anden større infrastrukturinvestering – med et klart overblik over omkostninger, fordele og operationel risiko fra starten. At bringe det til en brugbar tilstand betyder investering i kvalitetsdata pipelines, observerbarhed, governance og de mennesker, der holder det i overensstemmelse med de ønskede forretningsresultater. Skærer man over hjørner her, flyttes regningen blot til fremtiden med ekstra interesse.

Hvordan AI-omkostninger virkelig skaleres

Forståeligt nok kan teams antage, at AI-omkostninger vokser i en lige linje: lav dobbelt så meget arbejde, betal dobbelt så mange penge. I virkeligheden kan indsats, omkostninger og resultater bevæge sig uafhængigt af hinanden på overraskende måder. Bed en AI om at læse et langt dokument på én gang, og den skal overveje hvert ord i forhold til hvert andet ord. I de fleste populære LLM'er betyder det, at det involverede arbejde, og dermed omkostningerne, ikke vokser, som folk naturligt forventer – dobbelt input, dobbelt omkostninger – men i stedet vokser omtrent med kvadratet af inputlængden. En bevidsthed om grundlæggende elementer som dette kan have en reel indflydelse på bundlinjen af ​​enhver AI-implementering. Hvis en organisation, der håndterer store mængder tekst hver dag, f.eks. en regulator, fra starten designer omkring grafsøgning eller hentningspipelines i stedet for at sende hele dokumenter til modellen, er slutbrugeroplevelsen stadig "stil et spørgsmål, få et svar på få sekunder", ligesom en offentlig chatbot. Det holder AI-entusiastiske ledere glade med øjeblikkelige interaktioner, mens systemet under overfladen udfører langt mindre unødvendigt arbejde, og beregningsregningen er meget lavere som følge heraf.

Hvordan AI-udgifter fordeles på tværs af organisationen

Teknologiske valg er kun en del af historien, resten handler om, hvordan organisationer griber AI an til at starte med. I mange organisationer ligger dataforberedelse hos ingeniørafdelingen. Compliance-evalueringer ligger hos den juridiske afdeling. Cloud-udgifter ligger hos platform- eller infrastrukturteams. Modelvalg, konfiguration og finjustering ligger normalt hos et par specialiserede operatører. Hver gruppe ser sin egen del af arbejdet og sin egen budgetpost. Udgifterne viser sig som beregning her, entreprenørtid der og medarbejdernes tid absorberet i "business as usual" på tværs af flere teams. Med tal spredt på tværs af omkostningscentre er det muligvis ikke muligt at få de fulde omkostninger for et enkelt AI-initiativ synlige ét sted og er let at undervurdere. I det miljø kan AI-omkostningerne stige stille og roligt, simpelthen fordi ingen sporer hele tallet ét sted.

En praktisk tilgang til AI-omkostningsstyring

At undgå AI er ikke det rigtige træk for organisationer, men det er heller ikke det rigtige at behandle AI som en samleteknologi. En god strategi er altid at starte med det ønskede resultat og arbejde baglæns. Ikke alle tilfælde kræver en banebrydende, dyr i drift, stor, generel model. Mange opgaver kan håndteres af velforståede maskinlæringsteknikker, der falder ind under AI-paraplyen og kan køre på eksisterende infrastruktur.

Start i det små med pilotprojekter, der måler de samlede ejeromkostninger, ikke kun modelbrug, hvilket naturligvis betyder at se på beregninger, men også integrationsarbejde, ingeniørtid, forandringsledelse og compliance-indsats. Målet er at vælge den mindste og enkleste model, der leverer et acceptabelt resultat, i stedet for at antage, at "mere model" betyder "mere fordele".

AI er ikke én ting. Det er en kombination af teknikker og værktøjer, der kan bruges på forskellige måder. Ved at se det på denne måde nedbrydes mystikken omkring imponerende resultater og virksomheder kan udnytte dens kraft med mere ansvar og større effekt.

Mennesker, tid og AI

Hver AI-implementering er i praksis et samarbejde mellem mennesker og software. Uanset om det formelt anerkendes eller ej, er det sådan arbejdet udføres. Det nuværende skift mod mere agent AI – værktøjer, der kan kæde trin sammen, kalde andre systemer og handle med færre prompter – ændrer ikke det, faktisk øger det indsatsen for at få den menneskelige side af arbejdsgangen rigtig.

Disse værktøjer kan være lette at overtro. Når et system præsenterer svar flydende og med selvtillid, er det naturligt, at folk antager, at det normalt har ret. Hvis den slags værktøjer placeres i en arbejdsgang uden ordentlig træning, klare grænser og fornuftige kontroller, kan det stille og roligt generere en strøm af små fejl. Hver enkelt skal opdages, forstås og rettes af en person. På papiret ser AI'en effektiv ud, men i praksis er der en skjult omkostning i form af ekstra menneskelig tid brugt på at rydde op efter den. I kundevendte eller regulerede miljøer kan disse små fejl også medføre en omdømmemæssig omkostning. Men selvom værktøjerne leveres eller bruges, ligger ansvaret for deres output stadig hos organisationen og i det daglige hos de menneskelige operatører, der bruger dem. Dette skal forstås eksplicit, for at disse værktøjer virkelig kan være nyttige.

Et bedre mønster er et bevidst partnerskab: Dygtige medarbejdere bevarer det tydelige ansvar for resultaterne, og AI bruges til at fremskynde de dele af arbejdet, der passer til det, såsom opsummering, udarbejdelse, sortering og søgning. Selv når der stadig er behov for kontrol og korrektion, kan den samlede effekt af velgennemført og velstyret AI i arbejdsgange være mere hastighed, mere konsistens og mere kapacitet, end et team kunne opnå alene.

Styring som en del af AI-budgettet

Selv når de tekniske valg er fornuftige, og brugen er effektiv, vil en voksende andel af AI-udgifterne være bundet i regeringsførelse snarere end rå beregning. For organisationer, der opererer i EU, gør AI-loven det meget klart. Den har et risikobaseret syn på AI, og vigtigst af alt gælder det ikke kun for offentligt rettede produkter. Interne systemer, der anvendes inden for områder som ansættelse og forfremmelse, medarbejderstyring og -overvågning samt visse sikkerhedsrelaterede beslutninger, kan falde ind under anvendelsesområdet og medføre forventninger til risikostyring, dokumentation, logføring og menneskeligt tilsyn. Andre regioner bevæger sig i en lignende retning, og selvom reglerne ser lidt anderledes ud, er den overordnede tendens den samme: Større organisationer forventes at vide, hvor AI bruges, hvad den gør, og hvordan den kontrolleres.

Den praktiske effekt af dette er, at interne AI-projekter nu kan medføre en egen styringsarbejdsbyrde, som ikke er valgfri. Hver ny use case kan betyde en ny risiko- eller konsekvensanalyse, mere overvågning og flere spørgsmål fra compliance-, revisions- eller risikoteams. Intet af dette vil fremgå af modelbrugsmålingerne, men det er en reel indsats, der skal betales for.

Igen er intet af dette en grund til at beundre AI. Det er en pĂĄmindelse om, at driftsomkostningerne ved en intern AI-aktiveret proces ikke kun er prisen for at aktivere en model. Forvaltnings- og regulatoriske forventninger er nu en del af de samlede ejeromkostninger.

Hvor AI-udrulninger gĂĄr galt

Et velkendt mønster i AI-projekter er forskellen mellem, hvordan et system ser ud i en demo, og hvordan det opfører sig i stor skala i virkeligheden. I en kontrolleret sammenhæng med et snævert sæt af spørgsmål og brugervenlige data kan resultaterne se fejlfrie ud. Det er let i det øjeblik at antage, at systemet er klar til at påtage sig en hel kategori af arbejde.

Problemerne har en tendens til at opstå senere, når systemet udsættes for den fulde variation og mængde af reel brug: usædvanlige forespørgsler, stressede brugere, ufuldstændige registreringer, rodede edge cases. Revner, der var usynlige i demoen, begynder at vise sig som vildledende svar, manglende nuancer, supportløkker, længere behandlingstider og stille skade på tilliden. Interne målinger som "håndterede forespørgsler" og "sparet tid" kan se godt ud på papiret, men den levede oplevelse for slutbrugerne kan fortælle en anden historie.

At springe direkte fra en poleret demo eller et lille pilotprojekt, hvor succes under kontrollerede forhold behandles som bevis på, at systemet er klar til bredere udrulning, kan være en dyr fejltagelse. I den virkelige verden kommer brugerne med rodede forespørgsler, ufuldstændige data og deres egne antagelser om, hvad værktøjet kan. Hvis forventningerne ikke styres, og arbejdsgangen omkring systemet ikke er designet med fallbacks og eskalering i tankerne, betaler organisationen to gange: én gang for opbygningen og igen i form af ekstra support, omarbejdning, klager og tabt tillid. Teknologien ser måske imponerende ud på papiret, men uden en pragmatisk tilgang til, hvordan den møder rigtige mennesker og rigtige processer, forsvinder afkastet af investeringen hurtigt.

Bagsiden er, at veldesignede systemer med klare grænser og menneskeligt ejerskab indbygget fra starten kan gøre ting, som intet menneskeligt team ville kunne klare alene: scanne enorme mængder information på få sekunder, spotte mønstre på tværs af årevis af data og håndtere rutinemæssige beslutninger i en skala, der ellers ville være uden for rækkevidde. Pointen er, at for at opnå disse fordele skal organisationer matche deres ambition med et realistisk synspunkt på, hvordan teknologien vil opføre sig, når den er ude i verden.

Lukning Tanker

Intet af dette er et argument imod AI. Det er et argument for at tage det med samme alvorlighed som ethvert andet system, der væsentligt kan ændre, hvordan en virksomhed fungerer.

Når den bruges korrekt, hjælper AI små teams med at agere i større skala, afdække mønstre, der ville være svære at få øje på manuelt, og få ekspertvurderinger til at række længere. Men at nå dertil kræver et klart overblik over, hvor AI bruges, hvad det koster i alt, og hvordan det styres. Det betyder at træffe bevidste valg om modeller og arkitekturer, investere i data og observerbarhed og designe processer, hvor folk holder sig opdateret.

"Bevæg dig hurtigt og ødelæg ting" var et slogan skrevet til menneskelige teams, der arbejdede på systemer i menneskelig skala: hvis noget gik i stykker, rullede man det ned, lappede det og gik videre. Når AI er vævet ind i beslutninger om kunder, medarbejdere eller borgere, kan den samme holdning skabe problemer, der spreder sig hurtigere, rammer hårdere og er meget vanskeligere at løse. Hastighed er stadig vigtig, og AI kan bestemt hjælpe her, men det skal matches af et klart overblik over risiko, omkostninger og ansvarlighed.

Der er ingen måde at fjerne omkostninger eller risici helt. Men der er en klar forskel mellem organisationer, der er afhængige af ad hoc-eksperimenter, og dem, der indbygger AI i deres drift på en afmålt måde, med et overblik fra udgifter til succes. På tværs af de mange forskellige problemer og resultater, som organisationer står over for, er der ingen enkelt AI-løsning, der kan løse dem alle. Effektiv brug af AI i virksomheder bør altid være specialiseret, overvåget og omhyggeligt afgrænset.

Tim begyndte sin karriere med at grundlægge og skalere succesfulde irske virksomheder, hvor han finpudsede sin ekspertise inden for design, implementering og sikkerhed af IT-infrastruktur. Gennem årene har han ledet komplekse projekter, der integrerede avancerede informationssystemer på tværs af forskellige brancher - offentlige og private - og konsekvent leveret målbare forbedringer i driftseffektivitet og sikkerhed.

At AscoriaTim står i spidsen for initiativer, der skal sikre, at virksomhedens IT-systemer er fremtidssikrede og understøtter dens globale drift i et hurtigt udviklende digitalt landskab. Hans bidrag omfatter strømlining af systemydelse, forbedring af cybersikkerhedsforanstaltninger og fremme af samarbejde på tværs af teams for at afstemme teknologi med forretningsmål.