Connect with us

ActionAI sikrer 10 millioner dollars til at bringe ansvarlighed og pålidelighed til virksomheds-AI

Finansiering

ActionAI sikrer 10 millioner dollars til at bringe ansvarlighed og pålidelighed til virksomheds-AI

mm

Virksomheders adoption af kunstig intelligens er accelereret hurtigt, men at skala det udover pilotprojekter er stadig en vedvarende udfordring. En af hovedårsagerne er tillid. Mens medarbejderne i stigende grad bruger AI-værktøjer i deres daglige arbejde, er organisationerne stadig tilbageholdende med at stole på dem til kerneoperationer, hvor nøjagtighed og ansvarlighed er kritiske.

Denne lukke er, hvad ActionAI søger at lukke. Virksomheden har annonceret en seed-runde på 10 millioner dollars til at bygge infrastruktur, der gør AI-systemer pålidelige nok til mission-kritisk virksomhedsbrug.

Hvorfor AI-adoptionen er stagneret

Trods omfattende eksperimenter lykkes de fleste virksomheds-AI-initiativer ikke for at nå produktion. Interne data går ofte ukontrolleret, output kan være inkonsistent, og fejl – især hallucinationer – introducerer reelle operationelle risici.

Studier viser, at mens en majoritet af medarbejderne nu bruger AI-værktøjer på arbejdet, gør mange det uden at verificere nøjagtigheden. På samme tid er en stor procentdel af virksomheds-AI-brugsændringer fanget i pilottilstand. Problemet er ikke længere, om AI er i stand til, men om det kan tillides.

Dette er særligt problematisk i brancher som finans, forsikring, sundhedsvesen og logistik, hvor fejl kan have regulatoriske, finansielle eller juridiske konsekvenser.

Opbygning af en pålidelighedslag for AI

ActionAIs tilgang er at behandle pålidelighed som en grundlæggende lag snarere end en eftertanke. Deres platform er designet til at overvåge og evaluere AI-systemer på tværs af hele livscyklussen – fra træningsdata til endelig output.

I stedet for at fokusere kun på modelpræstation, kortlægger systemet, hvordan data flyder gennem hvert trin i AI-stakken. Dette giver holdene mulighed for at identificere præcis, hvor fejl opstår, enten på indgangsniveauet, under behandling eller på outputstadiet.

En nøglekomponent i platformen er dens evne til at fejlfinde problemer i realtid. Når noget går galt, kan holdene isolere rodårsagen hurtigt og løse edge-tilfælde, før de eskalerer til større problemer.

Præsentation af forklarede undtagelser

En af de mere karakteristiske elementer i platformen er et system kaldet Forklarede undtagelser (ExEx). I stedet for at tvinge AI-systemer til at handle med usikre output, detekterer ExEx, når modellen mangler tillid og sender opgaven til en menneske.

Det, der gør denne tilgang bemærkelsesværdig, er, at den ikke blot markerer et problem – den giver en begrundelse. Menneskelige anmeldere modtager kontekst, der forklarer, hvorfor AI var usikker, hvilket giver dem mulighed for at træffe hurtigere og mere informerede beslutninger.

Dette skaber en struktureret menneske-i-løkken-arbejdsgang, der ikke langsommeliggør operationer, men i stedet fungerer som en sikkerhedsforanstaltning. Det sikrer, at usikre eller højrisiko-output aldrig passerer gennem systemet uden at blive bemærket.

Fra overvågning til kontinuerlig kontrol

Ud over installationen overvåger platformen fortsat AI-præstation i produktion. Den sporer, hvordan systemer reagerer på nye data, skiftende betingelser eller opdaterede instruktioner.

Når præstationen falder eller anomalier opstår, markerer systemet dem automatisk, hvilket hjælper organisationer med at opretholde konsistens over tid. Dette er særligt vigtigt, da AI-modeller degraderer eller opfører sig upålideligt, når de udsættes for nye input.

Målet er at gå fra statiske AI-installationer til kontinuerligt managede systemer, der tilpasser sig uden at ofre pålidelighed.

ActionAI fokuserer på sektorer, hvor præcision er uforhandeligt. Dette inkluderer finansielle tjenester, fremstilling, detailhandel, forsikring, forsyningskæder og juridiske systemer.

I disse miljøer kan selv små fejl skabe kaskade-problemer. Ved at introducere tilsyn, sporing og struktureret undtagelseshåndtering er platformen designet til at gøre AI-brugbar i sammenhænge, hvor det traditionelt har været betragtet som for risikabelt.

En skiftning mod ansvarlig AI

For grundlægger Miriam Haart er det centrale problem ikke kun at forbedre AI-præstation, men at gøre systemer ansvarlige fra starten.

Virksomhedens arkitektur fokuserer på at validere data, før de kommer ind i systemet, overvåge adfærd under udførelse og sikre, at output kan forklares og revisioneres bagefter. Denne slut til slut-synlighed er, hvad der giver organisationer mulighed for at gå ud over eksperimenter og ind i fuld-skala installation.

Den bredere implikation af denne kapitalrunde er en skiftning i, hvordan virksomheder tænker om AI. I stedet for at behandle det som et værktøj lagt på eksisterende systemer, begynder virksomheder at betragte det som kerneinfrastruktur – noget, der skal opfylde de samme standarder som ethvert mission-kritisk system.

ActionAI positionerer sig ved dette skæringspunkt, hvor præstation alene ikke længere er nok. Pålidelighed, gennemsigtighed og kontrol bliver de definerende krav til virksomheds-AI-adoption.

Hvis disse elementer kan standardiseres, kan AI måske endelig flytte fra isolerede pilotprojekter til fuldt integrerede operationer på tværs af virksomheden.

Antoine er en visionær leder og medstifter af Unite.AI, drevet af en urokkelig passion for at forme og fremme fremtiden for AI og robotteknologi. En serieiværksætter, han tror, at AI vil være lige så omvæltende for samfundet som elektricitet, og bliver ofte fanget i at tale begejstret om potentialet for omvæltende teknologier og AGI.

Som en futurist, er han dedikeret til at udforske, hvordan disse innovationer vil forme vores verden. Derudover er han grundlægger af Securities.io, en platform, der fokuserer på at investere i skærende teknologier, der gendefinerer fremtiden og omformer hele sektorer.