Finansiering
Maisa samler inn 25 millioner dollar for å gi kraft til pålitelige og transparente ‘digitale arbeidere’

Bedrifts-AI er rammet av feil – studier viser at opptil 95% av generative AI-piloter kollapser. Men Maisa, som broer Valencia og San Francisco, er i ferd med å bygge inn ansvar i automatiseringen. Etter en seed-runde på 25 millioner dollar ledet av Creandum med støtte fra Forgepoint Capital, NFX og Village Global, er Maisa godt posisjonert til å transformere AI-arbeidsflyter med agensbasert prosessautomatisering som er like gjenkjennelig som den er intelligent.
Inni motoren: KPU & Chain-of-Work — Bygging tillit fra bunnen av
I kjernen av Maisas plattform ligger Kunnskapsbehandlingsenheten (KPU) – en ny arkitektur som omdefinierer AI-resonnering. KPU inkluderer:
- En resonneringsmotor drevet av en stor språkmodell, som planlegger flertrinnsarbeidsflyter.
- En utføringssmotor som utfører disse planene og gir resultater tilbake for omkalibrering.
- Et virtuelt kontekstvindu som strømlinjeformer informasjonsflyten, fokuserer modellen bare på relevante data for å minimere hallucinasjoner.
Genialiteten i KPU ligger i hvordan den omdefinierer rollen til LLM. I stedet for å fungere som en probabilistisk tekstgenerator, behandles modellen som en komponent innenfor et disiplinert beregningsrammeverk. KPU orkestrerer resonnering som et operativsystem, bryter problemer ned i håndterbare, gjenkjennelige trinn og sikrer at hver handling kan validieres. Denne strukturen gjør en tidligere uigjennomtrengelig modell om til et forutsigbart logikksystem, hvor feil kan oppdages, korrigeres og forhindres fra å kaskade.
Komplementært til KPU er Chain-of-Work – en nøye logget revisjonslogg som sporer hver beslutning, handling og verktøy involvert i en digital arbeiders prosess. I motsetning til typiske AI-utdata som lar brukerne gjetting, fungerer Chain-of-Work som en svart boks-oppføring for automatisering. Hver beregning, hver datapull, hver resonneringstrinn er bevart i detalj. Dette gir bedriftene mulighet til ikke bare å stole på resultater, men å spore dem, gjenspille dem og forbedre dem over tid. For kompliance-tyngde industrier, er dette ikke bare en komfort – det er grunnlaget for trygg utrulling i stor skala.
Maisa Studio i aksjon: No-Code-agenter med rot i gjennomsiktighet
Ved å utnytte KPU og Chain-of-Work, gjør Maisa Studio det mulig for “borgerutviklere” – ikke-tekniske ansatte – å utrulle digitale arbeidere ved hjelp av vanlig språkinstrukser. Gjennom Maisas HALP (Human-Augmented LLM Processing), samhandler systemet for å klargjøre intensjon, konstruerer arbeidsflyter, integrerer over hundredvis av API-er og begynner å lære dynamisk – alt uten utviklere eller datasett.
I praksis har dette allerede levert meningsfull innvirkning: et finansserviceselskap reduserte feilpositive med 99% og oppnådde en 10 ganger produktivitetsøkning per ansatt – med full utrulling oppnådd på bare tre onboarding-sesjoner. Globale banker, bilprodusenter og energiselskaper prøver ut plattformen for å automatisere kompliance-tyngde prosesser i stor skala, hvor gjennomsiktighet og revisjon er uunnværlig.
Hvorfor det betyr noe – En visjon for AI du kan stole på og skalerer
Maisa tilbyr ikke bare automatisering – det leverer ansvarlig AI som innbygger tillit gjennom arkitektur. I industrier belastet av reguleringer, uigjennomtrengelighet og høye innsatser – finanse, helse, energi – er evnen til å spore hver automatisert beslutning avgjørende. Chain-of-Work gjør det mulig for bedrifter å inspisere, revisere og validere AI-logikk på hvert trinn, noe som betyr at regulatorene og interne team ikke trenger å gjetting hvordan konklusjonene ble nådd. I stedet kan de verifisere med presisjon.
I mellomtiden undertrykker KPU-designet systematisk hallucinasjoner ved å isolere resonnering fra datapåvirkning og strukturere utføring. Denne påliteligheten fjerner den uforutsigbarhet som ofte gjør at bedrifter er skeptiske til AI. I stedet for å produsere utdata omgitt av mysterium, leverer Maisas agenter logiske, forutsigbare og konsistente resultater.
Ser fremover representerer denne plattformen en grunnleggende endring: AI blir en pålitelig samarbeidspartner – en hvis resonnering er gjennomsiktig, hvis handlinger er sporbare og hvis “tenketank” kan refineres og revisjoneres. Ettersom Maisas system er modell-agnostisk, beholder organisasjonene fleksibiliteten til å adoptere sterkere modeller i fremtiden – uten å tape rigor og tilsyn av KPU-rammeverket. Denne tilpasningen legger grunnlaget for bærekraftig, skalerbar utrulling over utviklende bedriftsbehov.
I essensen tilbyr Maisa en mal for AI som ikke bare er kraftig – men også ansvarlig og motstandsdyktig. I en verden hvor de fleste AI-prosjekter ikke leverer, tegner denne teknologien en sjelden vei fremover – kombinérer innovasjon med integritet.












