Interviews
Ravi Bommakanti, CTO of App Orchid – Interview Serie

Ravi Bommakanti, Chief Technology Officer at App Orchid, leder virksomhedens mission om at hjælpe virksomheder med at operationalisere AI på tværs af applikationer og beslutningsprocesser. App Orchids flagskibprodukt, Easy Answers™, giver brugerne mulighed for at interagere med data ved hjælp af naturligt sprog for at generere AI-drevne dashboards, indsigt og anbefalede handlinger.
Platformen integrerer struktureret og ustruktureret data, herunder realtidsindtastninger og medarbejderkendskab, i en prædictiv datafabrik, der understøtter strategiske og operationelle beslutninger. Med in-memory Big og en brugervenlig interface strømliner App Orchid AI-adoptionsprocessen gennem hurtig udvikling, lavomkostningsimplementering og minimal forstyrrelse af eksisterende systemer.
Lad os starte med det store billede – hvad betyder “agentic AI” for dig, og hvordan adskiller det sig fra traditionelle AI-systemer?
Agentic AI repræsenterer en fundamental ændring fra den statiske udførelse, der er typisk for traditionelle AI-systemer, til dynamisk orkestrering. For mig handler det om at gå fra stive, forudprogrammerede systemer til autonome, tilpasningsdygtige problemløsere, der kan resonere, planlægge og samarbejde.
Det, der virkelig adskiller agentic AI, er dens evne til at udnytte den distribuerede natur af viden og ekspertise. Traditionel AI fungerer ofte inden for faste grænser og følger forudbestemte stier. Agentic systemer kan dog opdele komplekse opgaver, identificere de rette specialiserede agenter til underopgaver – potentielt opdage og udnytte dem gennem agentregistre – og orkestrere deres samspil for at syntetisere en løsning. Begrebet agentregistre giver virksomheder mulighed for effektivt at “leje” specialiserede funktioner efter behov, ligesom menneskelige eksperthold samles, snarere end at være tvunget til at bygge eller eje hver enkelt AI-funktion internt.
Så, i stedet for monolitiske systemer, ligger fremtiden i at skabe økosystemer, hvor specialiserede agenter kan sammensættes og koordineres dynamisk – ligesom en erfaren projektleder, der leder et hold – for at tackle komplekse og udviklende forretningsudfordringer effektivt.
Hvordan accelererer Google Agentspace adoptionen af agentic AI på tværs af virksomheder, og hvad er App Orchids rolle i dette økosystem?
Google Agentspace er en betydelig accelerator for virksomheds AI-adoptionsprocessen. Ved at give en fælles grundlag for at installere og administrere intelligente agenter, der er forbundet med forskellige arbejdsapplikationer, og udnytte Googles kraftfulde søgefunktioner og modeller som Gemini, giver Agentspace virksomheder mulighed for at omdanne siloede informationer til handlebare intelligenser gennem en fælles interface.
App Orchid fungerer som et vitalt semantisk aktiveringslag i dette økosystem. Mens Agentspace giver agent-infrastrukturen og orkestreringsrammen, tackler vores Easy Answers-platform den kritiske virksomhedsudfordring med at gøre komplekse data forståelige og tilgængelige for agenter. Vi bruger en ontologi-drevet tilgang til at bygge rige videnstrukturer fra virksomhedsdata, fuldt ud med forretningskontekst og relationer – præcis den forståelse, agenterne har brug for.
Dette skaber en kraftfuld synergisme: Agentspace giver den robuste agent-infrastruktur og orkestreringsfunktioner, mens App Orchid giver den dybe semantiske forståelse af komplekse virksomhedsdata, som disse agenter kræver for at fungere effektivt og levere meningsfulde forretningsindsigter. Vores samarbejde med Google Cloud Cortex Framework er et prominent eksempel, der hjælper kunder med at reducere datatilberedningstiden (op til 85%) samtidig med, at vi udnytter vores platforms industriledende 99,8% tekst-til-SQL-nøjagtighed til naturligt sprogsspørgsmål. Sammen giver vi virksomheder mulighed for at installere agentic AI-løsninger, der virkelig forstår deres forretningssprog og datakompleksiteter, hvilket accelererer tid-til-værdi.
Hvad er de virkelige barrierer, virksomheder står over for, når de adopterer agentic AI, og hvordan hjælper App Orchid dem med at overvinde disse?
De primære barrierer, vi ser, drejer sig om datakvalitet, udfordringen med at udvikle sikkerhedsstandarder – især med henblik på at sikre agent-til-agent-tillid – og administration af den distribuerede natur af virksomhedens viden og agentfunktioner.
Datakvalitet forbliver det grundlæggende problem. Agentic AI, ligesom alle former for AI, giver upålidelige output, hvis den fødes med dårlig data. App Orchid tackler dette fundamentalt ved at skabe et semantisk lag, der kontekstualiserer forskellige datakilder. Bygget på dette, udnytter vores unikke crowdsourcing-funktioner inden for Easy Answers forretningsbrugere på tværs af organisationen – dem, der bedst forstår datameningsindholdet – til at samarbejde om at identificere og adresse data huller og inkonsistenser, hvilket betydeligt forbedrer pålideligheden.
Sikkerhed præsenterer en anden kritisk forhindring, især når agent-til-agent-kommunikation bliver almindelig, potentielt omfattende interne og eksterne systemer. At etablere robuste mekanismer for agent-til-agent-tillid og opretholde governance uden at hæmme nødvendig interaktion er afgørende. Vores platform fokuserer på at implementere sikkerhedsrammer, der er designet til disse dynamiske interaktioner.
Til sidst kræver det at udnytte den distribuerede viden og funktioner effektivt avanceret orkestrering. App Orchid udnytter koncepter som Model Context Protocol (MCP), der er stadig mere afgørende. Dette giver mulighed for dynamisk kilde til specialiserede agenter fra repositoryer baseret på kontekstuelle behov, hvilket faciliterer flydende, tilpasningsdygtige arbejdsgange snarere end stive, foruddefinerede processer. Denne tilgang er i overensstemmelse med opkommende standarder, såsom Googles Agent2Agent-protokol, designet til at standardisere kommunikation i multi-agent-systemer. Vi hjælper virksomheder med at bygge tillidsfulde og effektive agentic AI-løsninger ved at adresse disse barrierer.
Kan du føre os igennem, hvordan Easy Answers™ fungerer – fra naturligt sprogsspørgsmål til indsigtsgenerering?
Easy Answers transformerer, hvordan brugere interagerer med virksomhedsdata, og gør avanceret analyse tilgængelig gennem naturligt sprog. Her er, hvordan det fungerer:
- Forbindelse: Vi starter med at forbinde os til virksomhedens datakilder – vi understøtter over 200 almindelige databaser og systemer. Afgørende er, at dette ofte sker uden at kræve dataforskydning eller replikering, og forbinder sikkerhedsmæssigt til data, hvor de befinder sig.
- Ontologiopbygning: Vores platform analyserer automatisk de forbundne data og bygger en omfattende videnstruktur. Dette strukturerer data i forretningscentrerede enheder, vi kalder Managed Semantic Objects (MSO’er), og fanger relationerne mellem dem.
- Metadataberigelse: Denne ontologi beriges med metadata. Brugere giver højniveaudeskriptioner, og vores AI genererer detaljerede beskrivelser for hver MSO og dens attributter (felter). Denne kombinerede metadata giver dyb kontekst om datameningsindhold og struktur.
- Naturligt sprogsspørgsmål: En bruger stiller et spørgsmål på almindeligt forretningsprog, som “Vis mig salgstendenser for produkt X i den vestlige region sammenlignet med sidste kvartal.”
- Fortolkning & SQL-generering: Vores NLP-motor bruger den rige metadata i videnstrukturen til at forstå brugerens intention, identificere de relevante MSO’er og relationer, og oversætte spørgsmålet til præcise dataforespørgsler (som SQL). Vi opnår en industriledende 99,8% tekst-til-SQL-nøjagtighed her.
- Indsigtsgenerering (Kuratering): Systemet henter data og bestemmer den mest effektive måde at præsentere svaret visuelt. I vores platform er disse interaktive visualiseringer kaldet ‘kurateringer’. Brugere kan automatisk generere eller forudkonfigurere dem for at være i overensstemmelse med specifikke behov eller standarder.
- Dybere analyse (Hurtig indsigt): Til mere komplekse spørgsmål eller proaktiv opdagelse kan brugere udnytte Hurtig indsigt. Denne funktion giver dem mulighed for let at anvende ML-algoritmer, der følger med platformen, til angivne datafelter for automatisk at opdage mønstre, identificere afvigelser eller validere hypoteser uden at kræve datavidenskabskompetence.
Denne hele proces, ofte gennemført på få sekunder, demokratiserer dataadgang og -analyse, og omdanner kompleks dataudforskning til en simpel samtale.
Hvordan brohuler Easy Answers siloede data i store virksomheder og sikrer, at indsigt er forklarlig og sporbar?
er en stor hindring i store virksomheder. Easy Answers adresserer denne grundlæggende udfordring gennem vores unikke semantiske lagtilgang.
I stedet for kostbar og kompleks fysisk datakonsolidering skaber vi et virtuelt semantisk lag. Vores platform bygger en samlet logisk visning ved at forbinde os til forskellige datakilder, hvor de befinder sig. Dette lag er drevet af vores videnstrukturteknologi, der kortlægger data i Managed Semantic Objects (MSO’er), definerer deres relationer og beriger dem med kontekstuel metadata. Dette skaber et fælles forretningsprog, der er forståeligt for både mennesker og AI, og effektivt brohuler tekniske datastrukturer (tabeller, kolonner) med forretningsmening (kunder, produkter, salg), uanset hvor data fysisk befinder sig.
At sikre, at indsigt er troværdig, kræver både sporbarhed og forklarbarhed:
- Sporbarhed: Vi giver omfattende datakildesporing. Brugere kan bore ned fra enhver kuratering eller indsigt tilbage til kilde-data, se alle anvendte transformationer, filtre og beregninger. Dette giver fuld gennemsigtighed og revision, afgørende for validering og overholdelse.
- Forklarbarhed: Indsigt ledsages af naturligt sprogforklaringer. Disse resumerer formulerer, hvad data viser, og hvorfor det er betydningsfuldt i forretningsmæssige termer, og oversætter komplekse fund til handlebar forståelse for et bredt publikum.
Dette kombinerer siloer ved at skabe en samlet semantisk visning og bygger tillid gennem klar sporbarhed og forklarbarhed.
Hvordan sikrer dit system gennemsigtighed i indsigt, især i regulerede brancher, hvor datakilde er kritisk?
Gennemsigtighed er absolut uafviselig for AI-drevne indsigt, især i regulerede brancher, hvor revision og retsforsvar er afgørende. Vores tilgang sikrer gennemsigtighed på tværs af tre nøgleområder:
- Datakilde: Dette er grundlæggende. Som nævnt giver Easy Answers omfattende datakildesporing. Enhver indsigt, visualisering eller tal kan spores tilbage gennem dens hele livscyklus – fra de oprindelige datakilder, gennem eventuelle sammenføjninger, transformationer, aggregationer eller filtre, der er anvendt – og giver den verificerbare dataherkomst, der kræves af regulatorer.
- Metodologisk gennemsigtighed: Vi undgår ‘black box’-problemet. Når analytiske eller ML-modeller anvendes (f.eks. via Hurtig indsigt), dokumenterer platformen tydeligt den anvendte metodologi, parametrene, der er anvendt, og relevante evalueringsskalaer. Dette sikrer, at ‘hvordan’ bag indsigt er lige så gennemsigtigt som ‘hvad’.
- Naturligt sprogforklaring: At oversætte tekniske output til forståelige forretningskontekster er afgørende for gennemsigtighed. Enhver indsigt ledsages af almindeligt sprogforklaringer, der beskriver fundene, deres betydning og potentiel begrænsninger, sikrer klarehed for alle interessenter, herunder overholdelsesofficerer og revisorer.
Derudover inkorporerer vi yderligere governancefunktioner til brancher med specifikke overholdelsesbehov, såsom rollebaseret adgangskontrol, godkendelsesworkflows for bestemte handlinger eller rapporter og omfattende revisionsspor, der sporer brugeraktivitet og systemoperationer. Denne flerlagte tilgang sikrer, at indsigt er præcis, fuldt gennemsigtig, forklarlig og retsforsvarlig.
Hvordan omdanner App Orchid AI-genererede indsigt til handling med funktioner som Generative Handlinger?
At generere indsigt er værdifuldt, men det virkelige mål er at drive forretningsresultater. Med den rette data og kontekst kan et agentic økosystem drive handlinger for at brohule den kritiske kløft mellem indsigt og konkrete handling, og flytte analytics fra en passiv rapporteringsfunktion til en aktiv driver for forbedring.
Her er, hvordan det fungerer: Når Easy Answers-platformen identificerer et betydeligt mønster, tendens, afvigelse eller mulighed gennem sin analyse, udnytter den AI til at foreslå specifikke, kontekstuel relevant handling, der kan udføres som svar.
Disse er ikke vagt formulerede forslag; de er konkrete anbefalinger. For eksempel kan det i stedet for kun at flagge kunder med høj risiko for at forlade, anbefale specifikke tilbud til retention, tilpasset forskellige segmenter, potentielt beregne den forventede effekt eller ROI, og endda udarbejde kommunikationsskabeloner. Når disse anbefalinger genereres, overvejer systemet forretningsregler, begrænsninger, historisk data og mål.
Afgørende er, at dette opretholder menneskelig oversigt. Anbefalede handlinger præsenteres for de relevante brugere til gennemsyn, ændring, godkendelse eller afvisning. Dette sikrer, at forretningsdommen forbliver central i beslutningsprocessen, mens AI håndterer den tungt arbejde med at identificere muligheder og formulerer potentielle svar.
Når en handling er godkendt, kan vi udløse en agentic arbejdsgang for gnidningsløs udførelse gennem integrationer med operationelle systemer. Dette kan indebære udløsning af en arbejdsgang i et CRM-system, opdatering af en prognose i et ERP-system, lanceren af et målrettet markedsføringsinitiativ eller initiering af en anden relevant forretningsproces – og lukker dermed cirklen fra indsigt direkte til resultat.
Hvordan er videnstrukturer og semantiske datamodeller centrale for jeres platforms succes?
Videnstrukturer og semantiske datamodeller er den absolutte kerne i Easy Answers-platformen; de løfter den ud over traditionelle BI-værktøjer, der ofte behandler data som ikke-relaterede tabeller og kolonner, fravalgt af virkelige forretningskontekster. Vores platform bruger dem til at bygge et intelligent semantisk lag over virksomhedsdata.
Denne semantiske grundlag er central for vores succes af flere afgørende årsager:
- Muliggør sandt naturligt sprogssamarbejde: Den semantiske model, struktureret som en videnstruktur med Managed Semantic Objects (MSO’er), egenskaber og definerede relationer, fungerer som en ‘Rosetta Stone’. Den oversætter nuancerne i menneskesprog og forretningsterminologi til de præcise forespørgsler, der er nødvendige for at hente data, og giver brugerne mulighed for at stille spørgsmål naturligt uden at skulle kende underliggende skemaer. Dette er afgørende for vores høje tekst-til-SQL-nøjagtighed.
- Bevarer kritisk forretningskontekst: I modsætning til simple relationelle sammenføjninger fanger vores videnstruktur eksplicit den rige, komplekse netværk af relationer mellem forretningsenheder (f.eks. hvordan kunder interagerer med produkter gennem supportbilletter og købsordrer). Dette giver mulighed for dybere, mere kontekstuel analyse, der afspejler, hvordan forretningen fungerer.
- Tilbyder tilpasning og skalerbarhed: Semantiske modeller er mere fleksible end stive skemaer. Når forretningsbehov udvikler sig eller nye datakilder tilføjes, kan videnstrukturen udvides og ændres inkrementelt uden at kræve en komplet ombygning, og opretholder konsistens, samtidig med at den tilpasser sig til ændringer.
Denne dybe forståelse af datakontekst, som vores semantiske lag giver, er fundamental for alt, hvad Easy Answers gør, fra grundlæggende Q&A til avanceret mønsterdetektion med Hurtig indsigt, og danner den essentielle grundlag for vores fremtidige agentic AI-kapaciteter, og sikrer, at agenter kan resonere over data meningsfuldt.
Hvad er de grundlæggende modeller, I understøtter, og hvordan giver I virksomheder mulighed for at bringe deres egne AI/ML-modeller ind i arbejdsgangen?
Vi tror på en åben og fleksibel tilgang, der erkender den hurtige udvikling af AI og respekterer virksomheders eksisterende investeringer.
For grundlæggende modeller opretholder vi integrationer med førende muligheder fra flere leverandører, herunder Googles Gemini-familie, OpenAIs GPT-modeller og fremtrædende open-source-alternativer som Llama. Dette giver virksomheder mulighed for at vælge modeller, der bedst passer deres ydelse, omkostninger, governance eller specifikke funktionelle behov. Disse modeller driver forskellige platformfunktioner, herunder naturligt sprogforståelse for forespørgsler, SQL-generering, indsigtssammenfatning og metadata-generering.
Ud over disse giver vi robuste muligheder for virksomheder for at bringe deres egne brugerdefinerede AI/ML-modeller ind i Easy Answers-arbejdsgangen:
- Modeller udviklet i Python kan ofte integreres direkte via vores AI-motor.
- Vi tilbyder gnidningsløse integrationsmuligheder med store cloud ML-platforme som Google Vertex AI og Amazon SageMaker, og giver mulighed for at modeller, der er trænet og hostet der, kan aktiveres.
Afgørende er, at vores semantiske lag spiller en nøglerolle i at gøre disse potentielt komplekse brugerdefinerede modeller tilgængelige. Ved at koblet modelindgang og -output til de forretningsbegreber, der er defineret i vores videnstruktur (MSO’er og egenskaber), giver vi ikke-techniske forretningsbrugere mulighed for at udnytte avancerede prædiktive, klassificerings- eller årsagsmodeller (f.eks. via Hurtig indsigt) uden at skulle forstå den underliggende datavidenskab – de interagerer med velkendte forretningsbegreber, og platformen håndterer den tekniske oversættelse. Dette demokratiserer virkelig adgangen til avancerede AI/ML-kapaciteter.
Set fremad, hvilke tendenser ser I, der former den næste bølge af virksomheds AI – især i agentmarkeder og ikke-kode-agentdesign?
Den næste bølge af virksomheds AI bevæger sig mod højtdynamiske, sammensatte og samarbejdende økosystemer. Flere konvergerende tendenser driver dette:
- Agentmarkeder og registre: Vi vil se en betydelig stigning i agentmarkeder, der fungerer sammen med interne agentregistre. Dette faciliterer en ændring fra monolitiske byggeprocesser til en ‘leje og komponer’-model, hvor virksomheder kan dynamisk opdage og integrere specialiserede agenter – internt eller eksternt – med specifikke funktioner efter behov, og dramatisk accelererer løsningsudviklingen.
- Standardiseret agentkommunikation: For disse økosystemer at fungere, har agenter brug for fælles sprog. Standardiserede agent-til-agent-kommunikationsprotokoller, såsom MCP (Model Context Protocol), som vi udnytter, og initiativer som Googles Agent2Agent-protokol, er blevet essentielle for at enable gnidningsløs samarbejde, kontekstdeling og opgaveoverdragelse mellem agenter, uanset hvem der byggede dem eller hvor de kører.
- Dynamisk orkestrering: Statiske, foruddefinerede arbejdsgange vil give plads til dynamisk orkestrering. Intelligente orkestreringslag vil vælge, konfigurere og koordinere agenter på kørselstidspunktet baseret på det specifikke problemkontekst, og føre til langt mere tilpasningsdygtige og robuste systemer.
- Ikke-kode/lav-kode-agentdesign: Demokratisering vil udvide sig til agentopbygning. Ikke-kode- og lav-kode-platforme vil give forretningsfunktioner, ikke kun AI-specialister, mulighed for at designe og bygge agenter, der inkorporerer specifik domæneviden og forretningslogik, og yderligere beriger puljen af tilgængelige specialiserede funktioner.
App Orchids rolle er at give det kritiske semantiske grundlag for denne fremtid. For agenter i disse dynamiske økosystemer til at samarbejde effektivt og udføre meningsfulde opgaver, har de brug for at forstå virksomhedsdata. Vores videnstruktur og semantiske lag giver præcis den kontekstuelle forståelse, der giver agenter mulighed for at resonere og handle over data i relevante forretningsbegreber.
Hvordan forestiller du dig, at rollen som CTO udvikler sig i en fremtid, hvor beslutningsintelligens demokratiseres gennem agentic AI?
Demokratiseringen af beslutningsintelligens via agentic AI løfter fundamentalt rollen som CTO. Det skifter fra at være primært en steward for teknologi-infrastruktur til at blive en strategisk orkestrator for organisatorisk intelligens.
Nøgleudviklinger inkluderer:
- Fra systemadministrator til økosystemarkitekt: Fokus flytter sig fra at administrere siloede applikationer til at designe, kuraterer og styre dynamiske økosystemer af interagerende agenter, datakilder og analytiske funktioner. Dette indebærer at udnytte agentmarkeder og registre effektivt.
- Datastrategi som kerneforretningsstrategi: Sikring af, at data ikke blot er tilgængeligt, men også semantisk rigt, pålideligt og tilgængeligt, bliver afgørende. CTO’en vil være central i opbygningen af den videnstrukturgrundlag, der driver intelligente systemer på tværs af virksomheden.
- Udvikling af nye styreparadigmer: Nye styremodeller vil være nødvendige for agentic AI – omfattende agent-tillid, sikkerhed, etisk AI-brug, revision af automatiserede beslutninger og administration af emergente adfærd i agent-samarbejde.
- Fremme af tilpasning: CTO’en vil være afgørende for at indbygge tilpasning i organisationens tekniske og operationelle stof. Dette skaber miljøer, hvor AI-drevne indsigt fører til hurtige responser og kontinuerligt læring.
- Fremme af menneske-AI-samarbejde: En nøgleaspekt vil være at dyrke en kultur og designe systemer, hvor mennesker og AI-agenter arbejder synergistisk, og supplerer hinandens styrker.
I sidste ende bliver CTO’en mindre fokuseret på at administrere IT-omkostninger og mere på at maksimere organisationens ‘intelligens-potentiale’. Det er en ændring mod at være en sand strategisk partner, der giver hele virksomheden mulighed for at fungere mere intelligent og tilpasningsdygtigt i en stadig mere kompleks verden.
Tak for det gode interview. Læsere, der ønsker at lære mere, bør besøge App Orchid.












