Connect with us

Intervjuer

Michael Majster, Partner på Arthur D. Little – Intervjuserie

mm

Michael Majster, Partner på Arthur D. Little, är en erfaren strategi- och teknikkonsult med djup expertis inom digital transformation, IT-strategi och innovationsdriven tillväxt. Med bas i Bryssel och verksamhet i hela Benelux-regionen, har han mer än två decenniers erfarenhet av att ge råd till CIO:er och seniora chefer om att driva storskalig förändring och leverera mätbara affärsresultat. Innan han gick med i Arthur D. Little, tillbringade han 16 år på Accenture, där han hade seniora ledningsroller, inklusive Managing Director för Technology Resources i Frankrike och Benelux, och utvecklade stark sektorexpertis inom energi, utilities, kemikalier och naturresurser.

Arthur D. Little är ett av världens äldsta managementkonsultföretag, grundat för över 135 år sedan och brett erkänt för sin fokus på innovation, strategi och teknologi-driven transformation. Företaget arbetar med globala organisationer för att lösa komplexa affärsutmaningar, genom att kombinera strategisk insikt med djup branschexpertis för att stödja områden som digital transformation, innovationshantering och operativ förbättring. Med ett starkt fokus på att överbrygga strategi, teknik och genomförande, har Arthur D. Little byggt ett rykte för att hjälpa kunder utveckla banbrytande innovationer och anpassa sig till snabbt föränderliga marknadsdynamiker.

Du tillbringade över 16 år på Accenture, och ledde slutligen teknik och resurser över BeNeLux och Frankrike, innan du blev Partner på Arthur D. Little. Hur formade den resan din syn på vad det verkligen krävs för organisationer att gå från AI-experiment till storskalig operativ transformation?

Under min tid på Accenture, såg jag företaget expandera från 30 000 till över 500 000 anställda. Jag upplevde förstahands hur IT-leverans kan industrialiseras till en extrem grad för att stödja storskalig transformation för CIO:er.

Under åren har IT dock alltmer blivit en kärndel av affären, vilket driver ett behov för organisationer att gå bort från att behandla det som en vara.

När jag gick till Arthur D. Little, ville jag undersöka hur dessa strategiska transformationer av kärnaffären kunde hanteras inifrån, hur skräddarsydda lösningar istället för standardiserade plattformar skulle kunna möjliggöra differentiering, och hur gemensamt ansvar för hela ExCo kunde hjälpa organisationer att göra ett steg i värdeskapande.

I din senaste synpunkt, It’s not the agents, it’s the system, hävdar du att multi-agent AI är mindre om teknologi och mer om operativ modellförändring. Varför tror du att så många organisationer fortfarande närmar sig AI främst som ett verktygsproblem?

Organisationer närmar sig AI som ett verktygsproblem eftersom det passar bra in i befintliga strukturer, budgetar och ägarskap, och undviker komplexiteten i förändring av funktioner över gränserna. Detta möjliggör snabba piloter och synlig framgång, men resulterar ofta i initiativ som inte kan skalas eller leverera meningsfull avkastning. Många ledare förlitar sig också på äldre programvarumodeller, och antar att AI kan distribueras som traditionella IT-system snarare än att kräva omstrukturering av arbetsflöden och beslutsfattande. Samtidigt är ansvaret för operativ modellförändring diffust och svårt att hantera, vilket gör teknikutvecklade initiativ mer attraktiva. Som ett resultat, väljer företagen verktyg eftersom det är lättare och säkrare än att konfrontera den djupare transformation som behövs för att låsa upp AI:s fulla värde.

Många företag experimenterar för närvarande med agentic AI men kämpar för att skalera. Vilka är de vanligaste strukturella hindren som förhindrar organisationer från att gå utöver piloter och in i produktion?

Organisationer kämpar för att skalera agentic AI eftersom de fokuserar på isolerade användningsfall snarare än omstrukturering av slutna processer med tydligt ägarskap. Operativa modeller är ofta inte anpassade, med oklara roller, beslutsrättigheter och otillräcklig integration av mänsklig-agent-samarbete i dagliga arbetsflöden. Många initiativ saknar också starka kopplingar till mätbara affärsresultat, vilket orsakar att de stannar i pilotfasen utan att visa avkastning. Dessutom begränsar fragmenterad data och äldre system förmågan hos agenter att fungera sömlöst över funktioner. Slutligen, svag förändringshantering och olösta styrningsproblem kring risk och tillförlitlighet bromsar ytterligare antagandet och förhindrar skalning.

Du betonar att orkestrering, inte enskilda agenter, är där den verkliga värdet ligger. Vad ser effektiv orkestrering ut som i en verklig företagsmiljö?

Effektiv orkestrering innebär att designa AI kring slutna affärsprocesser, inte enskilda verktyg, med agenter tilldelade tydliga roller över hela arbetsflödet. Flera agenter samarbetar som ett team – hanterar intag, beslutsfattande, genomförande och tillsyn – samordnade genom ett centralt orkestreringslager. Dessa agenter är tätt integrerade med företagssystem via API:er och datakällor, vilket möjliggör verkliga åtgärder snarare än bara insikter. Orkestreringslagret hanterar också uppgiftssekvensering, undantag och eskalering till människor, vilket säkerställer smidig och kontrollerad genomförande. Slutligen är starka styrnings-, valideringsmekanismer och återkopplingsloopar inbyggda för att säkerställa tillförlitlighet och kontinuerlig förbättring.

När organisationer omstrukturerar arbetsflöden kring AI, hur bör beslutsrättigheter utvecklas mellan människor och autonoma system för att undvika både överautomatisering och flaskhalsar?

Beslutsrättigheter bör utvecklas till en riskbaserad modell där lågrisk-, högvolymsbeslut automatiseras, medan högimpakt- eller osäkra fall förblir under mänsklig kontroll. Agenter bör hantera perception, analys och genomförande, medan människor fokuserar på bedömning, undantag och definition av korrekta resultat. Tydliga eskalationsvägar är essentiella så att agenter vet när de ska avsätta beslut snarare än att överskrida sin auktoritet. För att undvika flaskhalsar bör mänskligt engagemang vara selektivt och fokuserat på undantag snarare än fullständig tillsyn av varje steg. Samtidigt säkerställer starka skydd, valideringsmekanismer och övervakning kontroll och förhindrar överautomatisering.

En av dina huvudpunkter är att tillförlitlighet måste konstrueras slutna. Vilka är de största felmoderna du ser idag när företag distribuerar multi-agent-system utan tillräckliga säkerhetsåtgärder?

En nyckelfelmodell är felpropagation, där små misstag av en agent kan kaskada genom systemet och bli förstärkta. Ett annat problem är hallucination och falsk tillförlitlighet, eftersom AI kan generera trovärdiga men felaktiga utdata utan att signalera osäkerhet. Organisationer kämpar också när för stor autonomi ges till agenter i högimpaktbeslut utan lämpliga validerings- eller godkännandegränser. Svag undantagshantering förvärrar problemet ytterligare, med agenter som misslyckas med att eskalera tvetydiga eller gränsfall till människor. Sammantaget inträffar misslyckanden eftersom tillförlitlighet inte konstrueras över hela systemet för samordning, validering och tillsyn.

Styrning behandlas ofta som ett efterlevnadsproblem snarare än ett designprincip. Hur bör företag omvärdera styrning när de bygger AI-nativa operativa modeller?

Styrning bör skifta från ett efterföljande efterlevnadsproblem till en kärndesignprincip som är inbyggd direkt i AI-arbetsflöden. Detta innebär att integrera skydd, valideringssteg och godkännandegränser vid nyckelbeslutspunkter snarare än att lägga till kontroller efter distribution. Företag bör anta en riskbaserad ansats, justera nivåer av autonomi och mänsklig tillsyn beroende på beslutsimpakt och osäkerhet. Tydliga ansvarsområden och beslutsrättigheter måste definieras, vilket säkerställer att agenter vet när de ska agera och när de ska eskalera. Slutligen är kontinuerlig övervakning, återkopplingsloopar och konstruerad tillförlitlighet essentiella för att upprätthålla förtroende, prestanda och kontroll i stor skala.

Från ditt arbete med att ge råd till CIO:er och CDO:er, vad skiljer organisationer som uppnår mätbar avkastning från AI från de som förblir fast i permanent experiment?

Organisationer som uppnår avkastning fokuserar på slutna processomvandlingar snarare än isolerade AI-användningsfall. De kopplar initiativ till tydliga finansiella KPI:er och integrerar AI i arbetsflöden, roller och beslutsfattande strukturer. De investerar också i förändringshantering, antagande och styrning för att säkerställa att lösningar skalas effektivt. I kontrast, organisationer som är fast i experiment kör frånkopplade piloter, fokuserar på verktyg snarare än processer och saknar tydligt ägarskap och ansvar. Som ett resultat, lyckas de inte med att översätta AI till mätbara affärsresultat och förblir fast i pilotfasen.

När multi-agent-system blir mer komplexa, hur bör organisationer tänka på observabilitet, övervakning och eskalering för att upprätthålla förtroende för AI-styrda beslut?

Organisationer bör behandla observabilitet, övervakning och eskalering som kärndesignelement i systemet, snarare än eftertanke. Detta inkluderar att säkerställa full spårbarhet genom loggning, revisionsspår och valideringskontroller så att beslut kan förstås och valideras. Övervakning bör fokusera inte bara på prestanda utan också på resultatkvalitet, fel och hur problem propagerar över agenter. Tydliga eskalationsregler behövs så att agenter avsätter till människor i högrisk- eller tvetydiga situationer utan att skapa flaskhalsar. Slutligen kommer förtroende från system som är transparenta, mätbara och designade för mänsklig tillsyn som standard.

Om man ser framåt, hur ser du att företags operativa modeller utvecklas under de närmaste 3 till 5 åren när multi-agent AI-system blir mer djupt integrerade i kärnaffärsprocesser?

Företags operativa modeller kommer att utvecklas mot hybridmänsklig-AI-arbetskraft, där agenter fungerar som digitala anställda integrerade i kärnprocesser. Organisationer kommer att skifta från funktionella silos till processcentrerade strukturer med slutna ägarskap och orkestrering över arbetsflöden. Beslutsfattande kommer att bli mer dynamiskt, med rutinuppgifter automatiserade och människor fokuserade på undantag och tillsyn. Styrnings- och tillförlitlighetsmekanismer kommer att byggas in i dagliga operationer snarare än att behandlas som separata lager. Slutligen kommer konkurrensfördel att bero på hur väl företag omstrukturerar sina operativa modeller kring AI, snarare än på teknologin i sig.

Tack för den utmärkta intervjun, läsare som vill lära sig mer bör besöka Arthur D. Little.

Antoine är en visionär ledare och medgrundare av Unite.AI, driven av en outtröttlig passion för att forma och främja framtiden för AI och robotik. En serieentreprenör, han tror att AI kommer att vara lika omstörtande för samhället som elektricitet, och fångas ofta i extas över potentialen för omstörtande teknologier och AGI. Som en futurist, är han dedikerad till att utforska hur dessa innovationer kommer att forma vår värld. Dessutom är han grundare av Securities.io, en plattform som fokuserar på att investera i banbrytande teknologier som omdefinierar framtiden och omformar hela sektorer.