Interviews
Anthony Deighton, CEO van Tamr â Interviewserie

Antonius Deighton is CEO van Tamro. Hij heeft 20 jaar ervaring met het bouwen en opschalen van enterprise softwarebedrijven. Meest recentelijk was hij twee jaar Chief Marketing Officer bij Celonis, waar hij hun leiderschap vestigde in de categorie Process Mining-software en vraaggeneratieprogramma's creĂ«erde die resulteerden in een ARR-groei van 130%. Daarvoor heeft hij meer dan tien jaar bij Qlik gewerkt, waarbij hij het heeft laten groeien van een onbekend Zweeds softwarebedrijf tot een beursgenoteerd bedrijf â in rollen van productleiderschap, productmarketing en ten slotte als CTO. Hij begon zijn carriĂšre bij Siebel Systems, waar hij leerde hoe hij bedrijfssoftwarebedrijven in verschillende productrollen kon opbouwen.
Kunt u enkele belangrijke mijlpalen uit uw reis in de bedrijfssoftware-industrie delen, met name uw tijd bij Qlik en Celonis?
Ik begon mijn carriĂšre in bedrijfssoftware bij Siebel Systems en heb van het leiderschapsteam daar veel geleerd over het bouwen en opschalen van bedrijfssoftwarebedrijven. Ik kwam bij Qlik terecht toen het nog een klein, onbekend Zweeds softwarebedrijf was met 95% van het kleine team van 60 personen in Lund, Zweden. Ik grap dat ik, aangezien ik geen ingenieur of verkoper was, verantwoordelijk werd voor de marketing. Ik heb daar het marketingteam opgebouwd, maar na verloop van tijd gingen mijn interesse en bijdragen uit naar productmanagement, en uiteindelijk werd ik Chief Product Officer. We hebben Qlik in 2010 naar de beurs gebracht en zijn verdergegaan als een succesvol beursgenoteerd bedrijf. Daarna wilden we wat overnames doen, dus startte ik een M&A-team. Na een lange en redelijk succesvolle periode als beursgenoteerd bedrijf hebben we Qlik uiteindelijk verkocht aan een private equity-onderneming genaamd Thoma Bravo. Het was, zoals ik graag zeg, de volledige levenscyclus van een onderneming voor bedrijfssoftware. Nadat ik Qlik had verlaten, ging ik werken bij Celonis, een klein Duits softwarebedrijf dat succes probeerde te behalen met de verkoop in de VS. Opnieuw gaf ik leiding aan de marketing als CMO. We groeiden heel snel en bouwden een zeer succesvolle wereldwijde marketingfunctie op.
Zowel Celonis als Qlik waren gefocust op de front-end van de data-analyse-uitdaging: hoe kan ik data zien en begrijpen? In het geval van Qlik waren dat dashboards; in het geval van Celonis waren het bedrijfsprocessen. Maar een gemeenschappelijke uitdaging voor beide waren de gegevens achter deze visualisaties. Veel klanten klaagden dat de gegevens verkeerd waren: dubbele records, onvolledige records, ontbrekende gegevenssilo's. Dit is wat mij aantrok in Tamr, waar ik het gevoel had dat we voor het eerst de uitdaging van rommelige bedrijfsgegevens zouden kunnen oplossen. De eerste vijftien jaar van mijn loopbaan als bedrijfssoftware heb ik besteed aan het visualiseren van gegevens. Ik hoop dat ik de volgende vijftien jaar kan besteden aan het opschonen van die gegevens.
Hoe hebben uw vroege ervaringen uw benadering van het opbouwen en opschalen van enterprise-softwarebedrijven gevormd?
Een belangrijke les die ik leerde bij de overstap van Siebel naar Qlik was de kracht van eenvoud. Siebel was zeer krachtige software, maar werd op de markt gedood door Salesforce.com, dat een CRM maakte met veel minder functies (âeen speeltjeâ dat Siebel vroeger noemde), maar klanten konden het snel aan de slag krijgen omdat het geleverd als SaaS-oplossing. Het lijkt tegenwoordig vanzelfsprekend, maar destijds was de wijsheid dat klanten functies kochten, maar wat we leerden is dat klanten investeren in oplossingen om hun zakelijke problemen op te lossen. Dus als uw software hun probleem sneller oplost, wint u. Qlik was een eenvoudige oplossing voor het data-analyseprobleem, maar radicaal eenvoudiger. Als gevolg hiervan konden we concurrenten met meer functionaliteit, zoals Business Objects en Cognos, verslaan.
De tweede belangrijke les die ik leerde was tijdens mijn carriĂšretransitie van marketing naar product. Wij beschouwen deze domeinen als verschillend. In mijn carriĂšre heb ik gemerkt dat ik vloeiend beweeg tussen product en marketing. Er bestaat een nauw verband tussen welk product u bouwt en hoe u het aan potentiĂ«le klanten beschrijft. En er is een even belangrijk verband tussen wat potentiĂ«le klanten vragen en welk product we moeten bouwen. De mogelijkheid om tussen deze gesprekken te schakelen is een kritische succesfactor voor elk ondernemingssoftwarebedrijf. Een veel voorkomende reden voor het mislukken van een startup is het geloof dat âals je het bouwt, ze er wel zullen komenâ. Dit is de algemene overtuiging dat als je alleen maar coole software bouwt, mensen in de rij zullen staan ââom het te kopen. Dit werkt nooit en de oplossing is een robuust marketingproces dat verband houdt met uw softwareontwikkelingsproces.
Het laatste idee dat ik zal delen, verbindt mijn academische werk met mijn professionele werk. Op de business school kreeg ik de kans om een ââles te volgen over de theorie van Clay Christensen over disruptieve innovatie. In mijn professionele werk heb ik de kans gehad om te ervaren dat ik zowel de disruptor als de disruptor ben. De belangrijkste les die ik heb geleerd is dat elke disruptieve innovatie het resultaat is van een exogene platformverschuiving die het onmogelijke eindelijk mogelijk maakt. In het geval van Qlik was het de platformbeschikbaarheid van grote geheugenservers die Qlik in staat stelde de traditionele, op kubussen gebaseerde rapportage te verstoren. Bij Tamr stelt de platformbeschikbaarheid van machinaal leren op grote schaal ons in staat om handmatige, op regels gebaseerde MDM te doorbreken ten gunste van een op AI gebaseerde aanpak. Het is belangrijk om er altijd achter te komen welke platformverschuiving de oorzaak is van uw disruptie.
Wat inspireerde de ontwikkeling van AI-native Master Data Management (MDM) en hoe verschilt dit van traditionele MDM-oplossingen?
De ontwikkeling van Tamr kwam voort uit academisch werk aan het MIT (Massachusetts Institute of Technology) rond entiteitsresolutie. Onder de academische leiding van Turing Award-winnaar Michael Stonebraker was de vraag die het team onderzocht âkunnen we datarecords uit honderdduizenden bronnen en miljoenen records koppelen.â Op het eerste gezicht is dit een onoverkomelijke uitdaging, want hoe meer records en bronnen, hoe meer records elke mogelijke match moet worden vergeleken. Computerwetenschappers noemen dit een ân-kwadraatprobleemâ omdat het probleem geometrisch toeneemt met de schaal.
Traditionele MDM-systemen proberen dit probleem op te lossen met regels en grote hoeveelheden handmatige datacuratie. Regels zijn niet schaalbaar omdat je nooit genoeg regels kunt schrijven om elk hoekgeval te dekken en het beheren van duizenden regels een technische onmogelijkheid is. Handmatig beheer is extreem duur omdat het afhankelijk is van mensen die miljoenen mogelijke records en vergelijkingen moeten doornemen. Alles bij elkaar verklaart dit de slechte marktacceptatie van traditionele MDM-oplossingen (Master Data Management). Eerlijk gezegd houdt niemand van traditionele MDM.
Het simpele idee van Tamr was om een ââAI te trainen om het werk van bronopname, recordmatching en waarderesolutie uit te voeren. Het mooie van AI is dat het niet eet, slaapt of op vakantie gaat; het is ook in hoge mate parallelliseerbaar, dus het kan enorme hoeveelheden gegevens verwerken en zich bezighouden met het verbeteren ervan. Dus waar MDM voorheen onmogelijk was, is het nu eindelijk mogelijk om schone, geconsolideerde, up-to-date gegevens te verkrijgen (zie hierboven).
Wat zijn de grootste uitdagingen waarmee bedrijven worden geconfronteerd met hun databeheer, en hoe gaat Tamr deze problemen aan?
De eerste en misschien wel de belangrijkste uitdaging waarmee bedrijven op het gebied van databeheer worden geconfronteerd, is dat hun zakelijke gebruikers de gegevens die ze genereren niet gebruiken. Of anders gezegd: als datateams geen gegevens van hoge kwaliteit produceren die hun organisaties gebruiken om analytische vragen te beantwoorden of bedrijfsprocessen te stroomlijnen, verspillen ze tijd en geld. Een primaire output van Tamr is een 360-pagina voor elk entiteitsrecord (denk aan: klant, product, onderdeel, enz.) die alle onderliggende gegevens van eerste en derde partijen combineert, zodat zakelijke gebruikers de gegevens kunnen zien en er feedback op kunnen geven. Zoals een wiki voor uw entiteitsgegevens. Deze 1-pagina is tevens de input voor een conversatie-interface waarmee zakelijke gebruikers met de data vragen kunnen stellen en beantwoorden. Taak één is dus om de gebruiker de gegevens te geven.
Waarom is het zo moeilijk voor bedrijven om gebruikers de gegevens te geven waar ze van houden? Omdat er drie belangrijke problemen aan dat doel ten grondslag liggen: het laden van een nieuwe bron, het matchen van de nieuwe records met de bestaande gegevens en het corrigeren van de waarden/velden in de gegevens. Tamr maakt het gemakkelijk om nieuwe gegevensbronnen te laden, omdat de AI automatisch nieuwe velden in een gedefinieerd entiteitsschema in kaart brengt. Dit betekent dat ongeacht hoe een nieuwe gegevensbron een bepaald veld noemt (bijvoorbeeld: klant_naam), het wordt toegewezen aan de juiste centrale definitie van die entiteit (bijvoorbeeld: âklantnaamâ). De volgende uitdaging is het koppelen van records die duplicaten zijn. Duplicatie betekent in deze context dat de records in feite dezelfde entiteit in de echte wereld zijn. De AI van Tamr doet dit en gebruikt zelfs externe bronnen van derden als âgrondwaarheidâ om gemeenschappelijke entiteiten zoals bedrijven en mensen op te lossen. Een goed voorbeeld hiervan is het koppelen van alle records uit vele bronnen voor een belangrijke klant, zoals 'Dell Computer'. Ten slotte kunnen er voor een bepaald record velden zijn die leeg of onjuist zijn. Tamr kan de juiste veldwaarden uit interne bronnen en bronnen van derden toewijzen.
Kunt u een succesverhaal delen waarin Tamr het databeheer en de bedrijfsresultaten van een bedrijf aanzienlijk heeft verbeterd?
CHG Healthcare is een belangrijke speler in de gezondheidszorgsector en verbindt bekwame zorgprofessionals met faciliteiten in nood. Of het nu gaat om tijdelijke artsen via Locums, verpleegkundigen met RNnetwork of bredere oplossingen via CHG zelf, zij bieden op maat gemaakte personeelsoplossingen om zorginstellingen soepel te laten functioneren en kwaliteitszorg aan patiënten te leveren.
Hun fundamentele waardepropositie is het verbinden van de juiste zorgaanbieders met de juiste instelling op het juiste moment. Hun uitdaging was dat ze geen accuraat, uniform beeld hadden van alle providers in hun netwerk. Gezien hun omvang (meer dan 7.5 miljoen aanbieders) was het onmogelijk om hun gegevens accuraat te houden met traditionele, op regels gebaseerde benaderingen zonder de inzet van menselijke curatoren te verbreken. Ze konden het probleem ook niet negeren, omdat hun personeelsbeslissingen ervan afhingen. Slechte gegevens kunnen voor hen betekenen dat een dienstverlener meer diensten krijgt dan hij aankan, wat tot een burn-out kan leiden.
Met behulp van de geavanceerde AI/ML-mogelijkheden van Tamr heeft CHG Healthcare de dubbele artsendossiers met 45% kunnen terugdringen en de handmatige gegevensvoorbereiding, die werd gedaan door schaarse data- en analysebronnen, bijna volledig geëlimineerd. En het allerbelangrijkste: door een vertrouwd en accuraat beeld te hebben van leveranciers kan CHG de personeelsbezetting optimaliseren, waardoor ze een betere klantervaring kunnen bieden.
Wat zijn enkele veel voorkomende misvattingen over AI in databeheer, en hoe helpt Tamr deze mythen te ontkrachten?
Een veel voorkomende misvatting is dat AI âperfectâ moet zijn, of dat regels en menselijke beheer perfect zijn in tegenstelling tot AI. De realiteit is dat regels voortdurend falen. En belangrijker nog: als regels falen, zijn méér regels de enige oplossing. Je hebt dus een onbeheersbare puinhoop van regels. En het menselijk beheer is ook feilbaar. Mensen hebben misschien goede bedoelingen (hoewel niet altijd), maar ze hebben niet altijd gelijk. Wat nog erger is, is dat sommige menselijke curatoren beter zijn dan andere, of eenvoudigweg andere beslissingen kunnen nemen dan anderen. AI daarentegen is van nature probabilistisch. We kunnen via statistieken valideren hoe nauwkeurig deze technieken zijn, en als we dat doen, ontdekken we dat AI goedkoper en nauwkeuriger is dan welk concurrerend alternatief dan ook.
Tamr combineert AI met menselijke verfijning voor gegevensnauwkeurigheid. Kunt u uitleggen hoe deze combinatie in de praktijk werkt?
Mensen leveren iets uitzonderlijk belangrijks voor AI: zij zorgen voor de training. AI gaat eigenlijk over het opschalen van menselijke inspanningen. Waar Tamr naar kijkt bij mensen is het kleine aantal voorbeelden (âtrainingslabelsâ) dat de machine kan gebruiken om de modelparameters in te stellen. Hoe dit er in de praktijk uit ziet, is dat mensen een kleine hoeveelheid tijd met de gegevens doorbrengen, waarbij ze Tamr voorbeelden geven van fouten en vergissingen in de gegevens, en de AI voert deze lessen uit over de volledige dataset(s). Bovendien kan de AI, naarmate er nieuwe gegevens worden toegevoegd of gegevens veranderen, gevallen aan het licht komen waarin het moeite heeft om met vertrouwen beslissingen te nemen (âmatches met weinig vertrouwenâ) en de mens om input te vragen. Deze input wordt uiteraard gebruikt om de modellen te verfijnen en bij te werken.
Welke rol spelen grote taalmodellen (LLM's) in de datakwaliteit- en verrijkingsprocessen van Tamr?
Ten eerste is het belangrijk om duidelijk te zijn waar LLMâs goed in zijn. In wezen gaan LLM's over taal. Ze produceren tekstreeksen die iets betekenen, en ze kunnen de betekenis van de tekst die hen wordt overhandigd 'begrijpen'. Je zou dus kunnen zeggen dat het taalmachines zijn. Dus voor Tamr, waar taal belangrijk is, gebruiken we LLM's. Een voor de hand liggend voorbeeld is onze conversatie-interface die bovenop onze entiteitsgegevens zit, die we liefkozend onze virtuele CDO noemen. Wanneer u met uw echte CDO spreekt, begrijpen zij u en reageren zij in taal die u begrijpt. Dit is precies wat we van een LLM verwachten, en dat is precies hoe we het gebruiken in dat deel van onze software. Het waardevolle aan Tamr in deze context is dat we de entiteitsgegevens gebruiken als context voor het gesprek met onze vCDO. Het is alsof uw echte CDO AL uw BESTE bedrijfsgegevens binnen handbereik heeft wanneer zij op uw vragen reageren â zou dat niet geweldig zijn!
Daarnaast zijn er gevallen waarin we bij het opschonen van gegevenswaarden of het toeschrijven van ontbrekende waarden een op taal gebaseerde interpretatie van invoerwaarden willen gebruiken om een ââontbrekende waarde te vinden of te corrigeren. U kunt bijvoorbeeld aan de hand van de tekst â5 mm kogellagerâ vragen wat de maat van het onderdeel is, en een LLM (of een persoon) zou correct â5 mmâ antwoorden.
Ten slotte zijn de onderliggende LLM's modellen die de taalbetekenis coderen voor tokens (denkwoorden). Deze kunnen erg handig zijn bij het berekenen van taalkundige vergelijkingen. Dus hoewel â5â en âvijfâ geen karakters gemeen hebben, liggen ze qua taalkundige betekenis heel dicht bij elkaar. We kunnen deze informatie dus gebruiken om records aan elkaar te koppelen.
Hoe ziet u de toekomst van databeheer evolueren, vooral met de vooruitgang op het gebied van AI en machine learning?
Het âBig Dataâ-tijdperk van begin jaren 2000 moet herinnerd worden als het âSmall Dataâ-tijdperk. Hoewel er de afgelopen twintig jaar veel data is gecreĂ«erd, mogelijk gemaakt door de commoditisering van opslag en computergebruik, is het merendeel van de data die een impact hebben gehad in de onderneming relatief kleinschalig: eenvoudige verkoop- en klantrapporten, marketinganalyses, en andere datasets die gemakkelijk in een dashboard kunnen worden weergegeven. Het resultaat is dat veel van de tools en processen die bij datamanagement worden gebruikt, zijn geoptimaliseerd voor 'small data'. Daarom is op regels gebaseerde logica, aangevuld met menselijke curatie, nog steeds zo prominent aanwezig in datamanagement.
De manier waarop mensen data willen gebruiken verandert fundamenteel door de vooruitgang op het gebied van AI en machine learning. Het idee van âAI-agentsâ die autonoom een ââaanzienlijk deel van iemands werk kunnen uitvoeren, werkt alleen als de agenten over de gegevens beschikken die ze nodig hebben. Als u verwacht dat een AI-agent in de frontlinie van de klantenondersteuning zal dienen, maar u hebt vijf representaties van âDell Computerâ in uw CRM en deze is niet verbonden met productinformatie in uw ERP, hoe kunt u dan van hen verwachten dat zij hoge kwaliteit leveren? kwaliteitsservice als iemand van Dell contact met u opneemt?
De implicatie hiervan is dat onze databeheertools en -processen zullen moeten evolueren om de schaal aan te kunnen, wat betekent dat we AI en machine learning moeten omarmen om meer dataopschoningsactiviteiten te automatiseren. Mensen zullen nog steeds een grote rol spelen bij het toezicht op het proces, maar fundamenteel moeten we de machines vragen meer te doen, zodat niet alleen de gegevens in één dashboard accuraat en volledig zijn, maar ook de meerderheid van de gegevens in de onderneming.
Wat zijn vandaag de dag de grootste kansen voor bedrijven als het gaat om het effectiever inzetten van hun data?
Het vergroten van het aantal manieren waarop mensen data kunnen consumeren. Het lijdt geen twijfel dat verbeteringen in de tools voor datavisualisatie ervoor hebben gezorgd dat data binnen de hele onderneming veel toegankelijker is geworden. Nu moeten data- en analyseleiders verder kijken dan het dashboard naar manieren om waarde te leveren met data. Interfaces zoals interne 360-pagina's, kennisgrafieken en gespreksassistenten worden mogelijk gemaakt door nieuwe technologieën en bieden potentiële dataconsumenten meer manieren om data te gebruiken in hun dagelijkse workflow. Het is vooral krachtig als deze zijn ingebed in de systemen die mensen al gebruiken, zoals CRM's en ERP's. De snelste manier om meer waarde uit data te halen is door de data naar de mensen te brengen die er gebruik van kunnen maken.
Bedankt voor het geweldige interview, lezers die meer willen weten, zouden moeten bezoeken Tamro.