Connect with us

Thought leaders

De persoonlijkheid van uw AI is net zo belangrijk als de IQ – en zal de inzet van ondernemingen maken of breken

mm
A woman and a man standing on a high-rise balcony looking at a glowing data visualization that blends sharp blue geometric lines with soft amber waves, symbolizing the balance between AI benchmarks and personality.

De meeste bedrijven kiezen nog steeds voor AI-modellen op basis van benchmarks. In de praktijk is dat zelden wat bepaalt of deze systemen daadwerkelijk werken.

Tot nu toe zijn de meeste gesprekken over grote taalmodellen in ondernemingsomgevingen gedomineerd door benchmarks. Teams trekken naar meetbare prestaties, zoals welk model het meest intelligent is, het sterkst in codering, het meest nauwkeurig in samenvatting of in wiskundige redenering.

Maar als teams beginnen met het verlaten van de experimentele fase en duiken in daadwerkelijke inzet op grote schaal, zullen andere belangrijke factoren, die door de meeste CEOs sterk worden genegeerd, snel bewijzen net zo cruciaal te zijn voor het succes van een bedrijf.

De inzetbaarheid van AI

Ruwe intelligentie en analytische capaciteit zijn duidelijk belangrijk, maar de meest onderschatte variabele in ondernemings-AI-inzet is persoonlijkheid. Persoonlijkheid, in de context van grote taalmodellen, verwijst naar de consistente stem, toon en gedrag die een model overdraagt bij interacties. Het is wat een AI coherent en betrouwbaar maakt.

Wanneer AI wordt geïmplementeerd, moeten bedrijven dezelfde aanpak volgen als bij het aannemen van een menselijke medewerker: beoordeel niet alleen hoe goed een model een taak kan voltooien, maar ook zijn houding ten opzichte van de taak, hoe het communiceert en hoe het past in de bredere workflow.

De mogelijkheid van een model om consistentie te behouden, adequaat te reageren en nuances in verschillende contexten aan te pakken, kan een aanzienlijke impact hebben op bedrijfsresultaten. Een technisch briljant AI dat langzaam reageert, van toon verandert of subtiele interacties verkeerd aanpakt, kan door bedrijven verkeerd worden toegepast, waardoor gebruikers gefrustreerd raken, de betrokkenheid afneemt en uiteindelijk de effectiviteit van de AI en het succes van het bedrijf verminderen.

Dit is vooral belangrijk in branches zoals klantenservice, politieke uitreiking of interne communicatie, aangezien subtiele verschuivingen in toon of formulering tussen reacties verwarring kunnen veroorzaken, vertrouwen kunnen ondermijnen en de algehele betrokkenheid kunnen verminderen. Net als bij mensen, er is geen enkel droommodel dat in elke categorie beter presteert dan de concurrentie. Sommige modellen zijn beter in het uitvoeren van analytische taken zoals codering of wiskunde, terwijl anderen veel beter presteren bij conversational writing en het samenvatten van vergaderingen.

Maar een uitdaging voor teams die op basis van deze systemen bouwen, is dat deze kenmerken niet vaststaan.

Een bewegend doel

Het AI-landschap evolueert sneller dan de meeste organisaties kunnen bijhouden. Nieuwe versies worden frequent uitgebracht en prestatiekenmerken kunnen van de ene update naar de andere verschuiven. Google’s Gemini-modelserie is een recent voorbeeld.

Gemini 2.0 Pro werd in februari 2025 uitgebracht en werd onmiddellijk geprijsd als het vlaggenschipmodel voor ontwikkelaars en ondernemingen die het wereldwijd gebruiken voor codering en complexe prompts.

Het kwam met wat op dat moment de grootste contextwindow was die Google ooit had aangeboden, met twee miljoen tokens, waardoor het in staat was om grote hoeveelheden informatie tegelijk grondig te analyseren en te begrijpen, en tegelijkertijd tools zoals Google Search te gebruiken en zelfs code te schrijven.

Voor teams die systemen bouwen die grote hoeveelheden gegevens snel en nauwkeurig moeten verwerken, leek het de duidelijke keuze. Maar binnen enkele weken bracht Google Gemini 2.5 Pro uit, die onmiddellijk de leiderschapslijsten overtrof en voorbij zijn voorganger vloog met verbeteringen in codering, wiskunde en wetenschap.

In één nacht was het model dat net de beste optie op de markt was, al vervangen minder dan twee maanden na de lancering. Maar vroege aanvaarders merkten onmiddellijk dat de veranderingen niet alleen incrementeel of analytisch waren – Gemini’s hele persoonlijkheid was in één nacht veranderd. Meerdere ontwikkelaars gingen zo ver als te zeggen dat de AI zich gedroeg alsof het was “geblokeerd” na de update.

Ze klaagden dat de AI letterlijk “dommer” leek te worden – consistent langzamere reacties producerend, minder coherente uitvoer en inconsistenties vertonend in hoe het prompts afhandelde die het eerder geen problemen mee had en taken die eerder soepel verliepen, plotseling stug werden.

En hier begint de strategie van een bedrijf rond AI-inzet fundamenteel te veranderen.

Verder dan de benchmarks

Op papier had Gemini 2.5 Pro de duidelijke winnaar moeten zijn met zijn enorme verbeteringen in capaciteit en veiligheid.

Maar in de praktijk veranderden die veranderingen volledig hoe betrouwbaar het model was, hoe het zich gedroeg, reageerde op prompts en, in één klap, stuurden teams die net een fortuin hadden uitgegeven en urenlang hadden gebouwd rond deze systemen, terug naar af als het model zijn nieuwe capaciteiten niet aanpaste aan hun bestaande pijplijn.

Zelfs kleine verschuivingen in gedrag kunnen systemen die zijn gebouwd rond consistentie en voorspelbaarheid verstoren. Dit creëert een echt operationeel risico als een bedrijf sterk is gekoppeld aan één model, aangezien elke update onmiddellijke instabiliteit kan introduceren in teams die afhankelijk zijn van deze systemen.

Om dit te bestrijden, zijn veel vooruitstrevende bedrijven begonnen met het implementeren van een multi-modelstrategie waarbij ze verschillende taken routeren naar de modellen die het beste geschikt zijn voor hen, in plaats van te vertrouwen op één model om alles af te handelen.

Deze aanpak verbetert niet alleen de prestaties aangepast aan elke taak, maar vermindert ook het risico dat samenhangt met AI-implementatie, omdat als één model zou degraderen na een update, het de hele systeem die ervan afhankelijk is, niet zou meesleuren.

Voor bedrijven om niet alleen te overleven, maar te floreren in het hedendaagse bedrijfslandschap, moeten teams pijplijnen opzetten die verschillende modellen in- en uit kunnen wisselen, afhankelijk van de taak, en constant controleren hoe updates zowel de prestaties als de interactiekwaliteit beïnvloeden.

Uiteindelijk zullen de modellen zelf blijven evolueren met een tempo dat moeilijk te volgen is. Maar bedrijven die verandering plannen, redundantie bouwen en AI behandelen als zowel een instrument als een teamlid, zullen degene zijn die deze snelle verschuivingen in een concurrentievoordeel omzetten.

Andrew Missey is de medeoprichter van Convos, voorheen PubSent, een tweerichtings AI-gepowered tekstberichtplatform dat politieke strategen, campagnes, non-profitorganisaties en belangenbehartigingsgroepen helpt om gepersonaliseerde, feiten gebaseerde kiezersgesprekken op nationale schaal te voeren, waar hij product en engineering leidt. Voordat hij bij Convos kwam, werkte Andrew als software-ingenieur voor meerdere bedrijven, waaronder een in Seattle gevestigde venture-backed AI-startup die nationale food- en retailmerken zoals Starbucks, Crumbl en Mod Pizza bedient. Bovendien is Andrew bekwaam in Javascript, Python en Typescript.