Connect with us

Thought leaders

Geef AI geen schuld voor het geloofwaardigheidsprobleem van PR

mm

Een recent Unite.ai-piece onderzocht hoe AI PR-onderzoek heeft getransformeerd – het verzamelen van gegevens, het identificeren van trends en het produceren van media-ready bevindingen sneller maakt, maar het ook moeilijker maakt om nauwkeurigheid en vertrouwen te garanderen. Die observatie vat een echte spanning in de industrie samen en verdient een diepere blik. Het probleem is niet AI zelf; het is hoe gemakkelijk snelheid oordeel kan inhalen.

AI heeft PR inderdaad sneller gemaakt. Maar zoals we weten van rijden, is sneller niet altijd de slimste manier vooruit.

De technologie heeft wat voorheen een zorgvuldig, stap-voor-stap-proces was – het ontwerpen van enquêtes, het schoonmaken van gegevens, het valideren van bronnen – samengeperst in iets dat bijna onmiddellijk kan gebeuren. Die compressie bespaart tijd, maar verwijdert ook de natuurlijke pauzes die ons eerder de ruimte gaven om te controleren en uit te dagen wat we vonden. Zonder die pauzes wordt nauwkeurigheid gemakkelijker over het hoofd gezien. Het echte risico is niet dat AI PR zal breken. Het is dat we het zelf zullen doen door versnelling voor vooruitgang aan te nemen.

De geloofwaardigheidskloof in PR is niet de schuld van AI – althans niet direct. De kloof komt voort uit hoe snel AI ons laat bewegen. Elke keer dat we publiceren zonder verificatie of “sneller” als synoniem voor “beter” behandelen, ondermijnen we het vertrouwen dat ons werk laat tellen. Geloofwaardigheid is wat ons werk als PR-professionals gewicht geeft – wanneer we het verdienen. Het behoud van geloofwaardigheid betekent dat we langzaam genoeg moeten gaan om te twijfelen aan wat we publiceren en verificatie onderdeel van het proces moeten maken, in plaats van een nasleep.

Vertraag om te versnellen

AI heeft het ons gemakkelijk gemaakt om van een idee naar een dataset in recordtijd te gaan. Wat eerder dagen duurde, duurt nu uren — en die versnelling is stilletjes een industrieel reflex geworden. Maar snelheid geeft ons volume, niet geldigheid. Journalisten interesseren zich niet voor hoe snel we gegevens leveren; ze interesseren zich voor of het standhoudt. Ik heb AI-hulpmiddelen indrukwekkende samenvattingen over tientallen artikelen zien produceren, maar ik heb ze ook zien statistieken verzinnen die plausibel klonken maar geen echte bron hadden.

Studies bevestigen de noodzaak tot voorzichtigheid. Een JMIR-studie toonde aan dat grote taalmodellen hallucineerden – valse of ongeverifieerde informatie produceerden – in ongeveer 40 procent van GPT-3.5 en 29 procent van GPT-4-uitvoer, zelfs bij feit-gebaseerde taken. Evenzo toonde een NewsGuard-audit aan dat AI-systemen valse of misleidende claims in ongeveer een derde van nieuwsgerelateerde antwoorden verspreidden. Beide bevindingen benadrukken een eenvoudige waarheid: snelheid verhoogt het risico wanneer verificatie niet in hetzelfde tempo plaatsvindt.

Daarom is het nemen van extra tijd om te verifiëren geen vertraging; het is een investering in geloofwaardigheid. Een dag doorbrengen met het bevestigen van gegevens, het verfijnen van de context of het onder druk zetten van het verhaal kan vaak inzichten onthullen die we anders zouden missen. Het kan het verschil betekenen tussen een kop die verdwijnt en een verhaal dat een echt gesprek aangaat. Vertragen is niet over het weerstaan van technologie; het is over het behoud van het menselijke oordeel dat informatie in iets omzet dat publiek daadwerkelijk kan vertrouwen.

Houd mensen in de lus

AI is geweldig in het produceren van resultaten. Maar het is niet zo goed in het weten of die resultaten enige zin hebben. Dat is het kernprobleem. Modellen kunnen enquête-antwoorden genereren, duizenden artikelen samenvatten en zelfs inzichten synthetiseren die op papier luchtdicht lijken. Maar AI-modellen begrijpen context, intentie of gevolg niet. Een mens wel.

Die mismatch is goed gedocumenteerd in AI-ethiek en betrouwbaarheidsdiscours. Het “hallucinatie”-fenomeen wordt vaak toegeschreven aan de manier waarop LLM’s patronen leren uit trainingsgegevens in plaats van uit eerste principes, wat betekent dat ze met vertrouwen dingen kunnen beweren die geen enkele grond hebben. In het PR-domein is het risico extra acuut: interface-uitvoer kan biases weerspiegelen of claims kaderen op manieren die verhalen favoriseren boven feiten.

Het is gemakkelijk te zien hoe één verkeerd “feit” uit de hand kan lopen. Stel je voor dat een AI-gegenereerd datapunt zijn weg vindt in een pitch-deck; een percentage dat goed klinkt en het verhaal ondersteunt. De klant houdt ervan. Een journalist citeert het. Dan controleert iemand de bron en realiseert zich dat het nooit echt was. Plotseling wordt wat bedoeld was om een merk als thoughtfull te positioneren een geloofwaardigheidsbrand.

Dus “mensen in de lus houden” kan niet alleen een zin in een PowerPoint-slide zijn – het moet zijn hoe het werk daadwerkelijk wordt gedaan. Redacteuren, analisten en domeinexperts moeten aanwezig zijn om de ongemakkelijke vragen te stellen die het eindproduct betrouwbaar maken. Ze kunnen bias vangen, zwakke kaders signaleren en ervoor zorgen dat wat we publiceren de realiteit weerspiegelt. Met andere woorden: AI kan snel gaan, maar het heeft nog steeds een bestuurder nodig die weet wanneer hij de remmen moet intrappen. Zonder dat oordeel verbeteren we het proces niet; we automatiseren alleen fouten.

Train voor oordeel

Terwijl AI het werk herdefinieert, moet de manier waarop we trainen daarop aangepast worden. De meeste comms-professionals zijn nu verder gegaan dan het leren schrijven van betere prompts. De vaardigheid die we allemaal nu nodig hebben is oordeel – weten wanneer we de uitvoer kunnen vertrouwen, wanneer we het in twijfel moeten trekken en wanneer we het helemaal moeten weggooien.

Wanneer ik jonge PR-professionals coach, benadruk ik dat AI tien versies van een pitch in seconden kan schrijven. Hun taak is niet om de meest flashy te kiezen; het is om de versie te vinden die daadwerkelijk klinkt als hun klant, en die dan sterker te maken. Dat kan betekenen dat het argument strakker wordt, dat het wordt gebaseerd op echte gegevens of dat de stem en toon worden toegevoegd die het geloofwaardig maken. Een AI-model kan een concept schrijven, maar ons oordeel maakt het tot communicatie die het lezen waard is.

Deze verschuiving gebeurt al. Sommige agentschappen schakelen over van “prompt-engineering” naar “geloofwaardigheid-editing”, waarbij ze gewoonten opbouwen rond het controleren van claims, het valideren van bronnen en het afstemmen van de boodschap op de merkstem. Oefeningen omvatten het stellen van vragen als: Zou ik dit tegen een journalist zeggen? Zou ik mijn naam eronder zetten?

Die eenvoudige vragen bouwen de reflexen op die zowel klanten als reputaties beschermen. En dat is het echte doel van AI in PR. Niet snellere kopie, maar scherpere oordeel. Trainen voor oordeel verhoogt de standaard van denken en versterkt het vertrouwen dat snelheid duurzaam maakt.

Meet vertrouwen, niet ommekeer

PR-professionals meten hun prestaties meestal via metrics als leveringssnelheid, dekkingvolume en kost per plaatsing. Maar in een AI-gedreven industrie vertellen die metrics niet het hele verhaal. Uitvoer is gemakkelijk te kwantificeren; geloofwaardigheid niet. En toch is dat wat klanten en journalisten zwaarder wegen dan ooit tevoren.

Het verschil tussen kwantiteit en geloofwaardigheid wordt zichtbaar in de gegevens. In een meetstudie bereikte menselijke sentimentanalyse 85 procent nauwkeurigheid, vergeleken met 59 procent voor AI-gebaseerde methoden – een gapende kloof die de rol van kritische beoordeling kwantificeert. Het is niet dat mensen sneller werken, maar dat ze context interpreteren, en dat is hetzelfde instinct dat klanten vertrouwen wanneer ze geloofwaardigheid beoordelen. Als we dat verschil in nauwkeurigheid kunnen meten, kunnen we ook de waarde van menselijke toezicht zelf meten.

Tim Gray is een communicatieleider en Strategisch Communicatieadviseur bij Intelligent Relations. Een voormalig zaken- en technologiejournalist, heeft hij corporate en productcommunicatie geleid voor high-growth merken en helpt nu bij het vormgeven van de strategie bij Intelligent Relations, een AI-gepowered PR-platform.