Tankeledere
Beskyld ikke AI for PR’s troværdighedsproblem

En ny Unite.ai artikel undersøgte, hvordan AI har forandret PR-forskning – gøret det hurtigere at indsamle data, spotte tendenser og producere medieklare resultater, men også sværere at garantere nøjagtighed og tillid. Denne observation fanger en reel spænding i branchen, og den fortjener en dybere gennemgang. Problemet er ikke AI selv; det er, hvor let hastighed kan overhaste dommen.
AI har bestemt gjort PR hurtigere. Men som vi ved fra kørsel, er hurtigere ikke altid den smarte vej fremad.
Teknologien har kondenseret, hvad der tidligere var en omhyggelig, trin-for-trin-proces – design af undersøgelser, rensning af data, validering af kilder – til noget, der kan ske næsten øjeblikkeligt. Denne kompression sparer tid, men den fjerner også de naturlige pauser, der tidligere gav os plads til at dobbelttjekke og udfordre, hvad vi fandt. Uden disse pauser, bliver nøjagtighed lettere at missende. Den virkelige risiko er ikke, at AI vil ødelægge PR, men at vi selv vil gøre det ved at forveksle acceleration med fremgang.
Troværdighedsgapet i PR er ikke AI’s skyld – i hvert fald ikke direkte. Gapet kommer fra, hvor hurtigt AI tillader os at flytte. Hver gang vi offentliggør uden verifikation eller behandler “hurtigere” som synonymt med “bedre”, undergraver vi den tillid, der gør vores arbejde vigtigt. Troværdighed er, hvad der giver vores arbejde som PR-folk vægt – når vi fortjener det. At bevare troværdighed betyder at gå langsommere, så vi kan spørgge, hvad vi offentliggør, og gøre verifikation til en del af processen, ikke en eftertanke.
Langsom ned for at accelerere
AI har gjort det let at flytte fra en idé til en dataset på rekordtid. Hvad der tidligere tog dage, tager nu timer – og den acceleration er stille blevet en brancherefleks. Men hastighed giver os volumen, ikke validitet. Journalister kunne ikke mindre om, hvor hurtigt vi leverer data; de kunne om, hvorvidt det holder mål. Jeg har set AI-værktøjer producere imponerende sammenfatninger på tværs af dusinvis af artikler, men jeg har også set dem opfinde statistik, der lyder plausibelt, men ikke har nogen reel kilde.
Studier understreger behovet for forsigtighed. En JMIR-studie fandt, at store sprogmodeller hallucinerede – producerede falske eller uverificerede oplysninger – i cirka 40 procent af GPT-3.5 og 29 procent af GPT-4-udgang, selv på faktuel opgave. Ligeså fandt en NewsGuard-revision, at AI-systemer spredte falske eller misvisende påstande i omtrent en tredjedel af nyhedsrelaterede svar. Begge fund understreger en simpel sandhed: hastighed forstærker risikoen, når verifikation ikke holder trit.
Det er derfor, at tage ekstra tid til at verificere ikke er en forsinkelse; det er en investering i troværdighed. En dag tilbragt med at bekræfte data, raffinere kontekst eller presse teste narrativen kan ofte afsløre indsigt, vi ellers ville have overset. Det kan betyde forskellen på en overskrift, der forsvinder, og en historie, der driver en reel samtale. At gå langsommere er ikke om at modstå teknologi; det er om at bevare den menneskelige dom, der omdanner information til noget, publikum kan stole på.
Hold mennesker i kredsløbet
AI er fantastisk til at producere resultater. Men det er ikke så godt til at vide, om disse resultater har nogen mening. Det er det centrale problem. Modeller kan generere survey-svar, sammenfatte tusindvis af artikler og endda syntetisere indsigt, der ser vandtæt ud på papir. Men AI-modeller forstår ikke kontekst, hensigt eller konsekvens. Et menneske kan.
Denne misforståelse er vel dokumenteret i AI-etik og pålidelighedsdiskurs. “Hallucinations”-fænomenet spores ofte til, hvordan LLM’er lærer mønstre fra træningsdata snarere end fra grundlæggende principper, hvilket betyder, at de kan påstå ting med stor sikkerhed, men uden nogen reel grund. I PR-domænet er risikoen særligt akut: grænseflade-udgang kan reflektere fordomme eller ramme påstande på måder, der favoriserer narrativer snarere end fakta.
Det er let at se, hvordan en enkelt fejl “fakta” kan løbe løbsk. Forestil dig en AI-genereret datapunkt, der kommer ind i en pitch-deck; en procentdel, der lyder rigtig og støtter historien. Klienten elsker det. En reporter citerer det. Så checker nogen kilden og indser, at det aldrig var virkeligt. Pludselig bliver, hvad der var tænkt som en troværdig positionering af et brand, til en troværdighedskrise.
Så “at holde mennesker i kredsløbet” kan ikke bare være en linje i en PowerPoint-side – det skal være, hvordan arbejdet faktisk bliver gjort. Redaktører, analytikere og domæneeksperter skal være der for at stille de ubekvemme spørgsmål, der gør slutproduktet troværdigt. De kan fange fordomme, flagre svage rammer og sikre, at det, vi udgiver, reflekterer virkeligheden. Med andre ord: AI kan flytte hurtigt, men det har stadig brug for en chauffør, der ved, hvornår man skal trykke på bremserne. Uden den dom, er vi ikke ved at forbedre processen; vi automatiserer fejl.
Træn for dom
Da AI omformulerer arbejdet, skal måden, vi træner på, også ændre sig. De fleste kommunikationsforskere i dag er langt over punktet, hvor de lærer at skrive bedre prompts. Færdigheden, vi alle har brug for nu, er dom – at vide, hvornår man skal stole på udgangen, hvornår man skal spørgende og hvornår man skal smide det ud helt.
Når jeg coacher yngre PR-folk, understreger jeg, at AI kan skrive ti versioner af en pitch på sekunder. Deres job er ikke at vælge den flotteste; det er at finde versionen, der faktisk lyder som deres klient, og så gøre den stærkere. Det kan betyde at stramme argumentet, grundfæstede det i virkelige data eller tilføje stemmen og tonen, der gør det troværdigt. En AI-model kan udarbejde kopi, men vores dom omdanner det til kommunikation, der er værd at læse.
Denne ændring sker allerede. Nogle agenturer skifter fra “prompt-engineering” til “troværdighedsredigering”, hvor de bygger vaner om at tjekke påstande, validerer kilder og justerer beskeder med brand-stemmen. Øvelserne inkluderer nu at spørge: Ville jeg sige dette til en reporter? Ville jeg sætte mit navn på det?
Disse simple spørgsmål bygger de reflekser, der beskytter både klienter og rygte. Og det er det virkelige mål for AI i PR. Ikke hurtigere kopi, men skarpere dom. Træning for dom hæver standarden for tænkning og styrker den tillid, der gør hastighed bæredygtig.
Mål tillid, ikke omsætning
PR-folk måler normalt deres præstation gennem metrikker som leveringshastighed, dækningsoversigt og omkostninger pr. placering. Men i en AI-dreven branche fortæller disse metrikker ikke hele historien. Udgang er let at kvantificere; troværdighed er det ikke. Og alligevel er det, hvad klienter og journalister vægter tungere end nogensinde.
Den forskel mellem mængde og troværdighed viser sig i data. I en målingsstudie nåede menneskelig sentimentanalyse 85 procent nøjagtighed, sammenlignet med 59 procent for AI-baserede metoder – et gap, der kvantificerer rollen af kritisk gennemgang. Det er ikke, at mennesker arbejder hurtigere, men at de fortolker kontekst, og det er den samme instinkt, klienter stoler på, når de vurderer troværdighed. Hvis vi kan måle denne forskel i nøjagtighed, kan vi også måle værdien af menneskelig oversigt selv.
Den nye ROI skal måle, hvad der faktisk opretholder relationer: troværdighed, verifikationsrater og hvor længe den opnåede dækning fortsætter med at drive engagement. Klienter spørger ikke længere: “Kan vi offentliggøre dette i dag?” men “Kan vi stå på dette?” Hastighed betyder noget, men nøjagtighed og tillid er, hvad der varer.
AI giver os en chance for at gøre begge dele: flytte hurtigere og tænke dybere. Den virkelige værdi ligger ikke i, hvor hurtigt AI producerer indhold, men i, hvordan det hjælper os med at træffe smartere, mere forsvarlige beslutninger. Arbejdet, der varer, bliver ikke det hurtigste; det bliver det arbejde, folk stoler på. Hold, der bygger denne tillid ind i, hvordan de måler succes, vil eje fremtiden.
En troværdighedsfordel
Troværdighedskrisen i PR er ikke uundgåelig. Det er et ledelsesproblem, ikke et teknologisk, og løsningen er inden for rækkevidde: gå langsommere for at verificere, hold mennesker i kredsløbet, træn for dom og mål tillid, ikke kun hastighed. AI ændrer, hvor hurtigt vi arbejder, men det kan også mindde os om hvorfor vi gør arbejdet – for at informere med nøjagtighed og integritet. Den virkelige mulighed nu er kulturel: at gøre troværdighed til den metrik, der betyder mest.












