Leader di pensiero
Non incolpare l’AI per il problema di credibilità delle PR

Un recente pezzo di Unite.ai ha esaminato come l’AI ha trasformato la ricerca delle PR – rendendola più veloce per raccogliere dati, individuare tendenze e produrre risultati pronti per i media, ma anche più difficile garantire l’accuratezza e la fiducia. Quella osservazione cattura una vera tensione nel settore, e merita un’analisi più approfondita. Il problema non è l’AI in sé; è come la velocità possa superare il giudizio.
L’AI ha certamente reso le PR più veloci. Ma come sappiamo guidando, più veloce non è sempre il modo più intelligente per andare avanti.
La tecnologia ha condensato ciò che un tempo era un processo accurato e graduale – progettare sondaggi, pulire i dati, validare le fonti – in qualcosa che può accadere quasi istantaneamente. Quella compressione risparmia tempo, ma rimuove anche le naturali pause che un tempo ci davano lo spazio per verificare e sfidare ciò che abbiamo trovato. Senza quelle pause, l’accuratezza diventa più facile da perdere. Il vero rischio non è che l’AI romperà le PR. È che noi stessi lo faremo, scambiando l’accelerazione per progresso.
Il divario di credibilità nelle PR non è colpa dell’AI – almeno non direttamente. Il divario deriva da come l’AI ci permette di muoverci velocemente. Ogni volta che pubblichiamo senza verificare o trattiamo “più veloce” come sinonimo di “migliore”, erodiamo la fiducia che rende il nostro lavoro importante. La credibilità è ciò che dà peso al nostro lavoro come professionisti delle PR – quando la meritiamo. Preservare la credibilità significa rallentare abbastanza per mettere in discussione ciò che pubblichiamo e rendere la verifica parte del processo, non un dopo pensiero.
Rallentare per accelerare
L’AI ha reso facile passare da un’idea a un set di dati in tempo record. Ciò che un tempo richiedeva giorni ora richiede ore – e quell’accelerazione è diventata un riflesso dell’industria. Ma la velocità ci dà volume, non validità. I giornalisti non si curano di quanto velocemente consegniamo i dati; si curano se i dati reggono. Ho visto strumenti AI produrre riassunti impressionanti su decine di articoli, ma ho anche visto inventare statistiche che sembravano plausibili ma non avevano alcuna fonte reale.
Gli studi rafforzano la necessità di cautela. Uno studio JMIR ha scoperto che i grandi modelli linguistici “hallucinavano” – producendo informazioni false o non verificate – nel 40 percento dei risultati di GPT-3.5 e nel 29 percento dei risultati di GPT-4, anche in compiti basati sui fatti. Allo stesso modo, un’audit di NewsGuard ha mostrato che i sistemi AI diffondevano affermazioni false o fuorvianti in circa un terzo delle risposte relative alle notizie. Entrambi i risultati evidenziano una verità semplice: la velocità amplifica il rischio quando la verifica non tiene il passo.
È per questo che prendere tempo extra per verificare non è un ritardo; è un investimento in credibilità. Un giorno trascorso a confermare i dati, raffinare il contesto o testare la narrazione spesso rivela insight che altrimenti non noteremmo. Può fare la differenza tra un titolo che svanisce e una storia che guida una conversazione reale. Rallentare non significa resistere alla tecnologia. Significa mantenere il giudizio umano che trasforma le informazioni in qualcosa che il pubblico può realmente fidarsi.
Mantenere gli esseri umani nel ciclo
L’AI è grande nel produrre risultati. Ma non è così grande nel sapere se quei risultati hanno senso. È il problema fondamentale. I modelli possono generare risposte ai sondaggi, riassumere migliaia di articoli e persino sintetizzare insight che sembrano airtight sulla carta. Ma i modelli AI non capiscono il contesto, l’intento o la conseguenza. Un essere umano sì.
Quella mancanza è ben documentata nel discorso sull’etica e l’affidabilità dell’AI. Il fenomeno dell'”allucinazione” è spesso attribuito a come i LLM apprendono modelli dai dati di training piuttosto che da principi fondamentali, il che significa che possono affermare con fiducia cose senza alcun fondamento. Nel dominio delle PR, il rischio è particolarmente acuto: le uscite dell’interfaccia possono riflettere pregiudizi o inquadrare affermazioni in modi che favoriscono le narrazioni piuttosto che i fatti.
È facile vedere come un solo “fatto” errato possa sfuggire al controllo. Immaginate un punto di dati generato da AI che fa il suo way in una presentazione; una percentuale che suona giusta e supporta la storia. Il cliente la adora. Un reporter la cita. Poi qualcuno controlla la fonte e si rende conto che non era reale. Improvvisamente, ciò che era destinato a posizionare un marchio come pensieroso diventa una tempesta di credibilità.
Quindi “mantenere gli esseri umani nel ciclo” non può essere solo una linea in una diapositiva PowerPoint – deve essere come il lavoro viene effettivamente svolto. Gli editor, gli analisti e gli esperti di dominio devono essere lì per fare le domande scomode che rendono il prodotto finale attendibile. Possono cogliere il pregiudizio, segnalare un framing debole e assicurarsi che ciò che pubblichiamo rifletta la realtà. In altre parole: l’AI può muoversi velocemente, ma ha ancora bisogno di un guidatore che sappia quando premere i freni. Senza quel giudizio, non stiamo migliorando il processo; stiamo solo automatizzando gli errori.
Formare per il giudizio
Mentre l’AI ridisegna il lavoro, il modo in cui ci formiamo deve cambiare con esso. La maggior parte dei professionisti delle comunicazioni oggi è ben oltre il punto di apprendere come scrivere prompt migliori. La competenza di cui tutti abbiamo bisogno ora è il giudizio – sapere quando fidarsi dell’output, quando metterlo in discussione e quando eliminarlo completamente.
Quando allenavo giovani professionisti delle PR, sottolineavo che l’AI può scrivere dieci versioni di un pitch in pochi secondi. Il loro lavoro non è scegliere la versione più appariscente; è trovare la versione che suona realmente come il loro cliente, e poi renderla più forte. Ciò potrebbe significare stringere l’argomentazione, fondarla su dati reali o aggiungere la voce e il tono che la rende credibile. Un modello AI può creare una bozza di copia, ma il nostro giudizio la trasforma in una comunicazione che vale la pena leggere.
Questo cambiamento sta già accadendo. Alcune agenzie stanno passando dall'”ingegneria dei prompt” all'”editing della credibilità”, costruendo abitudini intorno al controllo delle affermazioni, alla validazione delle fonti e all’allineamento del messaggio con la voce del marchio. Gli esercizi ora includono domande come: lo direi a un reporter? Ci metterei il mio nome?
Queste semplici domande costruiscono i riflessi che proteggono sia i clienti che le reputazioni. E quello è l’obiettivo reale dell’AI nelle PR. Non copie più veloci, ma giudizi più acuti. La formazione per il giudizio innalza lo standard del pensiero e rafforza la fiducia che rende la velocità sostenibile.
Misurare la fiducia, non il ritorno
I professionisti delle PR di solito misurano le prestazioni attraverso metriche come la velocità di consegna, il volume di copertura e il costo per posizionamento. Ma in un’industria guidata dall’AI, quelle metriche non raccontano tutta la storia. L’output è facile da quantificare; la credibilità no. Eppure, è ciò che i clienti e i giornalisti stanno pesando più di ogni altra cosa.
La differenza tra quantità e credibilità si manifesta nei dati. In uno studio di misurazione, l’analisi del sentimento umano ha raggiunto l’85 percento di accuratezza, rispetto al 59 percento per i metodi basati sull’AI – un divario che quantifica il ruolo della revisione critica. Non è che gli esseri umani lavorino più velocemente, ma che interpretano il contesto, e quello è lo stesso istinto che i clienti si fidano quando valutano la credibilità. Se possiamo misurare quella differenza di accuratezza, possiamo anche misurare il valore della supervisione umana in sé.
Il nuovo ROI dovrebbe misurare ciò che realmente sostiene le relazioni: attendibilità, tassi di verifica e quanto a lungo la copertura guadagnata continua a guidare l’engagement. Sempre più, i clienti non chiedono: “Possiamo pubblicare questo oggi?” ma “Possiamo sostenere questo?” La velocità conta, ma l’accuratezza e la fiducia sono ciò che dura.
L’AI ci dà la possibilità di fare entrambe le cose: muoversi più velocemente e pensare più a fondo. Il valore reale non è nella velocità con cui l’AI produce contenuti, ma in come ci aiuta a prendere decisioni più intelligenti e difendibili. Il lavoro che dura non sarà il più veloce; sarà il lavoro che la gente si fida. Le squadre che costruiscono quella fiducia nel modo in cui misurano il successo possiederanno il futuro.
Un vantaggio di credibilità
La crisi di credibilità nelle PR non è inevitabile. È un problema di gestione, non tecnologico, e la soluzione è a portata di mano: rallentare per verificare, mantenere gli esseri umani nel ciclo, formare per il giudizio e misurare la fiducia, non solo la velocità. L’AI sta cambiando come lavoriamo velocemente, ma può anche ricordarci perché facciamo il lavoro – per informare con accuratezza e integrità. L’opportunità reale ora è culturale: rendere la credibilità la metrica che conta di più.












