Connect with us

IA en la investigación de RRPP: Velocidad que carece de credibilidad

Líderes de opinión

IA en la investigación de RRPP: Velocidad que carece de credibilidad

mm

La inteligencia artificial está transformando la forma en que se crea y utiliza la investigación en RRPP y liderazgo de pensamiento. Las encuestas que antes requerían semanas para diseñar y analizar ahora pueden ser redactadas, realizadas y resumidas en días o incluso horas. Para los profesionales de la comunicación, el atractivo es obvio: la IA hace posible generar conocimientos que siguen el ritmo del ciclo de noticias. Pero ¿se mantiene la calidad de esos conocimientos?

En la carrera por avanzar más rápido, emerge una verdad incómoda. La IA puede hacer que algunos aspectos de la investigación sean más fáciles, pero también crea enormes trampas para el lego. Los periodistas esperan legítimamente que la investigación sea transparente, verificable y significativa. Esta credibilidad no puede ser comprometida. Sin embargo, una excesiva dependencia de la IA riesga poner en peligro las características que hacen que la investigación sea una herramienta tan poderosa para el liderazgo de pensamiento y las RRPP.

Este es el punto en el que se convergen la oportunidad y el riesgo. La IA puede ayudar a que la investigación cumpla con su potencial como impulsor de la cobertura de los medios, pero solo si se despliega de manera responsable y nunca como sustituto total de los profesionales capacitados. Si se utiliza sin supervisión o por comunicadores bienintencionados pero no capacitados, produce datos que parecen impresionantes en la superficie pero fallan bajo escrutinio. Si se utiliza sabiamente, puede aumentar y mejorar el proceso de investigación, pero nunca reemplazarlo.

La tentación: Más rápido, más barato, escalable

La IA ha cambiado el ritmo tradicional de la investigación. Redactar preguntas, limpiar datos, codificar respuestas abiertas y crear informes requerían días de esfuerzo manual. Ahora, muchas de estas tareas pueden ser automatizadas.

  • Redacción: Los modelos generativos pueden crear preguntas de encuesta en segundos, ofreciendo a los equipos de RRPP una ventaja en el diseño.
  • Realización: La IA puede ayudar a identificar respuestas fraudulentas o similares a bots.
  • Análisis: Los grandes conjuntos de datos pueden ser resumidos casi al instante, y las respuestas de texto abierto pueden ser categorizadas sin necesidad de ejércitos de codificadores.
  • Informe: Las herramientas pueden generar resúmenes de datos y visualizaciones que hacen que los conocimientos sean más accesibles.

La aceleración es atractiva. Los profesionales de las RRPP pueden, en teoría, generar encuestas e insertar datos en la conversación de los medios antes de que una tendencia alcance su punto máximo. La oportunidad es real, pero viene con una condición: la velocidad solo importa cuando la investigación resiste el escrutinio.

El riesgo: Datos que no se sostienen

La IA hace posible crear investigación más rápido, pero no necesariamente mejor. Los flujos de trabajo completamente automatizados a menudo pasan por alto los estándares requeridos para los medios ganados.

Consideremos a los encuestados sintéticos, personas artificiales generadas por la IA para simular respuestas humanas a las encuestas, entrenadas con datos de encuestas anteriores. En la superficie, proporcionan respuestas instantáneas a las preguntas de la encuesta. Pero la investigación muestra que se desvían de los datos humanos reales una vez que se prueban en diferentes grupos y contextos. El problema no se limita a las encuestas. Incluso a nivel de modelo, las salidas de la IA siguen siendo poco fiables. La propia tarjeta del sistema de OpenAI muestra que, a pesar de las mejoras en su modelo más nuevo, GPT-5, aún hace afirmaciones incorrectas casi el 10% de las veces.

Para los periodistas, estas deficiencias son descalificantes. Los reporteros y editores quieren saber cómo se obtuvieron los encuestados, cómo se formularon las preguntas y si los hallazgos se verificaron. Si la respuesta es simplemente “la IA lo produjo”, la credibilidad se derrumba. Peor aún, los errores que se deslizan en la cobertura pueden dañar la reputación de la marca. La investigación destinada a apoyar las RRPP debe generar confianza, no arriesgarla.

Por qué los periodistas exigen más, no menos

La realidad para los equipos de RRPP es que los reporteros están abrumados con peticiones. Ese volumen ha hecho que los editores sean más selectivos, y los datos creíbles pueden diferenciar una petición de la competencia.

La investigación que merece cobertura suele entregar tres cosas:

  1. Claridad: Los métodos se explican claramente.
  2. Contexto: Los resultados se vinculan a tendencias o problemas que les importan a las audiencias.
  3. Credibilidad: Los hallazgos se basan en un diseño sólido y un análisis transparente.

Estas expectativas han intensificado. La confianza pública en los medios está en un nivel históricamente bajo. Solo el 31% de los estadounidenses confían en las noticias “mucho” o “algo”. Al mismo tiempo, el 36% no confían “en absoluto”, el nivel más alto de desconfianza total que Gallup ha registrado en más de 50 años de seguimiento. Los reporteros lo saben y aplican una mayor escrutinio antes de publicar cualquier investigación.

Para los profesionales de las RRPP, la implicación es clara: la IA puede acelerar los procesos, pero a menos que los hallazgos cumplan con los estándares editoriales, nunca verán la luz del día.

Por qué la supervisión humana es indispensable

La IA puede procesar datos a gran escala, pero no puede replicar el juicio o la responsabilidad de los investigadores humanos. La supervisión es más importante en cuatro áreas:

  • Definir objetivos: Los humanos deciden qué preguntas son dignas de mención o se alinean con los objetivos de la campaña y qué narrativas vale la pena probar.
  • Interpretar matices: Las máquinas pueden clasificar el sentimiento, pero son malas para identificar el sarcasmo, el contexto cultural y las señales de emoción que dan forma a conocimientos significativos.
  • Responsabilidad: Cuando se publican los hallazgos, las personas – no los algoritmos – deben explicar los métodos y defender los resultados.
  • Detección de sesgo: La IA refleja las limitaciones de sus datos de entrenamiento. Sin revisión humana, los hallazgos sesgados o incompletos pueden pasar como hechos.

La opinión pública refuerza la necesidad de esta supervisión. Casi la mitad de los estadounidenses dice que la IA tendrá un impacto negativo en las noticias que reciben, mientras que solo uno de cada diez dice que tendrá un efecto positivo. Si las audiencias son escépticas sobre las noticias creadas por la IA, los periodistas serán aún más cautelosos al publicar investigación que carece de validación humana. Para los equipos de RRPP, eso significa que la credibilidad proviene de la supervisión: la IA puede acelerar el proceso, pero solo las personas pueden proporcionar la transparencia que hace que la investigación esté lista para los medios.

IA como socio, no como atajo

La IA se utiliza mejor de manera estratégica. Es como un “asistente” que mejora los flujos de trabajo en lugar de un sustituto de la pericia. Eso significa:

  • Dejar que la IA maneje tareas repetitivas como la transcripción, siempre con supervisión humana.
  • Documentar cuándo y cómo se utilizan las herramientas de IA, para construir transparencia.
  • Validar las salidas de la IA contra codificadores humanos o estándares tradicionales.
  • Capacitar a los equipos para que entiendan las capacidades y limitaciones de la IA.
  • Alinear con los estándares de divulgación en evolución, como la Iniciativa de Transparencia de AAPOR.

Utilizada de esta manera, la IA acelera los procesos mientras preserva las cualidades que hacen que la investigación sea creíble. Se convierte en un multiplicador de fuerza para la pericia humana, no en un reemplazo de ella.

Qué está en juego para las campañas de RRPP

La investigación siempre ha sido una de las herramientas más poderosas para ganar cobertura de los medios. Una encuesta bien ejecutada puede crear titulares, impulsar el liderazgo de pensamiento y apoyar campañas mucho después del lanzamiento. Pero la investigación que carece de credibilidad puede hacer lo contrario, dañar las relaciones con los periodistas y erosionar la confianza.

Los editores están prestando más atención a cómo se está utilizando la IA en las RRPP. Algunos están experimentando con ella ellos mismos, mientras ejercen cautela. En el Informe del Estado de los Medios 2025 de Cision, casi tres cuartos de los periodistas (72%) dijeron que los errores factuales son su mayor preocupación con el material generado por la IA, mientras que muchos también se preocupan por la calidad y la autenticidad. Y aunque algunos reporteros siguen abiertos al contenido asistido por la IA si se valida cuidadosamente, más de una cuarta parte (27%) se oponen firmemente a cualquier tipo de contenido de prensa generado por la IA. Esas cifras muestran por qué la credibilidad no puede ser un pensamiento posterior: el escepticismo es alto, y los errores cerrarán puertas.

Los ganadores serán los equipos que integren la IA de manera responsable, utilizandola para avanzar rápidamente sin cortar esquinas. Producirán hallazgos que sean lo suficientemente oportunos como para aprovechar los ciclos de noticias y lo suficientemente rigurosos como para resistir el escrutinio. En un panorama de medios congestionado, ese equilibrio será la diferencia entre ganar cobertura y ser ignorados.

Conclusión: Credibilidad como moneda

La IA está aquí para quedarse en la investigación de RRPP. Su papel solo expandirá, cambiando flujos de trabajo y expectativas en toda la industria. La pregunta no es si se debe utilizar la IA, sino cómo utilizarla de manera responsable.

Los equipos que traten a la IA como un atajo verán su investigación desestimada por los medios. Los equipos que traten a la IA como un socio – acelerando los procesos mientras mantienen los estándares de rigor y transparencia – producirán conocimientos que tanto los periodistas como las audiencias confían.

En el entorno actual, la credibilidad es la moneda más valiosa. Los periodistas seguirán exigiendo investigación que cumpla con estándares altos. La IA puede ayudar a cumplir con esos estándares, pero solo cuando se guía por el juicio humano. El futuro pertenece a los profesionales de las RRPP que demuestran que la velocidad y la credibilidad no están en conflicto, sino en asociación.

Nathan Richter es un socio senior en Wakefield Research, una firma de confianza de las principales marcas y agencias globales – incluyendo 50 de las Fortune 100 – en casi 100 países. Lidera un equipo que se especializa en utilizar la investigación para el liderazgo de pensamiento, la divulgación de medios ganados, la generación de leads y otras aplicaciones de marketing. Su trabajo ha sido presentado en innumerables medios de comunicación como The New York Times, USA Today, NPR, CNBC y The Wall Street Journal.