Contáctenos

Cuando la IA nos hace más rápidos pero no más inteligentes y qué deben hacer los líderes al respecto

Líderes del pensamiento

Cuando la IA nos hace más rápidos pero no más inteligentes y qué deben hacer los líderes al respecto

mm

Para muchos, la IA ofrece la solución a una amplia variedad de desafíos empresariales. Puede copilotar el código, mejorar la automatización del flujo de trabajo y servir como asistente de análisis. Pero si bien las organizaciones avanzan más rápido, también piensan menos. Por lo tanto, el verdadero riesgo que plantea la IA no es la sustitución de puestos de trabajo, sino la erosión del conocimiento. 

La investigación ya lo ha demostrado. SBS Swiss Business School descubrió que una mayor dependencia de la IA está relacionada con pensamiento crítico disminuido habilidades.

Esta erosión tiene graves consecuencias, ya que las habilidades que hacen valioso el juicio humano se están deteriorando a medida que los equipos se basan en el rendimiento de las máquinas sin comprender su funcionamiento. Un razonamiento deficiente, suposiciones incuestionables y una gobernanza de modelos degradada no equivalen a la eficiencia de la IA, sino que aumentan la fragilidad del negocio.

El malentendido sobre la competencia en IA

Las organizaciones celebran la mayor rapidez en los resultados como prueba del éxito de la adopción de la IA. Sin embargo, la velocidad es una métrica engañosa. Lo que muchos equipos denominan competencia en IA se confunde cada vez más con fluidez inmediata. Sin embargo, los trabajadores necesitan confiar en las respuestas que reciben. 

Si un resultado parece correcto, muchos asumen que lo es. Se olvidan las verificaciones de los modelos y las suposiciones no se verifican. La fuerza laboral comienza entonces a recurrir a la IA para obtener conclusiones que antes requerían razonamiento. 

A estudio de investigación 2025 Este patrón respalda la evidencia. Se encontró una correlación negativa significativa entre el uso frecuente de herramientas de IA y la capacidad de pensamiento crítico, mediada por una mayor descarga cognitiva. Además, los participantes más jóvenes, quienes se sienten más cómodos con las interfaces de IA, mostraron puntuaciones más bajas en pensamiento crítico que los participantes de mayor edad. 

Este punto también está respaldado por los hallazgos en The Economic Times, que descubrió que la competencia fundamental en IA no se basa en dominar las indicaciones. Se basa en las habilidades humanas que interpretan, cuestionan y contextualizan la respuesta de las máquinas, y la competencia en IA se basa en el pensamiento crítico, el razonamiento analítico, la resolución creativa de problemas y la inteligencia emocional. Sin estos, los usuarios se convierten en consumidores pasivos de contenido de IA en lugar de tomar decisiones activas. 

Es preocupante que esta descarga cognitiva se haya observado a nivel neuronal. El Economic Times informó sobre un estudio del MIT Media Lab y descubrió que los participantes que usaban ChatGPT con frecuencia mostraron una menor retención de memoria, puntuaciones de rendimiento más bajas y una menor actividad cerebral al intentarlo sin la asistencia de IA. Como explicaron los investigadores: «Esta comodidad tuvo un coste cognitivo». Los estudiantes que usaron IA obtuvieron peores resultados «en todos los niveles: neuronal, lingüístico y de puntuación».

Estos resultados ayudan a aclarar qué socavan los atajos de IA. Debilitan las habilidades cognitivas de las que dependen los profesionales a diario: 

  • Razonamiento analítico
  • Evaluación de la hipótesis
  • Instintos de depuración
  • Intuición del dominio

Esta investigación reciente finalmente arroja luz sobre las desventajas ignoradas de la IA a nivel humano. Y esto se está convirtiendo en un problema mayor en decisiones cruciales, como el riesgo, la previsión y la asignación de recursos, que requieren comprensión del contexto. Cuanto menos se comprende la lógica detrás del diseño de un modelo, más incierta se vuelve la toma de decisiones. 

Por qué las habilidades deficientes de los profesionales en el proceso generan riesgos a nivel empresarial

La nueva brecha de competencias debilita la gobernanza

A medida que se generaliza la adopción de la IA, surge una división en muchas organizaciones. Por un lado, están los inspectores, que pueden cuestionar, cuestionar, interpretar y refinar los resultados. Por otro, están los operadores, que aceptan los resultados sin más y siguen adelante.

Esta división es mucho más importante de lo que la mayoría de los líderes creen. La gobernanza depende de equipos capaces de cuestionar los supuestos de un modelo, no solo las respuestas. Cuando menos personas comprenden el funcionamiento de un sistema, pequeños cambios pueden pasar desapercibidos, como las primeras señales de desviación del modelo y los cambios en la calidad de los datos. 

Cuando los equipos aceptan los resultados de la IA sin cuestionarlos, los errores menores se transmiten posteriormente y se agravan rápidamente. La dependencia excesiva se convierte en un punto único de fallo. Esto plantea la pregunta: ¿qué sucede cuando una organización externaliza el juicio más rápido de lo que construye comprensión? 

Esta brecha de gobernanza también obstaculiza la innovación. Los equipos que no pueden interactuar con la IA no pueden refinar las indicaciones ni reconocer cuándo una idea es nueva y novedosa. La innovación se centraliza en un grupo cada vez más reducido de expertos, lo que ralentiza la capacidad de adaptación de la organización. 

La innovación se estanca cuando la curiosidad humana declina

La IA puede acelerar y automatizar muchas tareas, pero no puede reemplazar el instinto humano de cuestionar e ir más allá de las respuestas obvias. Sin embargo, este instinto innato se está erosionando. Esto se conoce como deterioro de la agencia. cuatro etapas Progresión en la forma en que los humanos transfieren el pensamiento a las máquinas:

  1. Experimentación: Por curiosidad y comodidad, las personas empiezan a delegar pequeñas tareas a la IA. Es empoderante y eficiente. 
  2. Integración: La IA se integra en las tareas cotidianas. Las personas aún conservan habilidades básicas, pero se sienten algo incómodas trabajando con asistencia. 
  3. Dependencia: La IA comienza a tomar decisiones complejas. Los usuarios se vuelven complacientes y las capacidades cognitivas comienzan a atrofiarse, a menudo sin que nadie se dé cuenta. 
  4. Adicción: También conocida como ceguera elegida. Las personas no pueden funcionar eficazmente sin IA, pero siguen convencidas de su propia autonomía. 

Esta progresión es importante porque la IA erosiona la capacidad de reconocer cuándo nos falta conocimiento y de pensar en soluciones novedosas a nuevos problemas. Estas habilidades de orden superior requieren ejercicio constante. Sin embargo, la comodidad de la IA permite descuidarlas sin esfuerzo. 

Las organizaciones se vuelven entonces eficientes, pero poco creativas. La investigación y el desarrollo dependen de la curiosidad y el escepticismo humanos, ya que ambos decaen cuando los resultados no se cuestionan. Esta pérdida de curiosidad y capacidad de acción constituye un riesgo estratégico. 

La pérdida del conocimiento tácito hace que la organización sea frágil

En equipos sanos y funcionales, la experiencia fluye horizontalmente a través de conexiones entre pares y verticalmente de los directivos a los subalternos. Sin embargo, a medida que los trabajadores transmiten sus preguntas a la IA en lugar de a los humanos, estos ciclos de mentoría se debilitan. Los subalternos dejan de aprender y absorber las opiniones de los expertos, y los directivos gradualmente dejan de documentar el conocimiento porque la IA llena las lagunas rutinarias. 

Con el tiempo, los conocimientos básicos se debilitan. Pero este riesgo tarda en manifestarse, por lo que las empresas parecen productivas, pero sus cimientos se vuelven frágiles. Cuando un modelo falla o aparecen anomalías, los equipos pierden la profundidad necesaria para responder con confianza.

Un estudio de caso de una firma de contabilidad publicado en Los círculos viciosos de la erosión de las habilidades Descubrieron que la dependencia a largo plazo de la automatización cognitiva genera una disminución significativa de la experiencia humana. A medida que los trabajadores confiaban más en las funciones automatizadas, su conocimiento de sus actividades, el mantenimiento de sus competencias y la evaluación de resultados se debilitaron. Los investigadores señalan que esta erosión de habilidades pasa desapercibida para empleados y gerentes, lo que deja a los equipos desprevenidos ante fallos de los sistemas. 

Lo que los líderes deben hacer para restaurar la profundidad y evitar la dependencia excesiva

Las empresas no pueden frenar la adopción de la IA, pero sí pueden fortalecer el criterio humano de sus empleados, lo que la hace más fiable. Esto comienza por redefinir la competencia en IA en toda la organización, ya que la fluidez inmediata no es sinónimo de competencia. La verdadera capacidad implica comprender el razonamiento de un modelo y saber cuándo anular la respuesta de la máquina.  

Para comprender esto, los empleados necesitan capacitación sobre cómo el modelo simplifica el contexto, cómo se manifiesta la desviación en el trabajo diario y la diferencia entre un resultado que parece confiable y uno bien razonado. Una vez establecida esta base, los líderes pueden reincorporar el pensamiento crítico a los flujos de trabajo diarios mediante la normalización de las comprobaciones de verificación, como:

  • ¿Qué suposición hace este modelo?
  • ¿Qué podría hacer que esta salida sea incorrecta?
  • ¿Esto contradice algo que sabemos por experiencia? 

Este análisis crítico toma solo unos minutos, pero contrarresta la crisis de descarga cognitiva, ayudando a mantener a los empleados y los resultados del modelo de IA bajo control. 

La mejor manera para que las empresas capaciten a sus empleados es con sistemas reales. Con demasiada frecuencia, la capacitación se centra en escenarios ideales. Pero las empresas no los tienen; tienen sistemas donde los datos son incompletos, el contexto es ambiguo y el juicio humano importa. 

Por ejemplo, si una empresa de logística hubiera capacitado a su equipo de rutas únicamente con conjuntos de datos limpios donde la IA funcionaba a la perfección, los trabajadores estarían muy desprevenidos. Las condiciones reales, como las alteraciones meteorológicas, pueden provocar que los modelos de IA generen instrucciones incorrectas. Si los empleados nunca hubieran visto el sistema comportarse de forma incierta, no reconocerían las primeras señales de desvío ni sabrían cuándo intervenir. En este caso, el problema no es el modelo, sino la capacitación inadecuada. Es fundamental capacitar a los empleados en la IA que tienen, incluyendo escenarios de desvío, resultados ambiguos, datos parciales y fallos. Ahí es donde se reconstruye la capacidad humana. 

Para garantizar que la capacitación sea práctica, los líderes empresariales deben medir la capacidad humana, no solo los resultados del sistema. Las organizaciones suelen monitorear la precisión del modelo o las métricas de ahorro, pero rara vez monitorean los comportamientos que indican una sólida supervisión humana. ¿Los empleados documentan por qué confían en los resultados de un modelo? ¿Están incrementando resultados inusuales? Estas acciones observables muestran si el razonamiento se está fortaleciendo o decayendo. Cuando los líderes reconocen y recompensan a quienes mejoran las indicaciones mediante un razonamiento profundo o plantean dudas válidas sobre los resultados de la IA, refuerzan los hábitos que hacen que la implementación de la IA sea resiliente. 

La IA seguirá siendo cada vez más rápida. Ese aspecto es indiscutible. La pregunta es si los equipos conservan las habilidades necesarias para cuestionar, corregir y redirigir la IA cuando las cosas se tuercen. Ahí es donde se notará la diferencia. Las organizaciones que inviertan ahora en el juicio humano serán las que obtengan el verdadero valor de la IA, no una eficiencia precaria. Todos los demás están construyendo sobre arena.

Con más de 25 años de experiencia en bioquímica, inteligencia artificial, biología espacial y emprendimiento, Guillermo desarrolla soluciones innovadoras para el bienestar humano en la Tierra y en el espacio. Es cofundador y director de operaciones de Deep Space Biology, empresa centrada en la creación de una plataforma de IA multiómica BioSpace para la exploración espacial segura, y lidera la estrategia de IA en NisumComo consultor de estrategia corporativa, ha contribuido a la visión de IA de la NASA para la biología espacial y ha recibido premios a la innovación. Obtuvo con honores una Maestría en Ciencias en Inteligencia Artificial por Georgia Tech. Además, como profesor universitario, ha impartido cursos sobre aprendizaje automático, big data y ciencia genómica.