Regulación
La mayoría de los ejecutivos de tecnología de EE. UU. quieren regulación de IA, pero ¿quién debería liderarla?

Al igual que los años 90 tuvieron la comercialización de Internet, los 2000 el smartphone y los 2010 el auge de las redes sociales, los 2020 pertenecen a la IA. Al igual que those avances tecnológicos anteriores, la IA también parece expandirse más rápido de lo que los reguladores y legisladores pueden seguir el ritmo.
La burbuja puntocom explotó en 1993 con el lanzamiento del navegador Mosaic inclusivo, y no fue hasta 1996 que el Congreso de EE. UU. aprobó la Ley de Telecomunicaciones, la primera en abordar explícitamente a Internet. De manera similar, Apple presentó el iPhone en 2007, aunque los legisladores aprobó la Ley de Accesibilidad de Comunicaciones y Video del Siglo XXI en 2010, que requiere que todos los smartphones incluyan características de accesibilidad.
Y aunque la “década de las redes sociales” de los 2010 vio el establecimiento y expansión de plataformas como Facebook, WhatsApp, YouTube e Instagram, no fue hasta la segunda mitad de la década que se aprobó la ley FOSTA-SESTA, que hace que las plataformas sean responsables de facilitar el tráfico sexual de manera intencional. ¿Se repetirá la historia con la IA?
Mientras que la IA se popularizó después del lanzamiento innovador de ChatGPT de OpenAI en 2022, el país de origen de la herramienta aún no ha aprobado legislación federal para regularla. En cambio, EE. UU. ha cambiado su postura, de restrictiva a desregulatoria, a medida que han cambiado las administraciones.
IA en EE. UU.: Un asunto bipartidista
El expresidente Joe Biden promulgó la Ley de Seguridad, Seguridad y Confiabilidad en 2023, que requirió que las agencias federales tomaran medidas hacia la seguridad de la IA, los derechos civiles, la equidad y la transparencia. “Aprovechar la IA para el bien y realizar sus numerosos beneficios requiere mitigar sus riesgos sustanciales”, señaló la Ley.
En enero de 2025, sin embargo, el presidente actual Donald Trump firmó la Ley de Eliminación de Barreras para el Liderazgo Estadounidense en Inteligencia Artificial, revocó las políticas y directivas de IA existentes “que actúan como barreras para la innovación de IA estadounidense, despejando el camino para que EE. UU. actúe decididamente para retener el liderazgo global en inteligencia artificial”.
La administración actual, entonces, busca acelerar la innovación de IA en EE. UU. a través de esfuerzos de desregulación, contrarrestando los riesgos potenciales mediante la inversión en investigación y desarrollo. La pregunta sigue siendo, sin embargo, si es el gobierno el que debe abordar estas preocupaciones.
Hoy en día, hay ansiedades casi universales sobre los riesgos de la IA, incluidos la ética, la interrupción y la confianza. Un estudio de 2024 sobre las preocupaciones de las partes interesadas que surgen de la IA, de hecho, encontró que las preocupaciones más apremiantes incluyen sesgo, mal uso, acción de máquina inesperada, desigualdad, ansiedad social y cambios en las cadenas de suministro, por nombrar algunos.
La mayoría de los ejecutivos de tecnología de EE. UU. están de acuerdo, pero resaltan la paradoja. Un informe de septiembre de 2025 de Solvd, una empresa de asesoramiento de IA y ingeniería digital, concluyó que aunque el 97% de los directores de información (CIO) y directores de tecnología (CTO) que respondieron están algo preocupados por el uso no ético de la IA, el 87% cree que demasiada regulación de IA podría limitar la innovación y convertirse en una desventaja competitiva.
Las principales preocupaciones de estos líderes coinciden con las identificadas por el estudio de 2024: los modelos de IA se vuelven tan poderosos que no se pueden controlar, los actores maliciosos potencialmente se aprovechan de las vulnerabilidades de la IA, los modelos de IA obtienen demasiado acceso a los datos de la empresa y la desinformación o sesgo que la tecnología podría plantear.
Entre los 500 CIO y CTO estadounidenses de empresas que generan más de $500 millones en ingresos anuales que Solvd encuestó, el 61% prefirió la regulación pública, mientras que el 36% favoreció la regulación liderada por la industria.
La regulación liderada por la industria podría significar un modelo mixto, alejándose de la dicotomía público-privada. La administración Biden, de hecho, negoció un acuerdo con los principales ejecutivos de tecnología en 2023 que detalló compromisos voluntarios con respecto a las barreras de la IA. Dichos compromisos incluyeron garantizar que los productos fueran seguros antes de su lanzamiento público, construir sistemas que priorizaran la seguridad y ganar la confianza del público a través de la transparencia y la divulgación de las capacidades, limitaciones y áreas de uso apropiado e inapropiado de los sistemas de IA.
Una conversación global
A pesar de la divergencia en la preferencia de los ejecutivos de empresas sobre marcos regulatorios públicos o liderados por la industria, el hecho es que el 82% de ellos son principalmente responsables de liderar la gobernanza interna de IA, según Solvd. Solo el 8% de los encuestados señaló a la dirección superior para la regulación interna de IA, y el 5% dijo que sus empresas tenían un consejo de ética de IA o un comité de cumplimiento.
Las empresas, y sus empleados, así están atrapados entre esperar a una política pública que puede o no llegar, y actuar principalmente de forma independiente de la dirección superior y los equipos capacitados en ética de IA.
Diferentes contextos han encontrado soluciones distintas a esta complicación. La Unión Europea (UE), por ejemplo, contrasta marcadamente el enfoque desregulatorio de la administración Trump a través de la Ley de IA de la UE, la primera ley integral de IA del mundo. Aprobada en marzo de 2024, la Ley prohibió ciertas aplicaciones de IA, estableció un marco de evaluación basado en riesgos y exigió legalmente transparencia y comunicación con los usuarios.
Otros siguen el ejemplo de la UE. Chile, el líder de IA en Sudamérica, recientemente propuso un proyecto de ley para regular la IA, inspirado en la Ley de IA de la UE. China, por otro lado, en gran medida evita estos obstáculos, ya que su sistema político favorece la regulación sancionada por el Estado, los subsidios y las asociaciones con empresas de IA privadas. Los desafíos de China provienen menos de una dicotomía regulatoria y más de los riesgos de censura y la intromisión del Estado en la innovación.
Pero EE. UU., como el líder global de IA, está destinado a establecer el tono para el futuro de los marcos regulatorios.
Pensamientos finales
La implementación y la innovación de IA se han convertido en una ventaja competitiva en casi todas las industrias de todo el mundo. Pero, sin claridad regulatoria y políticas cambiantes, los ejecutivos de tecnología deben establecer sus propias barreras, y ser responsables de proteger a los consumidores, ganar su confianza en medio de un miedo generalizado a la IA, e innovar, todo al mismo tiempo.
A pesar de las preocupaciones entre sectores de que las regulaciones estrictas puedan obstaculizar la innovación, lo contrario puede ser el caso. Según RegulatingAI, una organización sin fines de lucro con sede en EE. UU. dedicada a explorar la intersección de la IA y la regulación, la incertidumbre sobre la aplicación de la IA la está retrasando, lo que retrasa la realización de los beneficios económicos, la falta de inversión y la limitación de los márgenes de escalabilidad de las empresas.
“Clarificar cómo se definen los sistemas de IA en los contextos regulatorios es crucial, ya que la ambigüedad en las definiciones agrega desafíos de cumplimiento”, señaló la organización sin fines de lucro.
De manera similar, Solvd enfatizó la importancia de que las empresas aprovechen la confusión regulatoria actual. “Ahora es el momento perfecto para que las empresas establezcan una gobernanza interna efectiva antes de que los reguladores externos intervengan y potencialmente impongan soluciones menos flexibles”, concluyó el informe de la empresa.
En este contexto, los innovadores de IA en EE. UU. enfrentan desafíos sin precedentes: riesgos para la reputación por no adoptar políticas de supervisión, y la posibilidad de brechas de cumplimiento cuando se establezca la regulación.
Pero también hay una oportunidad. Con la perspectiva de Internet, los smartphones y las redes sociales, ahora es el momento de mirar hacia adelante y construir un ecosistema que equilibre la innovación con la rendición de cuentas, fomente la confianza y se prepare para la inevitabilidad de la regulación.












