Líderes del pensamiento
Cerrar la brecha de confianza en la IA
La adopción de la IA está alcanzando un punto de inflexión crítico. Las empresas están adoptando con entusiasmo la IA, impulsadas por su promesa de lograr mejoras de orden de magnitud en la eficiencia operativa.
Un Encuesta floja descubrió que la adopción de la IA continúa acelerándose: el uso de la IA en los lugares de trabajo experimentó un aumento reciente del 24 % y el 96 % de los ejecutivos encuestados creen que "es urgente integrar la IA en todas sus operaciones comerciales".
Sin embargo, hay un brecha cada vez mayor entre la utilidad de la IA y la creciente ansiedad sobre sus posibles impactos adversos. Sólo el 7% de los trabajadores de escritorio creen que resultados de la IA son lo suficientemente confiables como para ayudarlos en las tareas relacionadas con el trabajo.
Esta brecha es evidente en el marcado contraste entre el entusiasmo de los ejecutivos por la integración de la IA y el escepticismo de los empleados relacionado con factores como:
- Sesgo y equidad: los sistemas de IA pueden perpetuar o incluso exacerbar los sesgos existentes conduciendo a resultados injustos.
- Privacidad y seguridad: los empleados se preocupan sobre cómo sus datos personales es recopilado, almacenado y utilizado por sistemas de IA.
- Toma de decisiones opaca: los sistemas de IA a menudo operan como "cajas negras", tomando decisiones que son Difícil de entender para los humanos. o explicar.
- Ansiedad por la automatización: existe un temor generalizado de que La IA reemplazará los empleos humanos, provocando desempleo e inestabilidad económica.
El papel de la legislación en la creación de confianza
Para abordar estos problemas multifacéticos de confianza, las medidas legislativas se consideran cada vez más un paso necesario. La legislación puede desempeñar un papel fundamental en la regulación del desarrollo y la implementación de la IA, mejorando así la confianza. Los enfoques legislativos clave incluyen:
- Leyes de privacidad y protección de datos: la implementación de leyes estrictas de protección de datos garantiza que los sistemas de inteligencia artificial manejen los datos personales de manera responsable. Regulaciones como el Reglamento General de Protección de Datos (GDPR) en la Unión Europea sientan un precedente al exigir transparencia, minimización de datos y consentimiento del usuario. En particular, Artículo 22 de GDPR protege a los interesados de los posibles impactos adversos de la toma de decisiones automatizada. Decisiones recientes del Tribunal de Justicia de la Unión Europea (TJUE) afirman el derecho de una persona a no ser sometida a una toma de decisiones automatizada. En el caso de Schufa Holding AG, Cuando a un residente alemán se le negó un préstamo bancario sobre la base de un sistema de decisión crediticia automatizado, el tribunal sostuvo que el artículo 22 exige que las organizaciones implementen medidas para salvaguardar los derechos de privacidad relacionados con el uso de tecnologías de IA.
- Regulaciones de IA: La Unión Europea ha ratificado la Ley de IA de la UE (AIA de la UE), que tiene como objetivo regular el uso de sistemas de IA en función de sus niveles de riesgo. La Ley incluye requisitos obligatorios para los sistemas de IA de alto riesgo, que abarcan áreas como la calidad de los datos, la documentación, la transparencia y la supervisión humana. Uno de los principales beneficios de las regulaciones de IA es la promoción de la transparencia y la explicabilidad de los sistemas de IA. Además, la AIA de la UE establece marcos claros de rendición de cuentas, garantizando que los desarrolladores, operadores e incluso usuarios de sistemas de IA sean responsables de sus acciones y de los resultados del despliegue de la IA. Esto incluye mecanismos de reparación si un sistema de IA causa daño. Cuando las personas y las organizaciones rinden cuentas, se genera confianza en que los sistemas de IA se gestionan de manera responsable.
Iniciativas de estándares para fomentar una cultura de IA confiable
Las empresas no necesitan esperar a que se ejecuten nuevas leyes para establecer si sus procesos están dentro de pautas éticas y confiables. Las regulaciones de IA funcionan en conjunto con iniciativas de estándares de IA emergentes que permiten a las organizaciones implementar una gobernanza responsable de la IA y mejores prácticas durante todo el ciclo de vida de los sistemas de IA, que abarca el diseño, la implementación, el despliegue y, finalmente, el desmantelamiento.
El Instituto Nacional de Estándares y Tecnología (NIST) de Estados Unidos ha desarrollado un Marco de gestión de riesgos de IA para guiar a las organizaciones en la gestión de riesgos relacionados con la IA. El marco se estructura en torno a cuatro funciones principales:
- Comprender el sistema de IA y el contexto en el que opera. Esto incluye definir el propósito, las partes interesadas y los impactos potenciales del sistema de IA.
- Cuantificar los riesgos asociados al sistema de IA, incluidos los aspectos técnicos y no técnicos. Esto implica evaluar el rendimiento, la confiabilidad y los posibles sesgos del sistema.
- Implementar estrategias para mitigar los riesgos identificados. Esto incluye el desarrollo de políticas, procedimientos y controles para garantizar que el sistema de IA funcione dentro de niveles de riesgo aceptables.
- Establecer estructuras de gobernanza y mecanismos de rendición de cuentas para supervisar el sistema de IA y sus procesos de gestión de riesgos. Esto implica revisiones y actualizaciones periódicas de la estrategia de gestión de riesgos.
En respuesta a los avances en las tecnologías de IA generativa NIST también publicó Marco de gestión de riesgos de inteligencia artificial: perfil de inteligencia artificial generativa, que proporciona orientación para mitigar riesgos específicos asociados con los modelos fundamentales. Dichas medidas abarcan la protección contra usos nefastos (por ejemplo, desinformación, contenido degradante, discurso de odio) y aplicaciones éticas de la IA que se centran en los valores humanos de equidad, privacidad, seguridad de la información, propiedad intelectual y sostenibilidad.
Además, la Organización Internacional de Normalización (ISO) y la Comisión Electrotécnica Internacional (IEC) han desarrollado conjuntamente ISO / CEI 23894, un estándar integral para la gestión de riesgos de IA. Este estándar proporciona un enfoque sistemático para identificar y gestionar riesgos a lo largo del ciclo de vida de la IA, incluida la identificación de riesgos, la evaluación de la gravedad del riesgo, el tratamiento para mitigarlo o evitarlo y el monitoreo y revisión continuos.
El futuro de la IA y la confianza pública
De cara al futuro, el futuro de la IA y la confianza del público probablemente dependerá de varios factores clave que son esenciales a seguir por todas las organizaciones:
- Realizar una evaluación de riesgos integral para identificar posibles problemas de cumplimiento. Evalúe las implicaciones éticas y los posibles sesgos en sus sistemas de IA.
- Establecer un equipo multifuncional que incluya profesionales legales, de cumplimiento, de TI y de ciencia de datos. Este equipo debe ser responsable de monitorear los cambios regulatorios y garantizar que sus sistemas de inteligencia artificial cumplan con las nuevas regulaciones.
- Implementar una estructura de gobernanza que incluya políticas, procedimientos y roles para gestionar iniciativas de IA. Garantizar la transparencia en las operaciones de IA y los procesos de toma de decisiones.
- Realizar auditorías internas periódicas para garantizar el cumplimiento de las regulaciones de IA. Utilice herramientas de monitoreo para realizar un seguimiento del rendimiento del sistema de IA y el cumplimiento de los estándares regulatorios.
- Educar a los empleados sobre la ética de la IA, los requisitos reglamentarios y las mejores prácticas. Proporcionar sesiones de capacitación continua para mantener al personal informado sobre los cambios en las regulaciones de IA y las estrategias de cumplimiento.
- Mantener registros detallados de los procesos de desarrollo de IA, el uso de datos y los criterios de toma de decisiones. Prepárese para generar informes que puedan enviarse a los reguladores si es necesario.
- Construir relaciones con organismos reguladores y participar en consultas públicas. Proporcionar comentarios sobre las regulaciones propuestas y buscar aclaraciones cuando sea necesario.
Contextualice la IA para lograr una IA confiable
En última instancia, una IA confiable depende de la integridad de los datos. La dependencia de la IA generativa de grandes conjuntos de datos no equivale a la precisión y confiabilidad de los resultados; en todo caso, es contrario a ambos estándares. La recuperación de generación aumentada (RAG) es una técnica innovadora que “combina LLM estáticos con datos específicos del contexto. Y puede considerarse como un asistente altamente informado. Uno que combine el contexto de la consulta con datos específicos de una base de conocimientos integral..” RAG permite a las organizaciones ofrecer aplicaciones contextuales específicas que cumplan con las expectativas de privacidad, seguridad, precisión y confiabilidad. RAG mejora la precisión de las respuestas generadas al recuperar información relevante de una base de conocimientos o un repositorio de documentos. Esto permite que el modelo base su generación en información precisa y actualizada.
RAG permite a las organizaciones crear aplicaciones de IA diseñadas específicamente que sean altamente precisas, sensibles al contexto y adaptables para mejorar la toma de decisiones, mejorar las experiencias de los clientes, optimizar las operaciones y lograr importantes ventajas competitivas.
Cerrar la brecha de confianza en la IA implica garantizar la transparencia, la responsabilidad y el uso ético de la IA. Si bien no existe una respuesta única para mantener estos estándares, las empresas sí tienen estrategias y herramientas a su disposición. La implementación de medidas sólidas de privacidad de datos y el cumplimiento de estándares regulatorios genera confianza en los usuarios. Auditar periódicamente los sistemas de IA para detectar sesgos e imprecisiones garantiza la equidad. Aumentar los modelos de lenguajes grandes (LLM) con IA diseñada específicamente genera confianza al incorporar bases de conocimiento y fuentes de datos patentadas. Involucrar a las partes interesadas sobre las capacidades y limitaciones de la IA también fomenta la confianza y la aceptación.
No es fácil lograr una IA confiable, pero es un compromiso vital para nuestro futuro.












