Líderes de opinión
Bridging the AI Trust Gap
La adopción de la IA está alcanzando un punto de inflexión crítico. Las empresas están abrazando entusiastamente la IA, impulsadas por su promesa de lograr mejoras de varios órdenes de magnitud en la eficiencia operativa.
Un reciente sondeo de Slack encontró que la adopción de la IA continúa acelerándose, con un uso de la IA en los lugares de trabajo que experimenta un aumento reciente del 24% y el 96% de los ejecutivos encuestados creen que “es urgente integrar la IA en todas las operaciones comerciales”.
Sin embargo, hay un división cada vez mayor entre la utilidad de la IA y la creciente ansiedad sobre sus posibles impactos adversos. Solo el 7% de los trabajadores de escritorio cree que las salidas de la IA son lo suficientemente confiables como para ayudarlos en tareas relacionadas con el trabajo.
Esta brecha es evidente en el contraste marcado entre el entusiasmo de los ejecutivos por la integración de la IA y el escepticismo de los empleados relacionado con factores como:
- Sesgo y equidad: los sistemas de IA pueden perpetuar o incluso exacerbate los sesgos existentes que llevan a resultados injustos.
- Privacidad y seguridad: los empleados se preocupan por cómo se recopila, almacena y utiliza su datos personales en los sistemas de IA.
- Toma de decisiones opaca: los sistemas de IA a menudo operan como “cajas negras”, tomando decisiones que son difíciles para los humanos entender o explicar.
- Ansiedad por la automatización: hay un miedo generalizado de que la IA reemplace los trabajos humanos, lo que lleva al desempleo y la inestabilidad económica.
El papel de la legislación en la construcción de la confianza
Para abordar estos complejos problemas de confianza, las medidas legislativas están siendo cada vez más vistas como un paso necesario. La legislación puede desempeñar un papel fundamental en la regulación del desarrollo y la implementación de la IA, lo que mejora la confianza. Los enfoques legislativos clave incluyen:
- Leyes de protección de datos y privacidad: la implementación de leyes de protección de datos estrictas garantiza que los sistemas de IA manejen los datos personales de manera responsable. Regulaciones como el Reglamento General de Protección de Datos (GDPR) de la Unión Europea establecen un precedente al exigir transparencia, minimización de datos y consentimiento del usuario. En particular, el artículo 22 del GDPR protege a los sujetos de datos de los posibles impactos adversos de la toma de decisiones automatizada. Las recientes decisiones del Tribunal de Justicia de la Unión Europea (TJUE) afirman los derechos de una persona para no ser sometida a la toma de decisiones automatizada. En el caso de Schufa Holding AG, donde un residente alemán fue rechazado para un préstamo bancario en base a un sistema de toma de decisiones crediticias automatizado, el tribunal dictaminó que el artículo 22 requiere que las organizaciones implementen medidas para salvaguardar los derechos de privacidad relacionados con el uso de tecnologías de IA.
- Regulaciones de IA: La Unión Europea ha ratificado el Acta de IA de la UE (EU AIA), que tiene como objetivo regular el uso de sistemas de IA en función de sus niveles de riesgo. El Acta incluye requisitos obligatorios para sistemas de IA de alto riesgo, que abarcan áreas como la calidad de los datos, la documentación, la transparencia y la supervisión humana. Uno de los principales beneficios de las regulaciones de IA es la promoción de la transparencia y la explicabilidad de los sistemas de IA. Además, el EU AIA establece marcos de responsabilidad claros, que garantizan que los desarrolladores, operadores y incluso los usuarios de los sistemas de IA sean responsables de sus acciones y de los resultados de la implementación de la IA. Esto incluye mecanismos de reparación si un sistema de IA causa daño. Cuando las personas y las organizaciones son responsables, se construye la confianza de que los sistemas de IA se gestionan de manera responsable.
Iniciativas de estándares para fomentar una cultura de IA confiable
Las empresas no necesitan esperar a que se ejecuten nuevas leyes para establecer si sus procesos están dentro de las pautas éticas y confiables. Las regulaciones de IA funcionan en conjunto con las iniciativas de estándares de IA emergentes que permiten a las organizaciones implementar la gobernanza de IA responsable y las mejores prácticas durante todo el ciclo de vida de los sistemas de IA, que abarca el diseño, la implementación, la implementación y eventualmente la desinstalación.
El Instituto Nacional de Estándares y Tecnología (NIST) en los Estados Unidos ha desarrollado un Marco de gestión de riesgos de IA para guiar a las organizaciones en la gestión de riesgos relacionados con la IA. El marco se estructura alrededor de cuatro funciones principales:
- Comprender el sistema de IA y el contexto en el que opera. Esto incluye definir el propósito, las partes interesadas y los posibles impactos del sistema de IA.
- Cuantificar los riesgos asociados con el sistema de IA, incluidos los aspectos técnicos y no técnicos. Esto implica evaluar el rendimiento del sistema, la confiabilidad y los posibles sesgos.
- Implementar estrategias para mitigar los riesgos identificados. Esto incluye desarrollar políticas, procedimientos y controles para garantizar que el sistema de IA opere dentro de niveles de riesgo aceptables.
- Establecer estructuras de gobernanza y mecanismos de responsabilidad para supervisar el sistema de IA y sus procesos de gestión de riesgos. Esto implica revisiones y actualizaciones regulares de la estrategia de gestión de riesgos.
En respuesta a los avances en las tecnologías de IA generativa NIST también publicó Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile, que proporciona orientación para mitigar riesgos específicos asociados con los Modelos Fundamentales. Estas medidas abarcan la protección contra usos maliciosos (por ejemplo, desinformación, contenido degradante, discurso de odio) y aplicaciones éticas de la IA que se centran en los valores humanos de equidad, privacidad, seguridad de la información, propiedad intelectual y sostenibilidad.
Además, la Organización Internacional de Normalización (ISO) y la Comisión Electrotécnica Internacional (IEC) han desarrollado conjuntamente ISO/IEC 23894, un estándar integral para la gestión de riesgos de IA. Este estándar proporciona un enfoque sistemático para identificar y gestionar riesgos en todo el ciclo de vida de la IA, que incluye la identificación de riesgos, la evaluación de la gravedad del riesgo, el tratamiento para mitigar o evitarlo, y la supervisión y revisión continuas.
El futuro de la IA y la confianza pública
Mirando hacia adelante, el futuro de la IA y la confianza pública probablemente dependerá de varios factores clave que son esenciales para que todas las organizaciones sigan:
- Realizar una evaluación de riesgos completa para identificar posibles problemas de cumplimiento. Evalúe las implicaciones éticas y los posibles sesgos en sus sistemas de IA.
- Establecer un equipo interfuncional que incluya profesionales legales, de cumplimiento, TI y ciencia de datos. Este equipo debe ser responsable de monitorear los cambios regulatorios y garantizar que sus sistemas de IA cumplan con las nuevas regulaciones.
- Implementar una estructura de gobernanza que incluya políticas, procedimientos y roles para la gestión de iniciativas de IA. Asegúrese de que haya transparencia en las operaciones y los procesos de toma de decisiones de la IA.
- Realizar auditorías internas regulares para garantizar el cumplimiento de las regulaciones de IA. Utilice herramientas de monitoreo para seguir el rendimiento del sistema de IA y el cumplimiento de los estándares regulatorios.
- Educación a los empleados sobre ética de IA, requisitos regulatorios y mejores prácticas. Proporcionar sesiones de capacitación continuas para mantener al personal informado sobre los cambios en las regulaciones de IA y las estrategias de cumplimiento.
- Mantener registros detallados de los procesos de desarrollo de IA, el uso de datos y los criterios de toma de decisiones. Prepárese para generar informes que se puedan presentar a los reguladores si es necesario.
- Establecer relaciones con los organismos reguladores y participar en consultas públicas. Proporcionar comentarios sobre las regulaciones propuestas y buscar aclaraciones cuando sea necesario.
Contextualizar la IA para lograr una IA confiable
En última instancia, la IA confiable depende de la integridad de los datos. La dependencia de la IA generativa de grandes conjuntos de datos no se traduce en precisión y confiabilidad de las salidas; si algo, es contraintuitivo para ambos estándares. La Generación con Recuperación (RAG) es una técnica innovadora que “combina LLMs estáticos con datos contextuales específicos. Y se puede considerar como un ayudante muy conocedor. Uno que coincide con el contexto de la consulta con datos específicos de una base de conocimientos integral“. RAG permite a las organizaciones entregar aplicaciones específicas del contexto que cumplen con las expectativas de privacidad, seguridad, precisión y confiabilidad. RAG mejora la precisión de las respuestas generadas al recuperar información relevante de una base de conocimientos o repositorio de documentos. Esto permite que el modelo base su generación en información precisa y actualizada.
RAG permite a las organizaciones construir aplicaciones de IA personalizadas que son muy precisas, conscientes del contexto y adaptables para mejorar la toma de decisiones, mejorar las experiencias del cliente, optimizar las operaciones y lograr ventajas competitivas significativas.
Bridging the AI trust gap implica garantizar la transparencia, la responsabilidad y el uso ético de la IA. Si bien no hay una sola respuesta para mantener estos estándares, las empresas tienen estrategias y herramientas a su disposición. La implementación de medidas de privacidad de datos sólidas y el cumplimiento de los estándares regulatorios construyen la confianza del usuario. La auditoría regular de los sistemas de IA para detectar sesgos y errores garantiza la equidad. La ampliación de los Grandes Modelos de Lenguaje (LLM) con IA personalizada entrega confianza al incorporar bases de conocimientos y fuentes de datos propiedad de la empresa. La participación de las partes interesadas sobre las capacidades y limitaciones de la IA también fomenta la confianza y la aceptación
La IA confiable no se logra fácilmente, pero es un compromiso vital para nuestro futuro.












