talón La falta de IA confiable puede obstaculizar la innovación y el valor comercial - Unite.AI
Contáctanos

Líderes del pensamiento

La falta de IA confiable puede obstaculizar la innovación y el valor comercial

mm

Publicado

 on

Una encuesta reciente entre líderes empresariales globales muestra que la IA confiable es una prioridad importante, sin embargo, muchos no están tomando suficientes medidas para lograrlo, pero ¿a qué costo?

En efecto, el Encuesta de IBM reveló que un asombroso 85% de los encuestados está de acuerdo en que es más probable que los consumidores elijan una empresa que sea transparente sobre cómo se construyen, administran y utilizan sus modelos de IA.

Sin embargo, la mayoría admitió que no han tomado medidas clave para garantizar que su IA sea confiable y responsable, como reducir el sesgo (74 %), rastrear las variaciones de rendimiento y la desviación del modelo (68 %) y asegurarse de que puedan explicar la inteligencia artificial. decisiones (61%). Esto es preocupante, especialmente cuando considera que el uso de la IA sigue creciendo: el 35 % dice que ahora usa la IA en su negocio, frente al 31 % hace un año.

Hace poco asistí al evento solo por invitación Cumbre de Innovación Corporativa en Toronto, donde los asistentes intercambiaron ideas innovadoras y exhibieron tecnologías preparadas para dar forma al futuro. Tuve el privilegio de participar en tres mesas redondas dentro de los segmentos de servicios financieros, seguros y minoristas en las que surgieron tres áreas clave: la necesidad de una mayor transparencia para fomentar la confianza en la IA, la democratización de la IA a través de código bajo/sin código y desarrollo para brinde una reducción del riesgo y una rentabilidad más rápida a través de las mejores prácticas de gobernanza regulatoria de IA.

Aumentar la confianza en las tecnologías de IA. COVID-19 amplificó y aceleró la tendencia hacia la adopción de chatbots con tecnología de inteligencia artificial, asistentes financieros virtuales y la incorporación de clientes sin contacto. Esta tendencia continuará como se confirmó en investigación de Cap Gemini lo que muestra que el 78% de los consumidores encuestados planea aumentar el uso de tecnologías de IA, incluida la gestión de identidad digital en sus interacciones con organizaciones de servicios financieros.

A pesar de los beneficios inherentes, surgen una serie de desafíos. El principal de ellos es continua desconfianza de los consumidores hacia las tecnologías de IA y cómo su naturaleza ubicua afecta sus derechos de privacidad y seguridad. El 30 % de los consumidores afirmó que se sentirían más cómodos compartiendo su información biométrica si sus proveedores de servicios financieros brindaran más transparencia al explicar cómo se recopila, administra y protege su información.

Los CIO deben adoptar principios de IA confiables e instituir medidas rigurosas que salvaguarden los derechos de privacidad y seguridad. Pueden lograr esto a través de cifrado, minimización de datos y autenticación más segura, incluida la consideración de estándares de identidad digital descentralizados. Como resultado, sus esfuerzos de automatización inteligente y sus ofertas de autoservicio verán una mayor adopción y necesitarán menos intervención humana.

Eliminar las barreras a la democratización de la IA. Hay un cambio creciente hacia el desarrollo de aplicaciones de IA sin código/de código bajo, que la investigación pronostica llegar a $ 45.5 mil millones para 2025. El principal impulsor es tiempo más rápido para valorar con mejoras en la productividad del desarrollo de aplicaciones por 10x.

Por ejemplo, el 56% de las organizaciones de servicios financieros encuestadas consideran la recopilación de datos de los prestatarios como uno de los pasos más desafiantes e ineficientes dentro del proceso de solicitud de préstamo, lo que resulta en altas tasas de abandono. Si bien se ha demostrado que las tecnologías de recopilación de datos e identificación biométrica impulsadas por IA mejoran la eficiencia en el proceso de solicitud de préstamos, también pueden crear riesgos de cumplimiento en particular, la privacidad de los datos, la confidencialidad y el sesgo algorítmico de la IA.

Para mitigar y remediar tales riesgos, las aplicaciones de código bajo/sin código deben incluir pruebas exhaustivas para garantizar que funcionan de acuerdo con los objetivos de diseño iniciales, eliminar el sesgo potencial en el conjunto de datos de entrenamiento que puede incluir sesgo de muestreo, sesgo de etiquetado y que está protegido contra adversarios. Ataques de IA que pueden afectar negativamente los resultados algorítmicos de IA. Consideración de principios de ciencia de datos responsable de equidad, precisión, confidencialidad y seguridad es primordial.

Desarrollar un marco normativo y de gobernanza de la IA. La gobernanza de la IA ya no es una iniciativa agradable, sino un imperativo. Según el rastreador de la OCDE sobre políticas nacionales de IA, hay más de 700 iniciativas regulatorias de IA en desarrollo en más de 60 países. Sin embargo, existen códigos de conducta voluntarios y principios éticos de IA desarrollados por organizaciones internacionales de normalización como la Instituto de Ingenieros Eléctricos y Electrónicos ("IEEE") y del Instituto Nacional de Estándares y Tecnología (NIST)).

Las preocupaciones de las organizaciones rodean la suposición de que las regulaciones de IA impondrán más rigurosas obligaciones de cumplimiento sobre ellos, respaldados por onerosos mecanismos de aplicación, incluidas sanciones por incumplimiento. Sin embargo, la regulación de la IA es inevitable.

Europa y América del Norte están tomando posiciones proactivas que requerirán que los CIO colaboren con sus contrapartes de tecnología y negocios para formar políticas efectivas. Por ejemplo, la Comisión Europea ha propuesto una Ley de inteligencia artificial propone instituir obligaciones basadas en el riesgo sobre los proveedores de IA para proteger los derechos de los consumidores y, al mismo tiempo, promover la innovación y las oportunidades económicas asociadas con las tecnologías de IA.

Además, en junio de 2022, el Gobierno Federal de Canadá lanzó su muy esperado Ley de Implementación de la Carta Digital que protege contra los impactos adversos de los sistemas de IA de alto riesgo. EE. UU. también está procediendo con iniciativas regulatorias de IA, aunque sobre una base sectorial.  La Comisión Federal de Comercio (FTC), el Oficina para la Protección Financiera del Consumidor (CFPB)) y La Junta de la Reserva Federal todos están mostrando sus músculos regulatorios a través de sus mecanismos de aplicación para proteger a los consumidores contra los impactos adversos que surgen del aumento de las aplicaciones de IA que pueden dar lugar a resultados discriminatorios, aunque no intencionados. Un marco regulatorio de IA es imprescindible para cualquier empresa innovadora.

Lograr una IA confiable requiere conocimientos basados ​​en datos

La implementación de una IA confiable no se puede lograr sin un enfoque basado en datos para determinar dónde las aplicaciones de las tecnologías de IA pueden tener el mayor impacto antes de proceder con la implementación. ¿Es para mejorar la participación del cliente, o para lograr eficiencias operativas o para mitigar los riesgos de cumplimiento?

Cada uno de estos impulsores comerciales requiere una comprensión de cómo se ejecutan los procesos, cómo se manejan las escaladas y las excepciones, e identificar variaciones en los obstáculos de ejecución de procesos y sus causas raíz. Con base en dicho análisis basado en datos, las organizaciones pueden tomar decisiones comerciales informadas en cuanto al impacto y los resultados asociados con la implementación de soluciones basadas en IA para reducir la fricción de incorporación de clientes y mejorar la eficiencia operativa. Una vez que las organizaciones obtienen el beneficio de los conocimientos basados ​​en datos, pueden automatizar procesos que requieren mucha mano de obra, como cumplir con los mandatos de cumplimiento de IA, auditoría de cumplimiento, KYC y AML en servicios financieros.

La conclusión principal es que una parte integral de la automatización de procesos habilitada por IA es la implementación de las mejores prácticas de IA confiables. El uso ético de la IA no debe considerarse solo como una obligación legal y moral, sino como un imperativo empresarial. Tiene sentido desde el punto de vista comercial ser transparente en la aplicación de la IA. Fomenta la confianza y engendra lealtad a la marca.

Andrew Pery es un evangelista de ética de IA en una empresa de automatización inteligente ABBYY. Pery tiene más de 25 años de experiencia al frente de programas de gestión de productos para empresas tecnológicas líderes a nivel mundial. Su experiencia es en automatización de procesos de documentos inteligentes e inteligencia de procesos con especialización en tecnologías de IA, software de aplicación, privacidad de datos y ética de IA. Tiene una Maestría en Derecho con Distinción de la Facultad de Derecho Pritzker de la Universidad Northwestern y es un Profesional Certificado en Privacidad de Datos.