Connect with us

IA y el arco de la confianza

Líderes de opinión

IA y el arco de la confianza

mm

A principios del año pasado, cuando nuestro equipo estaba haciendo predicciones sobre lo que sucedería, el consenso era que se estaban quitando las envolturas de la inteligencia artificial (IA). Finalmente veríamos lo que podría hacer, y con suerte, ganaríamos claridad sobre su impacto en los negocios y la sociedad y cómo proceder. No era una predicción novedosa, pero su núcleo era preciso, aunque todavía luchamos con las implicaciones de la IA y cómo (o si) debería ser controlada de alguna manera.

Terminaríamos viendo a Apple, Microsoft y Google integrar la IA en dispositivos y llevar su poder a una audiencia más amplia y grande. Luego, un chatbot en una herramienta de búsqueda alimentada por IA amenazó a los usuarios y afirmó que espiaba a los empleados, mientras que otro sugirió usar pegamento Elmer’s en pizza casera para evitar que el queso se resbalara. Sin embargo, los casos de uso de adopción de negocios de IA crecieron dramáticamente y también lo hizo el mercado. Según los datos de Crunchbase, casi un tercio de toda la financiación de riesgo global del año pasado se destinó a empresas en campos relacionados con la IA solamente.

Pero incluso cuando OpenAI entregó un razonamiento mejorado verdaderamente notable, el renombrado investigador de IA, Yoshua Bengio, instó a la adopción de medidas de seguridad para “modelos fronterizos” con el potencial de causar daño catastrófico. Y aunque la tecnología se llevaría a casa dos Premios Nobel por aplicaciones en ciencia, uno de sus receptores expresó preocupación por tener sistemas “más inteligentes que nosotros que eventualmente toman el control”.

En un espacio tan dinámico, es difícil que los tecnólogos expertos sigan el ritmo, no digamos aquellos en la corriente principal.

Y esos tropiezos de la IA – y las preocupaciones sobre la privacidad y el uso sin control – solo han aumentado la desconfianza del público.

Confía solo en mí

Nos encontramos a mitad de camino en un arco de confianza, uno que requiere avanzar en la aceptación pública de la IA, mientras se asegura que las comunidades empresariales y tecnológicas actúen de manera responsable. La primera parte es donde se juega el juego en este momento, a nivel corporativo, ganando impulso con cada despliegue seguro y sólido. Estamos construyendo sobre nuestros puntos de prueba, que eventualmente conducirán a una mayor confianza del público. La segunda parte, sin embargo, es mucho más complicada.

¿Quién define y hace cumplir el uso responsable de la IA? ¿Puede una industria crear pautas cuando son ellos quienes necesitan regulación? Si los tecnólogos están teniendo problemas para seguir la IA, ¿estarán informados los legisladores y mantendrán sus agendas políticas fuera de la discusión? Y cuando un multimillonario de la IA de repente quiere hablar sobre control, ¿tuvo una epifanía o solo está tratando de frenar para ponerse al día?

“Confía solo en mí” no va a funcionar con la IA, no importa quién seas.

Confía pero verifica

La gente mira la IA generativa como ChatGPT y se pregunta si será su próximo Google! Bueno, el resultado superior de una búsqueda de Google ahora es creado por su modelo de IA, Gemini. El problema es que no puedes confiar en él para negocios a gran escala cuando una pregunta simple como “¿Es seguro consumir carne cruda?” devuelve la respuesta, “Sí, congelada”. Necesitas inspeccionar los datos.

El arco de confianza del público reflejará lo que hizo con la búsqueda convencional, ganada con el tiempo y con la prueba de confiabilidad. Irónicamente, en nuestra búsqueda de simplificar y mejorar la búsqueda, hemos dado un paso atrás. Ahora, después de obtener esa respuesta generada por IA en la parte superior, debes desplazarte hacia abajo en una larga lista de enlaces de patrocinio, hacer clic en los siguientes cinco y aún calificar la información.

Eso es mucho trabajo cuando estás buscando una respuesta rápida – y no puedes tener a toda una empresa haciendo lo mismo. Sin embargo, enriquece los datos que has estado minando con decenas de miles de tus propios tickets de servicio y traes conocimiento real sobre tu entorno. Algorítmicamente, puedes configurar las alucinaciones hacia abajo, pero todavía remains una situación de “confía pero verifica”.

Mantén la política fuera de esto

Cuando se trata de regular la IA, algunos posturan que el caballo ya ha salido del establo y probablemente no se atrapará. Por ejemplo, hay una falta de herramientas verdaderamente efectivas para verificar si un estudiante redactó un papel o usó GenAI. La tecnología está demasiado avanzada.

Regular esto sería muy complejo, y para ser honesto, estaríamos entrando en terreno resbaloso. Sabemos que las empresas de tecnología están décadas por delante de los reguladores propuestos. Pero somos buenos para abrir un camino, no para ser retenidos. Sin embargo, al final del día, puede que caiga en los innovadores tratar de aplicar la gobernanza. ¿Quién más podría hacerlo – de manera responsable?

Hay muchos políticos que les encantaría intentarlo. El riesgo, además de la falta de comprensión, es que tengan una agenda personal y política para avanzar. Su enfoque, potencialmente, sería menos en cultivar la IA y más en hacer lo que esté en sus mejores intereses políticos. Podrían trabajar con those miedos del público, usando una mano pesada para frenar su progreso.

La Ley de CHIPS y Ciencia fue un buen ejemplo de una acción gubernamental saludable, produciendo un aumento dramático de 15 veces en la construcción de instalaciones de fabricación para computadoras y dispositivos electrónicos. Pero esto se hizo posible a través del bipartidismo – cada vez más un relicto de una era pasada.

¿Somos dignos?

Hay mucho dinero fluyendo hacia la IA y en las próximas dos décadas se ganará mucho por parte de las empresas de tecnología. Cuánto, cuán rápido y cuán seguro queda por verse. En cualquier día dado, un falso profundo podría ser circulado, mostrando a alguien en el centro de atención manipulando los huevos de un ave en peligro de extinción. El público reaccionaría con horror, y aunque puede que se revele que es generado por IA, ese huevo no vuelve a su cáscara – el daño está hecho.

Necesitamos que se regulen cosas como estas por tecnólogos informados. ¿Qué forma tomará – un consejo, un organismo de normas, un marco internacional – queda por verse. Lo que se sabe es que la IA está en un arco de confianza, y como industria, necesitamos demostrar que somos dignos de ella.

Eduardo Mota es un arquitecto de datos en la nube senior y un especialista en AI/ML en DoiT. Un arquitecto en la nube y especialista en ML destacado, tiene una Licenciatura en Administración de Empresas y múltiples certificaciones relacionadas, lo que demuestra su incansable búsqueda de conocimiento. El viaje de Eduardo incluye papeles clave en DoiT y AWS, donde su experiencia en arquitectura en la nube de AWS y GCP y estrategias de optimización tuvo un impacto significativo en la eficiencia operativa y el ahorro de costos para múltiples organizaciones.