talón Las preocupaciones sobre los riesgos potenciales de ChatGPT están cobrando impulso, pero ¿es una buena medida una pausa en la IA? - Unite.AI
Contáctanos

Líderes del pensamiento

Las preocupaciones sobre los riesgos potenciales de ChatGPT están cobrando impulso, pero ¿es una buena medida una pausa en la IA?

mm

Publicado

 on

Si bien Elon Musk y otros líderes tecnológicos mundiales han pedido una pausa en IA Tras el lanzamiento de ChatGPT, algunos críticos creen que detener el desarrollo no es la respuesta. El evangelista de inteligencia artificial Andrew Pery, de la empresa de automatización inteligente ABBYY, cree que tomarse un descanso es como volver a poner la pasta de dientes en el tubo. Aquí nos cuenta por qué…

Las aplicaciones de IA son omnipresentes e impactan prácticamente en todas las facetas de nuestras vidas. Si bien es loable, frenar ahora puede ser inverosímil.

Ciertamente, existen preocupaciones palpables que exigen una mayor supervisión regulatoria para controlar sus posibles impactos dañinos.

Recientemente, la Autoridad de Protección de Datos de Italia bloqueó temporalmente el uso de ChatGPT en todo el país debido a preocupaciones de privacidad relacionadas con la forma de recopilación y procesamiento de datos personales utilizados para entrenar el modelo, así como una aparente falta de garantías, exponiendo a los niños a respuestas "absolutamente inapropiado para su edad y conciencia.”

La Organización Europea de Consumidores (BEUC, por sus siglas en inglés) está instando a la UE a investigar los posibles impactos dañinos de los modelos lingüísticos a gran escala dadas las "preocupaciones crecientes sobre cómo ChatGPT y chatbots similares podrían engañar y manipular a las personas". Estos sistemas de IA necesitan un mayor escrutinio público, y las autoridades públicas deben reafirmar el control sobre ellos”.

En los EE.UU., el Centro de IA y Política Digital ha presentado una queja ante la Comisión Federal de Comercio de que ChatGPT viola la sección 5 de la Ley de la Comisión Federal de Comercio (Ley FTC) (15 USC 45). La base de la queja es que ChatGPT supuestamente no cumple con los guía establecidos por la FTC para la transparencia y la explicabilidad de los sistemas de IA. Se hizo referencia a los reconocimientos de ChatGPT de varios conocidos riesgos incluyendo comprometer los derechos de privacidad, generar contenido dañino y propagar desinformación.

La utilidad de los modelos de lenguaje a gran escala como ChatGPT, a pesar de que la investigación señala su potencial. lado oscuro. Está comprobado que produce respuestas incorrectas, ya que el modelo ChatGPT subyacente se basa en algoritmos de aprendizaje profundo que aprovechan grandes conjuntos de datos de capacitación de Internet. A diferencia de otros chatbots, ChatGPT utiliza modelos de lenguaje basados ​​en técnicas de aprendizaje profundo que generan texto similar a las conversaciones humanas, y la plataforma "llega a una respuesta haciendo una serie de conjeturas, lo cual es parte de la razón por la que puede argumentar respuestas incorrectas como si fueran eran completamente ciertos.”

Además, se ha demostrado que ChatGPT acentúa y amplifica el sesgo que da como resultado "respuestas que discriminan el género, la raza y los grupos minoritarios, algo que la empresa está tratando de mitigar". ChatGPT también puede ser una bonanza para que los actores infames exploten a los usuarios desprevenidos, comprometiendo su política de privacidad y exponerlos a ataques de estafa.

Estas preocupaciones llevaron al Parlamento Europeo a publicar un comentario lo que refuerza la necesidad de fortalecer aún más las disposiciones actuales del proyecto Ley de inteligencia artificial de la UE, (AIA) que aún está pendiente de ratificación. El comentario señala que el borrador actual del reglamento propuesto se centra en lo que se conoce como aplicaciones limitadas de IA, que consisten en categorías específicas de sistemas de IA de alto riesgo, como contratación, solvencia, empleo, aplicación de la ley y elegibilidad para servicios sociales. Sin embargo, el borrador de la regulación AIA de la UE no cubre la IA de propósito general, como los modelos de lenguaje grandes que brindan capacidades cognitivas más avanzadas y que pueden "realizar una amplia gama de tareas inteligentes". Hay llamados para ampliar el alcance del borrador de la regulación para incluir una categoría separada de alto riesgo de sistemas de IA de uso general, que requiere que los desarrolladores realicen rigurosas pruebas de conformidad ex ante antes de colocar dichos sistemas en el mercado y monitorear continuamente su desempeño para posibles salidas dañinas inesperadas.

Una pieza particularmente útil de la investigación llama la atención sobre esta brecha de que la regulación AIA de la UE está "principalmente enfocada en los modelos de IA convencionales, y no en la nueva generación cuyo nacimiento estamos presenciando hoy".

Recomienda cuatro estrategias que los reguladores deberían considerar.

  1. Exigir a los desarrolladores de dichos sistemas que informen periódicamente sobre la eficacia de sus procesos de gestión de riesgos para mitigar los resultados nocivos.
  2. Las empresas que utilizan modelos de lenguaje a gran escala deberían estar obligadas a revelar a sus clientes que el contenido fue generado por IA.
  3. Los desarrolladores deben suscribirse a un proceso formal de lanzamientos por etapas, como parte de un marco de gestión de riesgos, diseñado para protegerse contra posibles resultados dañinos imprevistos.
  4. Coloque la responsabilidad sobre los desarrolladores para "mitigar el riesgo desde la raíz" al tener que "auditar de manera proactiva el conjunto de datos de capacitación en busca de tergiversaciones".

Un factor que perpetúa los riesgos asociados con las tecnologías disruptivas es el impulso de los innovadores para lograr la ventaja de ser los primeros en moverse mediante la adopción de un modelo comercial de "enviar primero y arreglar después". Si bien OpenAI es algo transparente acerca de los riesgos potenciales de ChatGPT, lo han lanzado para un amplio uso comercial con la obligación de que los usuarios sopesen y asuman los riesgos por sí mismos. Ese puede ser un enfoque insostenible dado el impacto generalizado de los sistemas de IA conversacionales. La regulación proactiva junto con medidas de aplicación sólidas debe ser primordial cuando se maneja una tecnología tan disruptiva.

La inteligencia artificial ya impregna casi todas las partes de nuestras vidas, lo que significa que una pausa en el desarrollo de la IA podría implicar una multitud de obstáculos y consecuencias imprevistos. En lugar de acelerar repentinamente los frenos, la industria y los actores legislativos deben colaborar de buena fe para promulgar una regulación procesable que esté arraigada en valores centrados en el ser humano como la transparencia, la responsabilidad y la equidad. Al hacer referencia a la legislación existente, como la AIA, los líderes de los sectores público y privado pueden diseñar políticas completas y estandarizadas a nivel mundial que evitarán usos nefastos y mitigarán los resultados adversos, manteniendo así la inteligencia artificial dentro de los límites de la mejora de las experiencias humanas.

Andrew Pery es un evangelista de ética de IA en una empresa de automatización inteligente ABBYY. Pery tiene más de 25 años de experiencia al frente de programas de gestión de productos para empresas tecnológicas líderes a nivel mundial. Su experiencia es en automatización de procesos de documentos inteligentes e inteligencia de procesos con especialización en tecnologías de IA, software de aplicación, privacidad de datos y ética de IA. Tiene una Maestría en Derecho con Distinción de la Facultad de Derecho Pritzker de la Universidad Northwestern y es un Profesional Certificado en Privacidad de Datos.