Contáctenos

¿Vale la pena la recompensa por el riesgo de la IA?

Líderes del pensamiento

¿Vale la pena la recompensa por el riesgo de la IA?

mm

Cuando reflexiono sobre el contenido ficticio que he encontrado relacionado con la IA, estimaría que es más del 90% distópico. Irónicamente, porque grandes modelos de lenguaje Al recibir formación sobre contenidos de Internet, no sólo se inclinan hacia aspectos problemáticos de la sociedad, sino también hacia ellos mismos. El concepto de IA que se odia a sí misma es divertido y recuerda a Marvin de La guía del autostopista a la galaxia. Sin embargo, es una de las muchas realidades que debemos considerar a medida que la IA se integra en la sociedad.

En su libro, Vida 3.0: Ser humano en la era de la IA, el profesor del MIT Max Tegmark explica su perspectiva sobre cómo mantener la IA beneficiosa para la sociedad. Escribe: “Si el aprendizaje automático puede ayudar a revelar las relaciones entre genes, enfermedades y respuestas al tratamiento, podría revolucionar la medicina personalizada, hacer que los animales de granja sean más saludables y permitir cultivos más resilientes. Además, los robots tienen el potencial de convertirse en cirujanos más precisos y fiables que los humanos, incluso sin utilizar IA avanzada”.

No hay duda de que la IA tendrá un impacto en los individuos, la sociedad y los sistemas globales, pero existe incertidumbre asociada con este impacto. A la IA se le confiarán trabajos delicados como el diagnóstico sanitario, la conducción autónoma y la toma de decisiones financieras. Al asumir el riesgo de la confianza, anticipamos retornos en forma de automatización, productividad mejorada, flujos de trabajo más rápidos e interfaces de usuario que ni siquiera podemos predecir hoy.

Un ejemplo de esto se puede ver en el estudio publicado recientemente por el Instituto Thomson Reuters. Informe de IA generativa en servicios profesionales de 2024, basado en una encuesta global de 1,128 encuestados calificados como familiarizados con la tecnología de IA generativa. La investigación demuestra un tema común de optimismo cauteloso cuando se trata de adoptar la IA generativa en entornos profesionales; de hecho, el 41 % dijo que estaba entusiasmado porque esperaba una mayor eficiencia y productividad.

Esto muestra una demanda saludable de automatización que puede crear nuevas eficiencias para los profesionales, un beneficio que están dispuestos a presentar.

Ningún lugar de trabajo o industria quiere quedarse atrás, por lo que mientras esto carrera hacia el aprovechamiento de la IA en los negocios continúa tomar impulso, puede esperar que los empleados y profesionales sigan expuestos a estas nuevas tecnologías de diversas formas para fortalecer su futuro laboral.

Por otro lado, también somos muy conscientes del riesgo potencial que asumimos al confiar la IA. Tegmark también escribió esto en La vida 3.0, “En otras palabras, el riesgo real con la AGI (inteligencia general artificial) no es la malicia sino la competencia. Una IA superinteligente será extremadamente buena para lograr sus objetivos, y si esos objetivos no están alineados con los nuestros, estamos en problemas”.

Como cualquier tecnología nueva, la IA presenta una nueva forma de hacer las cosas y el cambio suele ser un desafío cuando no se sabe qué resultado esperar. Parte de este riesgo está muy dramatizado en la ficción que comúnmente describe a la IA como misántropa: en Silicon Valley, a veces escucharás referencias en broma a “Skynet” por parte de los Terminator franquicia cinematográfica en una conversación informal sobre los temores sobre la IA. Sin embargo, la realidad sobre el riesgo potencial de la IA es mucho menos apasionante que la que presenta Hollywood, en el sentido de que El rendimiento inicial de la IA puede simplemente ser inexacto y tener errores. Después de todo, la IA es software y comparte los mismos problemas que el software tradicional.

Como investigador, me enfrento constantemente a la necesidad de mitigar el sesgo en los algoritmos de IA, ya sea mediante una cuidadosa selección de datos, transparencia algorítmica o protocolos de prueba sólidos. El hecho de que nosotros, como seres humanos, seamos muy conscientes de los peligros de la IA (como lo demuestra el contenido que creamos) me reconforta al saber que se está prestando mucha atención a la IA ética y responsable. Esta atención proviene de partes interesadas de todo tipo: los usuarios, los formuladores de políticas y las empresas exigen cada vez más transparencia y responsabilidad de los sistemas de IA.

Es una opinión común que la tecnología en el sector privado avanza rápido y el gobierno avanza lento. También es una realidad que, una vez que sea posible, el capitalismo provocará que la IA desplace a millones de trabajadores, obligándolos a aprender nuevas habilidades para permanecer en la fuerza laboral.

Según un informe de investigación de 2023 del McKinsey Global Institute sobre La IA generativa y el futuro del trabajo en Estados Unidos, “Para 2030, las actividades que representan hasta el 30 por ciento de las horas trabajadas actualmente en toda la economía estadounidense podrían automatizarse, una tendencia acelerada por la IA generativa. Sin embargo, vemos que la IA generativa mejora la forma en que trabajan los profesionales STEM, creativos, empresariales y legales en lugar de eliminar una cantidad significativa de puestos de trabajo por completo. Es probable que los mayores efectos de la automatización afecten a otras categorías laborales. El empleo en soporte de oficina, servicio al cliente y servicio de alimentos podría seguir disminuyendo”.

Me resulta difícil imaginar un mundo en el que el gobierno no desempeñe un papel en la ayuda a estos trabajadores que serán desplazados. Por lo tanto, es importante que el sector público comience a preparar soluciones ahora. Ejemplos de soluciones incluyen mejorar las habilidades de los trabajadores en riesgo y proporcionar un ingreso básico universal. También tengo la esperanza de que el sector privado desempeñe un papel aquí, creando nuevos empleos que tal vez no podamos predecir hoy.

La renta básica universal siempre ha sido un concepto apasionante para mí y me recuerda la frase "no vivas para trabajar, trabaja para vivir". Mucha gente trabaja para vivir. Llámenme poliannish, pero si este trabajo es automatizable, creo que es más que una quimera que la humanidad pueda entrar en una era en la que el trabajo sea opcional. Este es un concepto totalmente extraño para nosotros hoy en día, pero eso no significa que sea imposible. De hecho, no deberíamos esperar nada menos que extraordinario de una tecnología tan extraordinaria como la IA.

Sarah Nagy, ex científica cuantitativa y de datos, fundó una startup de automatización de análisis. Buscar IA, en septiembre de 2021. Sarah dirigió recientemente el equipo de datos del consumidor en Ashler Capital de Citadel y, antes de Citadel, dirigió las ramas cuantitativas en dos nuevas empresas que salieron con éxito y desarrolló estrategias comerciales algorítmicas en ITG. Sarah tiene una Maestría en Finanzas de Princeton y una doble licenciatura en Astrofísica y Economía Empresarial de UCLA.