Connect with us

Inteligencia artificial

Inteligencia Artificial Engañosa: Explotando Modelos Generativos en Esquemas Criminales

mm
Discover how generative AI, including models like GPT-3 and DALL-E, is being exploited by cybercriminals for phishing, frauds, and deepfakes

La Inteligencia Artificial Generativa, un subconjunto de Inteligencia Artificial, ha ganado rápidamente prominencia debido a su notable capacidad para generar diversas formas de contenido, incluyendo texto similar al humano, imágenes realistas y audio, a partir de vastos conjuntos de datos. Modelos como GPT-3, DALL-E y Redes Adversarias Generativas (GANs) han demostrado capacidades excepcionales en este regardó.

Un informe de Deloitte destaca la naturaleza dual de la Inteligencia Artificial Generativa y enfatiza la necesidad de vigilancia contra la Inteligencia Artificial Engañosa. Mientras que los avances en la Inteligencia Artificial ayudan en la prevención del crimen, también empoderan a actores maliciosos. A pesar de las aplicaciones legítimas, estas herramientas potentes son cada vez más explotadas por ciberdelincuentes, estafadores y actores afiliados al estado, lo que lleva a un aumento en esquemas complejos y engañosos.

El Auge de la Inteligencia Artificial Generativa en Actividades Criminales

El auge de la Inteligencia Artificial Generativa ha llevado a un aumento en actividades engañosas que afectan tanto el ciberespacio como la vida diaria. El phishing, una técnica para engañar a las personas para que divulguen información sensible, ahora utiliza la Inteligencia Artificial Generativa para hacer que los correos electrónicos de phishing sean muy convincentes. A medida que ChatGPT se vuelve más popular, los correos electrónicos de phishing han aumentado, con delincuentes que lo utilizan para crear mensajes personalizados que parecen comunicaciones legítimas.

Estos correos electrónicos, como alertas bancarias falsas o ofertas tentadoras, aprovechan la psicología humana para engañar a los destinatarios para que entreguen datos sensibles. Aunque OpenAI prohíbe el uso ilegal de sus modelos, hacer cumplir esto no es fácil. Las solicitudes inocentes pueden convertirse fácilmente en esquemas maliciosos, lo que requiere tanto revisores humanos como sistemas automatizados para detectar y prevenir el mal uso.

De manera similar, el fraude financiero también ha aumentado con los avances en la Inteligencia Artificial. La Inteligencia Artificial Generativa alimenta las estafas, creando contenido que engaña a los inversores y manipula la opinión del mercado. Imagina encontrarte con un chatbot, aparentemente humano pero diseñado únicamente para el engaño. La Inteligencia Artificial Generativa impulsa estos bots, involucrando a los usuarios en conversaciones aparentemente genuinas mientras extraen información sensible. Los modelos generativos también mejoran los ataques de ingeniería social al crear mensajes personalizados que explotan la confianza, la empatía y la urgencia. Las víctimas caen en las solicitudes de dinero, datos confidenciales o credenciales de acceso.

Doxxing, que implica revelar información personal sobre individuos, es otra área donde la Inteligencia Artificial Generativa asiste a los delincuentes. Ya sea desenmascarando personas anónimas en línea o exponiendo detalles privados, la Inteligencia Artificial amplifica el impacto, lo que lleva a consecuencias en el mundo real como el robo de identidad y el acoso.

Y luego están los deepfakes, videos, clips de audio o imágenes generados por Inteligencia Artificial que parecen muy realistas. Estos duplicados digitales borran la realidad, planteando riesgos desde la manipulación política hasta el asesinato de personajes.

Incidentes Notables de Deepfakes con Impactos Críticos

El mal uso de la Inteligencia Artificial Generativa ha llevado a una serie de incidentes inusuales, destacando los profundos riesgos y desafíos que plantea esta tecnología cuando cae en las manos equivocadas. La tecnología de deepfakes, en particular, borra las líneas entre la realidad y la ficción. Resulta de la unión de GANs y la maldad creativa, los deepfakes combinan elementos reales y fabricados. Las GANs consisten en dos redes neuronales: el generador y el discriminador. El generador crea contenido cada vez más realista, como caras, mientras que el discriminador intenta detectar los falsos.

Ya han ocurrido incidentes notables que involucran a deepfakes. Por ejemplo, Dessa utilizó un modelo de Inteligencia Artificial para crear un clon de voz convincente de Joe Rogan, demostrando la capacidad de la Inteligencia Artificial para producir voces falsas realistas. Los deepfakes también han tenido un impacto significativo en la política, como se ve en varios ejemplos. Por ejemplo, una llamada automática que imitaba al presidente de los Estados Unidos Joe Biden engañó a los votantes de New Hampshire, mientras que grabaciones de audio generadas por Inteligencia Artificial en Eslovaquia imitaban a un candidato liberal para influir en los resultados electorales. Se han reportado varios incidentes similares que han afectado la política de muchos países.

Las estafas financieras también han utilizado deepfakes. Una empresa de ingeniería británica llamada Arup fue víctima de una estafa de deepfake de £20 millones, en la que un trabajador de finanzas fue engañado para transferir fondos durante una llamada de video con estafadores que utilizaban voces y imágenes generadas por Inteligencia Artificial para imitar a los ejecutivos de la empresa. Esto destaca el potencial de la Inteligencia Artificial para el fraude financiero.

Los ciberdelincuentes han explotado cada vez más las herramientas de Inteligencia Artificial Generativa como WormGPT y FraudGPT para mejorar sus ataques, creando una amenaza significativa para la ciberseguridad. WormGPT, basado en el modelo GPT-J, facilita las actividades maliciosas sin restricciones éticas. Investigadores de SlashNext lo utilizaron para crear un correo electrónico de factura fraudulenta muy persuasivo. FraudGPT, que circula en canales de Telegram, está diseñado para ataques complejos y puede generar código malicioso, crear páginas de phishing convincentes e identificar vulnerabilidades del sistema. El surgimiento de estas herramientas destaca la creciente sofisticación de las amenazas cibernéticas y la necesidad urgente de medidas de seguridad mejoradas.

Implicaciones Legales y Éticas

Las implicaciones legales y éticas del engaño impulsado por la Inteligencia Artificial presentan una tarea formidable en medio de los rápidos avances en modelos generativos. Actualmente, la Inteligencia Artificial opera dentro de una zona gris regulatoria, con los legisladores necesitando ayuda para mantener el ritmo con los desarrollos tecnológicos. Se necesitan marcos regulatorios sólidos para limitar el mal uso y proteger al público de estafas y actividades fraudulentas impulsadas por la Inteligencia Artificial.

Además, los creadores de la Inteligencia Artificial asumen la responsabilidad ética. La transparencia, la divulgación y el cumplimiento de las directrices son aspectos esenciales del desarrollo responsable de la Inteligencia Artificial. Los desarrolladores deben anticipar el uso potencial y diseñar medidas para que sus modelos de Inteligencia Artificial mitiguen los riesgos de manera efectiva.

Mantener un equilibrio entre la innovación y la seguridad es importante para abordar los desafíos que plantea el fraude impulsado por la Inteligencia Artificial. La sobre-regulación puede restringir el progreso, mientras que la supervisión relajada invita al caos. Por lo tanto, las regulaciones que promueven la innovación sin comprometer la seguridad son imperativas para el desarrollo sostenible.

Además, los modelos de Inteligencia Artificial deben diseñarse con la seguridad y la ética en mente. Incorporar características como la detección de sesgos, pruebas de robustez y entrenamiento adversario puede mejorar la resistencia contra la explotación maliciosa. Esto es particularmente importante dado el aumento de la sofisticación de las estafas impulsadas por la Inteligencia Artificial, lo que enfatiza la necesidad de una previsión ética y una agilidad regulatoria para salvaguardar contra el potencial engañoso de los modelos de Inteligencia Artificial Generativa.

Estrategias de Mitigación

Las estrategias de mitigación para abordar el uso engañoso de modelos generativos de Inteligencia Artificial requieren un enfoque multifacético que involucre medidas de seguridad mejoradas y colaboración entre las partes interesadas. Las organizaciones deben emplear revisores humanos para evaluar el contenido generado por la Inteligencia Artificial, utilizando su experiencia para identificar patrones de mal uso y refinar los modelos. Los sistemas automatizados equipados con algoritmos avanzados pueden escanear señales de alerta asociadas con estafas, actividades maliciosas o información errónea, sirviendo como sistemas de alerta temprana contra acciones fraudulentas.

Además, la colaboración entre las empresas de tecnología, las agencias de aplicación de la ley y los legisladores es vital para detectar y prevenir los engaños impulsados por la Inteligencia Artificial. Las empresas de tecnología deben compartir conocimientos, mejores prácticas y inteligencia sobre amenazas, mientras que las agencias de aplicación de la ley trabajan en estrecha colaboración con expertos en Inteligencia Artificial para mantenerse por delante de los delincuentes. Los legisladores necesitan involucrarse con las empresas de tecnología, investigadores y la sociedad civil para crear regulaciones efectivas, enfatizando la importancia de la cooperación internacional para combatir los engaños impulsados por la Inteligencia Artificial.

Mirando hacia el futuro, el futuro de la Inteligencia Artificial Generativa y la prevención del crimen se caracteriza por desafíos y oportunidades. A medida que la Inteligencia Artificial Generativa evoluciona, también lo harán las tácticas de los delincuentes, con avances en Inteligencia Artificial cuántica, computación de borde y modelos descentralizados que darán forma al campo. Por lo tanto, la educación sobre el desarrollo ético de la Inteligencia Artificial se vuelve cada vez más fundamental, con escuelas y universidades instadas a hacer que los cursos de ética sean obligatorios para los practicantes de la Inteligencia Artificial.

En Resumen

La Inteligencia Artificial Generativa presenta tanto beneficios inmensos como riesgos significativos, destacando la necesidad urgente de marcos regulatorios sólidos y desarrollo ético de la Inteligencia Artificial. A medida que los ciberdelincuentes explotan herramientas avanzadas, las estrategias de mitigación efectivas, como la supervisión humana, los algoritmos de detección avanzados y la cooperación internacional, son esenciales.

Al equilibrar la innovación con la seguridad, promover la transparencia y diseñar modelos de Inteligencia Artificial con salvaguardias incorporadas, podemos combatir eficazmente la creciente amenaza del engaño impulsado por la Inteligencia Artificial y garantizar un entorno tecnológico más seguro para el futuro.

El Dr. Assad Abbas, profesor asociado con titularidad en la Universidad COMSATS de Islamabad, Pakistán, obtuvo su doctorado en la Universidad Estatal de Dakota del Norte, EE. UU. Su investigación se centra en tecnologías avanzadas, incluyendo computación en la nube, niebla y borde, análisis de macrodatos y IA. El Dr. Abbas ha hecho contribuciones sustanciales con publicaciones en revistas científicas y conferencias reputadas. También es el fundador de MyFastingBuddy.