Connect with us

Ciberseguridad

Cómo los hackers están utilizando la inteligencia artificial

mm

La IA se ha demostrado a sí misma como una tecnología de valor agregado en toda la economía global.

A medida que las empresas se encontraban luchando por adaptarse a los acontecimientos actuales en los últimos años, algunas de ellas encontraron formas de meter medio decenio de transformaciones digitales en un marco de tiempo mucho más corto. En el caso de Frito-Lay, Harris Poll y Appen encontraron que los presupuestos de IA aumentaron un 55% durante la pandemia global.

Al igual que cualquier herramienta, la inteligencia artificial no tiene un valor moral inherente. La utilidad o el potencial de daño de la IA depende de cómo aprende el sistema y qué hacen los humanos con ella.

Algunos intentos de aprovechar la IA, como “predecir” el crimen antes de que ocurra, muestran que los modelos entrenados con datos sesgados tienden a replicar las deficiencias humanas. Hasta ahora, entrenar la IA utilizando datos del sistema de justicia de EE. UU. ha resultado en un razonamiento de IA trágicamente sesgado.

En otros ejemplos, los humanos eligen formas más deliberadas de aprovechar el potencial destructivo de la IA. Los hackers están mostrando sus tendencias innovadoras una vez más al utilizar la inteligencia artificial para mejorar el alcance, la eficacia y la rentabilidad de sus ataques. Y a medida que la ciberguerra se vuelve más común en todo el mundo, seguramente veremos que las aplicaciones de la IA en el hacking se desarrollen aún más.

La IA es una oportunidad y un riesgo

La inteligencia artificial proporciona un mundo de posibilidades para las empresas que desean mejorar la previsión, la optimización empresarial y las estrategias de retención de clientes. También es un botín para aquellos que intentan comprometer la soberanía digital de los demás.

A continuación, se presentan algunas formas en que la inteligencia artificial puede ser susceptible a manipulaciones discretas y esfuerzos más abiertos para dirigirla hacia acciones agresivas.

1. Comprometiendo la lógica de la máquina

La principal ventaja de la IA para los consumidores y las empresas comerciales es que lleva a cabo actos de lógica predecibles y repetibles sin interferencia humana. Esto también es su mayor debilidad.

Al igual que cualquier otro constructo digital, la IA puede ser susceptible a la penetración de fuerzas externas. Los hackers que acceden y comprometen la lógica de la máquina que impulsa la IA podrían hacer que realice acciones impredecibles o dañinas. Por ejemplo, una IA encargada de monitorear condiciones industriales podría proporcionar lecturas falsas o dejar de entregar señales de mantenimiento.

Dado que el objetivo de las inversiones en IA es eliminar la intervención humana y cuestionar los resultados, el daño a la infraestructura o la calidad del producto causado por un ataque de este tipo puede no ser detectado hasta el fracaso catastrófico.

2. Utilizando algoritmos de ingeniería inversa

Otra vía potencial de daño, especialmente donde se trata de propiedad intelectual (PI) y datos de consumidores o comerciales, es la noción de ingeniería inversa. Los hackers pueden incluso robar el código de inteligencia artificial en sí. Con el tiempo suficiente para estudiar cómo funciona, eventualmente podrían descubrir los conjuntos de datos utilizados para entrenar la IA en primer lugar.

Esto podría provocar varios resultados, el primero de los cuales es el envenenamiento de la IA. Otros ejemplos podrían involucrar a los hackers que aprovechan los datos de entrenamiento de la IA en sí para obtener información comprometedora sobre mercados, competidores, gobiernos, proveedores o consumidores en general.

3. Aprendiendo sobre objetivos destinados

Vigilar objetivos es probablemente una de las implicaciones más inquietantes de la IA caída en manos de los hackers. La capacidad de la IA para llegar a conclusiones sobre las habilidades de una persona, áreas de conocimiento, temperamento y la probabilidad de ser víctima de objetivos, fraude o abuso es particularmente preocupante para algunos expertos en ciberseguridad.

La inteligencia artificial puede ingerir y llegar a conclusiones sorprendentemente detalladas sobre personas, equipos y grupos en función de algunos de los puntos de datos más inverosímiles. Un individuo “comprometido” o “distrado” podría teclear rápidamente, manipular el mouse o cambiar entre pestañas del navegador rápidamente. Un usuario que esté “confundido” o “indeciso” puede pausar antes de hacer clic en elementos de la página o volver a visitar varios sitios.

En las manos adecuadas, señales como estas ayudan a los departamentos de recursos humanos a aumentar la participación de los empleados o ayudan a los equipos de marketing a pulir sus sitios web y embudos de ventas.

Para los hackers, señales como estas podrían resultar en un perfil psicológico sorprendentemente matizado de un objetivo destinado. Los ciberdelincuentes podrían ser capaces de determinar, en función de pistas invisibles para los humanos, qué personas podrían ser vulnerables al phishing, smishing, ransomware, fraude financiero y otros tipos de daño. También podría ayudar a los actores maliciosos a aprender cómo convencer mejor a sus objetivos de que sus intentos de fraude provienen de fuentes legítimas.

4. Sondeando vulnerabilidades de la red

Los profesionales de la ciberseguridad publicaron datos sobre 20,175 vulnerabilidades de seguridad conocidas en 2021. Esto fue un aumento con respecto a 2020, cuando hubo 17,049 vulnerabilidades de este tipo.

El mundo se vuelve más interconectado digitalmente, algunos dirían interdependiente, por hora. El mundo ahora alberga una cantidad abrumadora de redes pequeñas e industriales, con miles de millones de dispositivos conectados en línea y más en camino. Todo está en línea, desde sensores de monitoreo de condiciones hasta software de planificación empresarial.

La inteligencia artificial muestra promesa en ayudar a los equipos de ciberseguridad a sondear rápidamente las vulnerabilidades de la red, el software y el hardware más rápido de lo que los humanos podrían hacer solos. La velocidad y la escala del crecimiento de la infraestructura digital de la Tierra significan que es casi imposible buscar miles de millones de líneas de código en busca de exploits de seguridad para parchear. Todo esto tiene que ocurrir mientras estos sistemas están en línea debido al costo del tiempo de inactividad.

Si la IA es una herramienta de ciberseguridad aquí, también es una espada de doble filo. Los hackers pueden utilizar los mismos mecanismos que la “multitud de sombreros blancos” para llevar a cabo el mismo trabajo: sondear redes, software y firmware en busca de vulnerabilidades más eficientemente que los especialistas en TI humanos.

Una carrera armamentística digital

Hay demasiadas aplicaciones de IA en el cibercrimen para nombrarlas todas, pero aquí hay algunas más:

  • Los hackers podrían ocultar el código de IA dentro de una aplicación aparentemente benigna que ejecuta un comportamiento malicioso cuando detecta un desencadenador o umbral predeterminado.
  • Los modelos de IA maliciosos pueden ser utilizados para determinar las credenciales o las características de gestión de TI monitoreando la entrada biométrica, como huellas dactilares y reconocimiento de voz.
  • Incluso si un intento de ciberataque finalmente fracasa, los hackers equipados con IA pueden ser capaces de utilizar el aprendizaje automático para determinar qué salió mal y qué podrían hacer de manera diferente la próxima vez.

Parecía que solo una historia bien colocada sobre hacking a un jeep mientras conduce ralentizó el desarrollo de vehículos autónomos a un ritmo de caracol. Un hack de alto perfil donde la IA actúa como un pivote podría causar una erosión similar en la opinión pública. Algunas encuestas muestran que el estadounidense promedio es muy escéptico sobre los beneficios de la IA ya.

La computación omnipresente conlleva riesgos de ciberseguridad, y tanto los hackers de sombrero blanco como los de sombrero negro lo saben. La IA puede ayudar a mantener nuestras vidas en línea seguras, pero también es el epicentro de una nueva carrera armamentística digital.

Zac Amos es un escritor de tecnología que se enfoca en inteligencia artificial. También es el editor de características en ReHack, donde puedes leer más de su trabajo.