Connect with us

Cómo proteger los datos de entrenamiento de IA

Ciberseguridad

Cómo proteger los datos de entrenamiento de IA

mm

La inteligencia artificial (IA) necesita datos y muchos de ellos. Recopilar la información necesaria no siempre es un desafío en el entorno actual, con muchos conjuntos de datos públicos disponibles y tanta información generada todos los días. Sin embargo, protegerlos es otro asunto.

El tamaño vasto de los conjuntos de datos de entrenamiento de IA y el impacto de los modelos de IA atraen la atención de los ciberdelincuentes. A medida que aumenta la dependencia de la IA, los equipos que desarrollan esta tecnología deben tener precaución para asegurarse de que mantengan sus datos de entrenamiento a salvo.

Por qué los datos de entrenamiento de IA necesitan una mejor seguridad

Los datos que utiliza para entrenar un modelo de IA pueden reflejar personas, empresas o eventos del mundo real. Como tal, puede estar manejando una cantidad considerable de información personal identificable (PII), lo que causaría violaciones de privacidad significativas si se expusiera. En 2023, Microsoft sufrió un incidente de este tipo, exponiendo accidentalmente 38 terabytes de información privada durante un proyecto de investigación de IA.

Los conjuntos de datos de entrenamiento de IA también pueden ser vulnerables a ataques adversarios más dañinos. Los ciberdelincuentes pueden alterar la confiabilidad de un modelo de aprendizaje automático manipulando sus datos de entrenamiento si pueden obtener acceso a ellos. Es un tipo de ataque conocido como envenenamiento de datos, y los desarrolladores de IA pueden no notar los efectos hasta que sea demasiado tarde.

La investigación muestra que envenenar solo el 0,001% de un conjunto de datos es suficiente para corromper un modelo de IA. Sin las protecciones adecuadas, un ataque como este podría tener implicaciones graves una vez que el modelo se implemente en el mundo real. Por ejemplo, un algoritmo de conducción autónoma corrupto puede no detectar peatones. Alternativamente, una herramienta de IA para escanear currículos puede producir resultados sesgados.

En circunstancias menos graves, los atacantes podrían robar información confidencial de un conjunto de datos de entrenamiento en un acto de espionaje industrial. También podrían bloquear a los usuarios autorizados para acceder a la base de datos y exigir un rescate.

A medida que la IA se vuelve cada vez más importante en la vida y los negocios, los ciberdelincuentes pueden ganar más al apuntar a las bases de datos de entrenamiento. Todos estos riesgos, a su vez, se vuelven más preocupantes.

5 pasos para proteger los datos de entrenamiento de IA

En vista de estas amenazas, tome la seguridad en serio al entrenar modelos de IA. Aquí hay cinco pasos para seguir y proteger sus datos de entrenamiento de IA.

1. Minimizar la información sensible en los conjuntos de datos de entrenamiento

Una de las medidas más importantes es eliminar la cantidad de detalles sensibles en su conjunto de datos de entrenamiento. Cuanto menos PII o otra información valiosa haya en su base de datos, menos será el objetivo para los hackers. Una violación también será menos impactante si ocurre en estos escenarios.

Los modelos de IA a menudo no necesitan utilizar información del mundo real durante la fase de entrenamiento. Los datos sintéticos son una alternativa valiosa. Los modelos entrenados con datos sintéticos pueden ser tan precisos como o más precisos que otros, así que no tiene que preocuparse por problemas de rendimiento. Asegúrese de que el conjunto de datos generado se parezca y actúe como los datos del mundo real.

Alternativamente, puede limpiar los conjuntos de datos existentes de detalles sensibles como nombres de personas, direcciones y información financiera. Cuando estos factores son necesarios para su modelo, considere reemplazarlos con datos ficticios o intercambiarlos entre registros.

2. Restringir el acceso a los datos de entrenamiento

Una vez que haya compilado su conjunto de datos de entrenamiento, debe restringir el acceso a él. Siga el principio de privilegios mínimos, que establece que cualquier usuario o programa solo debe poder acceder a lo que es necesario para completar su trabajo correctamente. Nadie que no esté involucrado en el proceso de entrenamiento necesita ver o interactuar con la base de datos.

Recuerde que las restricciones de privilegios solo son efectivas si también implementa una forma confiable de verificar a los usuarios. Un nombre de usuario y una contraseña no son suficientes. La autenticación de múltiples factores (MFA) es esencial, ya que detiene del 80% al 90% de todos los ataques contra cuentas, pero no todos los métodos de MFA son iguales. La MFA basada en texto y aplicación es generalmente más segura que las alternativas basadas en correo electrónico.

Asegúrese de restringir el software y los dispositivos, no solo a los usuarios. Las únicas herramientas con acceso a la base de datos de entrenamiento deben ser el modelo de IA en sí y cualquier programa que utilice para administrar estas perspicacias durante el entrenamiento.

3. Cifrar y respaldar los datos

El cifrado es otra medida de protección crucial. Si bien no todos los algoritmos de aprendizaje automático pueden entrenarse activamente con datos cifrados, puede cifrar y descifrar durante el análisis. Luego, puede volver a cifrar una vez que haya terminado. Alternativamente, busque estructuras de modelo que puedan analizar la información mientras está cifrada.

Mantener copias de seguridad de sus datos de entrenamiento en caso de que algo les suceda es importante. Las copias de seguridad deben estar en un lugar diferente al de la copia principal. Dependiendo de cuán críticos sean sus datos, es posible que deba mantener una copia de seguridad fuera de línea y una en la nube. Recuerde cifrar todas las copias de seguridad también.

Al cifrar, elija su método con cuidado. Los estándares más altos siempre son preferibles, pero puede que desee considerar algoritmos de criptografía resistentes a cuántica a medida que aumenta la amenaza de ataques cuánticos.

4. Monitorear el acceso y el uso

Incluso si sigue estos otros pasos, los ciberdelincuentes pueden atravesar sus defensas. En consecuencia, debe monitorear continuamente los patrones de acceso y uso de sus datos de entrenamiento de IA.

Una solución de monitoreo automatizada es probablemente necesaria aquí, ya que pocas organizaciones tienen los niveles de personal para vigilar la actividad sospechosa las 24 horas del día. La automatización también es mucho más rápida para actuar cuando algo inusual ocurre, lo que lleva a costos de violación de datos $2.22 más bajos en promedio de respuestas más rápidas y efectivas.

Registre cada vez que alguien o algo acceda al conjunto de datos, solicite acceso a él, lo cambie o de lo contrario interactúe con él. Además de vigilar posibles violaciones en esta actividad, revise regularmente para tendencias más amplias. El comportamiento de los usuarios autorizados puede cambiar con el tiempo, lo que puede necesitar un cambio en sus permisos de acceso o biometría de comportamiento si utiliza dicho sistema.

5. Reevaluar regularmente los riesgos

De manera similar, los equipos de desarrollo de IA deben darse cuenta de que la ciberseguridad es un proceso continuo, no una solución de una sola vez. Los métodos de ataque evolucionan rápidamente: algunas vulnerabilidades y amenazas pueden pasar por alto antes de que se den cuenta. La única forma de mantenerse a salvo es reevaluar su postura de seguridad regularmente.

Al menos una vez al año, revise su modelo de IA, sus datos de entrenamiento y cualquier incidente de seguridad que afecte a cualquiera de los dos. Audite el conjunto de datos y el algoritmo para asegurarse de que estén funcionando correctamente y de que no haya datos envenenados, engañosos o dañinos presentes. Ajuste sus controles de seguridad según sea necesario para cualquier cosa inusual que note.

Las pruebas de penetración, donde los expertos en seguridad prueban sus defensas intentando superarlas, también son beneficiosas. Todos, excepto el 17% de los profesionales de ciberseguridad realizan pruebas de penetración al menos una vez al año, y el 72% de los que lo hacen dicen que cree que detuvo una violación en su organización.

La ciberseguridad es clave para el desarrollo seguro de IA

El desarrollo ético y seguro de IA se vuelve cada vez más importante a medida que crecen las posibles cuestiones sobre la dependencia del aprendizaje automático. Proteger su base de datos de entrenamiento es un paso crítico para cumplir con esa demanda.

Los datos de entrenamiento de IA son demasiado valiosos y vulnerables para ignorar los riesgos cibernéticos. Siga estos cinco pasos hoy para mantener su modelo y su conjunto de datos a salvo.

Zac Amos es un escritor de tecnología que se enfoca en inteligencia artificial. También es el editor de características en ReHack, donde puedes leer más de su trabajo.