Líderes de opinión
¿Está creando el entorno digital K-12 a la próxima generación de hackers?

Las escuelas se han convertido en un centro digital para los estudiantes, con plataformas de edtech que les ayudan a aprender. Un impresionante $165 mil millones se han invertido en el mercado a partir de 2026, con beneficios que comprenden, pero no se limitan a, la capacidad de personalizar el contenido para satisfacer las necesidades individuales de los estudiantes, ofrecer materiales interactivos y atractivos, y acceder a análisis para mejorar las experiencias de aprendizaje basadas en datos. Pero con cada nuevo dispositivo que se conecta a la red, viene una responsabilidad adicional.
La IA está democratizando el acceso a herramientas de creación de contenido que antes solo estaban disponibles para desarrolladores capacitados y profesionales de los medios. La curiosidad de los niños por estas creaciones es un cambio positivo para aquellos que desean aprender y explorar intereses tempranos en carreras populares como la realización de películas o el diseño de anuncios de marketing, pero sin las barreras y la capacitación adecuadas, pueden ser peligrosas.
Mientras tanto, las escuelas aún están definiendo las políticas de seguridad de la IA. Ohio es uno de los primeros estados en requerir que las escuelas K-12 adopten políticas formales de IA a mediados de 2026, prohibiendo el uso de la IA para el acoso y estableciendo que los distritos deben establecer procedimientos para investigar el uso sospechoso, aunque la política no prescribe métodos específicos.
La tecnología está avanzando más rápido de lo que las regulaciones pueden seguir el ritmo. Las escuelas deben tomar la responsabilidad de la IA en sus propias manos para evitar que conviertan entornos de aprendizaje seguros en un terreno de entrenamiento para futuros hackers.
¿Por qué las escuelas deben despertar y detener a los deepfakes de la IA
Nos encanta ver a nuestros hijos emocionados de aprender y experimentar. Pero sin barreras adecuadas, esa curiosidad puede tener consecuencias costosas. Desde violaciones de datos hasta ciberacoso, las escuelas deben comprender y gestionar la última IA para garantizar un entorno de aprendizaje seguro.
Casi el 68% de los niños menores de dos años pasan alrededor de dos horas de tiempo de pantalla cada día. Estos niños quieren jugar con los últimos juegos y herramientas disponibles, pero no entienden el potencial de daño. Pueden tomar y subir fotos de sí mismos para crear avatares de juegos, y una sola foto es todo lo que se necesita para que el contenido sea mal utilizado.
Dos niños fueron acusados de generar imágenes desnudas de chicas en su escuela, lo que llevó a una pelea en el patio y una de las víctimas fue expulsada. La IA ha hecho que sea más fácil para cualquiera alterar o crear tales imágenes con poca o ninguna capacitación, y las consecuencias se están extendiendo a riesgos psicológicos, legales y de seguridad digital.
Según una encuesta, el 91% de los distritos han sido engañados por deepfakes. Estas imágenes pueden causar una gran vergüenza y ser utilizadas como una herramienta para el acoso, lo que puede llevar a que los niños falten a la escuela y no quieran regresar. Si las imágenes no se retiran de manera responsable, existe la posibilidad de que sean utilizadas por estudiantes en futuras escuelas o por un empleador al realizar una verificación de antecedentes.
Las escuelas son terrenos de prueba para los próximos hackers
Las redes escolares de hoy no solo son objetivos para los hackers existentes, sino también terrenos de prueba para la próxima generación de ciberdelincuentes. Informes de 2025 encontraron que más de la mitad de los ciberataques internos en las escuelas fueron causados por estudiantes, donde, en varios casos, los estudiantes adivinaron contraseñas débiles o las encontraron anotadas en pedazos de papel.
Las razones citadas para que estos niños decidan hackear incluyen desafíos, notoriedad, ganancia financiera, venganza y rivalidades. Esto indica que tanto la capacitación en fuerza de contraseña como las consecuencias del mal uso digital son lecciones críticas para las escuelas.
Cuando los sistemas son fáciles de romper y nadie parece estar vigilando, lo que comienza como el secuestro de cuentas para publicar mensajes embarazosos en la cuenta de redes sociales de un compañero puede pronto escalar a amenazas más dañinas. Las redes abiertas con controles de identidad insuficientes y educación mínima en ciberética se convierten en un problema sistémico que las escuelas y los padres deben trabajar juntos para solucionar.
Prohibir las redes sociales versus alfabetización digital
Mientras que algunas escuelas eligen prohibir las cuentas de redes sociales para los niños menores de 16 años, otras priorizan la alfabetización en IA. La ONU ha detallado directrices dirigidas primero a los padres, seguidos de los maestros, reguladores y luego sectores industriales y privados para ayudar a fortalecer los marcos de gobernanza de la IA y defender los derechos de los niños. Las recomendaciones incluyen garantizar que los sistemas de IA sean transparentes, responsables y estén integrados con medidas de protección de datos centradas en los niños.
Las escuelas están respondiendo ampliando la definición de daños en línea para reconocer riesgos como los deepfakes junto con las preocupaciones tradicionales de seguridad en línea, y construyendo la alfabetización digital en el plan de estudios.
En Nueva Jersey, por ejemplo, los estudiantes de K-8 en el distrito reciben lecciones sobre qué es la IA, cómo se entrena, las preguntas éticas que plantea y cómo usarla de manera responsable, junto con clases que cubren codificación, ciudadanía digital y mecanografía. Dado que la IA ya está cambiando las formas de trabajar y se está infiltrando en la vida cotidiana, y los niños están accediendo a la tecnología desde edades más tempranas, es esencial que los estudiantes tengan alfabetización en IA para que estén preparados para ella.
¿Cómo se ve la protección efectiva hoy en día
Cuando los estudiantes saben que los sistemas están monitoreados, el abuso disminuye. En 2020, un estudio que comparó cursos en línea antes y después de la introducción de la supervisión de la cámara web encontró que el fraude se redujo significativamente una vez que los estudiantes supieron que estaban siendo monitoreados. Los maestros que tienen visibilidad y control sobre la actividad digital de los estudiantes pueden proporcionar una experiencia similar, ayudando a frenar el comportamiento en línea indeseable durante las horas escolares.
El mercado de EdTech y Aula Inteligente se espera que alcance una valoración de aproximadamente $498.5 mil millones para 2032, avanzando a un ritmo del 15% anual. Los administradores de aula están diseñados para dar a los maestros acceso a la actividad del dispositivo del estudiante durante las lecciones desde una pantalla maestra, ayudando a dirigir a los estudiantes al material de la clase cuando se desvían del camino. La mayoría de las herramientas ofrecerán servicios como monitorear la actividad del navegador en vivo, bloquear o cerrar automáticamente pestañas distractoras o no autorizadas, y controles de acceso personalizables que otorgan visibilidad solo en base a necesidad.
Es importante que los estudiantes estén al tanto de estas herramientas y las razones para ellas para mantener una relación de confianza con los maestros. Estas herramientas deben ser introducidas junto con la capacitación en prácticas digitales seguras para que los estudiantes entiendan por qué es importante usar las herramientas de manera adecuada, y por qué los maestros deben mantener la supervisión para guiar a los estudiantes en el camino correcto.
Al igual que con la introducción de nuevos productos y tecnologías, debe ir acompañada de prácticas óptimas y orientación continua para los usuarios. En las escuelas, los maestros deben estar atentos a los materiales digitales con los que interactúan los estudiantes y asegurarse de que los problemas de mal uso digital se aborden temprano y con sensibilidad.












