mozzicone L'intelligenza artificiale viene ora utilizzata per rilevare il cyberbullismo nei bambini in età scolare - Unite.AI
Seguici sui social

Cybersecurity

L'intelligenza artificiale viene ora utilizzata per rilevare il cyberbullismo nei bambini in età scolare

mm
aggiornato on

I dati su bullismo, autolesionismo e cyberbullismo tra gli scolari di tutto il mondo stanno diventando allarmanti. Come presentato da Jun Wu, i dati dagli Stati Uniti mostrano che in 2017 Secondo il National Center for Education Statistics e il Bureau of Justice, circa il 20% degli studenti di età compresa tra 12 e 18 anni ha subito episodi di bullismo. Secondo il Centro per il controllo e la prevenzione delle malattie, il 19% degli studenti delle classi 9-12 riferisce di essere stato vittima di bullismo nella proprietà della scuola nei 12 mesi precedenti l'indagine.

Ciò che sta diventando ancora più allarmante, diffondendosi al di là degli stessi terreni scolastici, è l'aumento del cyberbullismo. Come sottolinea Wu, “le molestie nei forum online, tramite e-mail e sulle piattaforme dei social media possono spesso essere più dannose per la salute mentale della vittima rispetto al bullismo di persona. Il cyberbullismo può spesso essere un'escalation del bullismo scolastico. Allo stesso tempo, il bullismo può iniziare sui social media, per poi farsi strada in classe”.

In Australia, i ricercatori stanno segnalando il fenomeno denominato Momo, che comporta una situazione in cui “i cyber predatori stavano assumendo un personaggio chiamato Momo e contattando i bambini tramite i social media chiedendo loro di farsi del male, aveva inviato ondate di preoccupazione nelle scuole di tutto il paese.

Prevenire tale bullismo e possibili autolesionisti causati dalla depressione ha spinto un certo numero di sviluppatori di intelligenza artificiale a cercare soluzioni a questo problema diffuso.

As SkyNews rapporti, alcune scuole britanniche hanno iniziato a utilizzare uno strumento di intelligenza artificiale chiamato AS Tracking, sviluppato da una società chiamata STEER, che è entrato in uso in 150 scuole britanniche. Lo strumento prevede che gli studenti facciano un test psicologico online e nel settembre 2019 il test sarà sostenuto da 50,000 scolari.

Come viene spiegato, il test chiede agli studenti di immaginare uno spazio in cui si sentano a proprio agio, quindi pone una serie di domande astratte, come "quanto è facile per qualcuno entrare nel tuo spazio?" Il bambino può quindi rispondere facendo clic su un pulsante su una scala che va da "molto facile" a "molto difficile". I risultati vengono inviati a STEER, "che confronta i dati con il suo modello psicologico, quindi segnala gli studenti che necessitano di attenzione nella sua dashboard dell'insegnante".

Secondo il Dr. Jo Walker, co-fondatore di STEER, "il nostro strumento evidenzia quei particolari bambini che stanno lottando in questa particolare fase del loro sviluppo e indica agli insegnanti come sta pensando quel bambino." Aggiunge che "da quando l'ha introdotto il college ha visto una diminuzione del 20% dell'autolesionismo".

Nella sua analisi, Wu menziona un certo numero di sviluppatori di intelligenza artificiale negli Stati Uniti che stanno aiutando a risolvere il problema. securly utilizza l'intelligenza artificiale per creare “Filtraggio web, monitoraggio del cyberbullismo e avvisi di autolesionismo per le scuole. Le scuole possono fornire dispositivi Apple e Chromebook agli studenti mentre monitorano le attività informatiche dello studente. I genitori possono anche utilizzare le app sui propri dispositivi domestici per monitorare le attività online dei propri figli. Corteccia utilizza l'AI per monitorare messaggi di testo, YouTube, e-mail e 24 diversi social network per avvisare i genitori di potenziali problemi di sicurezza. SN Technologies Corp fa un ulteriore passo avanti, poiché le sue soluzioni AI utilizzano il riconoscimento facciale per tracciare gli studenti "inseriti nella lista nera" nelle scuole dai video delle telecamere di sorveglianza nelle scuole stesse.

In Australia, la startup di sicurezza informatica Saasyan Assure ha sviluppato un metodo di intelligenza artificiale che potrebbe aiutare gli insegnanti a tenere traccia degli studenti mentre guardano i video di "Momo Challenge". Greg Margossian, capo di Saasyan Assure ha dichiarato che la sua azienda “mi sono solo assicurato che la parola chiave "Momo" fosse presente in tutti i database dei clienti, senza che loro nemmeno ci pensassero." Si aggiunge che l'azienda "offre un software in abbonamento che può essere aggiunto a tutti i dispositivi a scuola per creare un'impronta storica dell'uso del computer da parte di ogni studente e inviare un ping agli insegnanti se emergono rischi, dal bullismo al possibile autolesionismo o violenza".

 

Ex diplomatico e traduttore per le Nazioni Unite, attualmente giornalista/scrittore/ricercatore freelance, specializzato in tecnologia moderna, intelligenza artificiale e cultura moderna.