Stummel KI eröffnet neue Wege zur Bekämpfung illegaler Opiodverkäufe und anderer Cyberkriminalität – Unite.AI
Vernetzen Sie sich mit uns

Künstliche Intelligenz

KI eröffnet neue Wege zur Bekämpfung illegaler Opiodverkäufe und anderer Cyberkriminalität

mm
Aktualisiert on

Das US-Gesundheitsministerium (HHS) und das National Institute on Drug Abuse (NIDA) investieren in den Einsatz von KI, um den illegalen Verkauf von Opioiden einzudämmen und hoffentlich den Drogenmissbrauch zu reduzieren. Wie Vox berichteteDas KI-Tool von NIDA wird versuchen, illegale Pharmamärkte im Internet aufzuspüren, aber die von der KI verwendeten Ansätze könnten problemlos auf andere Formen der Cyberkriminalität angewendet werden.

Einer der für die Entwicklung des Tools verantwortlichen Forscher, Timothy Mackey, habe kürzlich mit Vox gesprochen, wo erklärt wurde, dass die KI-Algorithmen, die zur Verfolgung des illegalen Verkaufs von Opioiden verwendet werden, auch zur Erkennung anderer Formen illegaler Verkäufe, wie etwa gefälschter Produkte und illegaler Wildtierhandel, eingesetzt werden könnten.

Das KI-Tool von NIDA muss in der Lage sein, zwischen einer allgemeinen Diskussion über Opioide und Versuchen, über den Verkauf von Opioiden zu verhandeln, zu unterscheiden. Laut Mackey steht nur ein relativ kleiner Prozentsatz der Tweets, die sich auf Opioide beziehen, tatsächlich mit dem illegalen Verkauf von Opioiden in Zusammenhang. Mackey erklärte, dass von etwa 600,000 Tweets, die sich auf eines von mehreren verschiedenen Opioiden bezogen, nur etwa 2,000 diese Medikamente tatsächlich in irgendeiner Weise vermarkteten. Das KI-Tool muss außerdem robust genug sein, um mit Änderungen in der Sprache Schritt zu halten, die zur illegalen Vermarktung von Opioiden verwendet wird. Menschen, die Drogen illegal verkaufen, verwenden häufig eine verschlüsselte Sprache und nicht offensichtliche Schlüsselwörter, um sie zu verkaufen, und ändern schnell ihre Strategie. Mackey erklärt, dass häufig falsch geschriebene Pseudonyme für die Namen von Medikamenten verwendet werden und dass Bilder von anderen Dingen als den betreffenden Medikamenten häufig zum Erstellen von Einträgen auf Websites wie Instagram verwendet werden.

Während Instagram und Facebook die Vermarktung von Drogen verbieten und Benutzer dazu ermutigen, Missbrauchsfälle zu melden, können illegale Inhalte sehr schwer zu erkennen sein, gerade weil Drogenverkäufer dazu neigen, Strategien und Codewörter schnell zu ändern. Mackey erklärte, dass diese codierten Posts und Hashtags auf Instagram typischerweise Informationen darüber enthalten, wie man den Händler kontaktiert und bei ihm illegale Drogen kauft. Mackey erklärte außerdem, dass einige illegale Verkäufer sich als legitime Pharmaunternehmen ausgeben und auf E-Commerce-Plattformen verlinken. Obwohl die FDA oft versucht hat, gegen diese Websites vorzugehen, bleiben sie ein Problem.

Bei der Entwicklung von KI-Tools zur Erkennung illegalen Drogenmarketings nutzten Mackey und der Rest des Forschungsteams eine Kombination aus beidem tiefe Lernen und Themenmodellierung. Das Forschungsteam entwarf ein Deep-Learning-Modell, das ein Netzwerk mit Langzeitgedächtnis nutzte, das auf den Text von Instagram-Posts trainiert wurde, mit dem Ziel, einen Textklassifizierer zu erstellen, der Beiträge, die mit illegalen Drogenverkäufen in Zusammenhang stehen könnten, automatisch kennzeichnen könnte. Das Forschungsteam nutzte auch die Themenmodellierung und ließ sein KI-Modell Schlüsselwörter erkennen, die mit Opioiden wie Fentanyl und Percocet in Zusammenhang stehen. Dadurch kann das Modell robuster und ausgefeilter werden und es ist in der Lage, Themen und Konversationen zuzuordnen, nicht nur einzelne Wörter. Die Themenmodellierung half dem Forschungsteam, einen Datensatz von rund 30,000 Tweets zu Fentanyl auf nur eine Handvoll Tweets zu reduzieren, die es offenbar vermarkteten.

Markey und der Rest des Forschungsteams haben ihre KI-Anwendung möglicherweise für die Verwendung durch NIDA entwickelt, aber auch Social-Media-Unternehmen wie Facebook, Twitter, Reddit und YouTube investieren stark in den Einsatz von KI, um Inhalte zu kennzeichnen, die gegen ihre Richtlinien verstoßen. Laut Markey hat er bereits mit Twitter und Facebook über eine solche Anwendung gesprochen, aber im Moment liegt der Schwerpunkt auf der Entwicklung einer kommerziell verfügbaren Anwendung auf der Grundlage seiner Forschung für NIDA, und er hofft, dass das Tool von sozialen Medien genutzt werden könnte Plattformen, Regulierungsbehörden und mehr.

Markey erklärte, dass der für die NIDA-Forschung entwickelte Ansatz auf die Bekämpfung anderer Formen der Cyberkriminalität, wie etwa des Tierhandels oder des illegalen Verkaufs von Schusswaffen, übertragen werden könnte. Instagram hatte Probleme mit illegalem Tierhandel Als Reaktion darauf wurde im Jahr 2017 die Werbung für alle Tierverkäufe verboten. Das Unternehmen versucht auch, alle Beiträge zum Thema Tierhandel zu entfernen, sobald sie auftauchen. Dennoch gibt es weiterhin einen Schwarzmarkt für exotische Haustiere und bei Instagram-Suchanfragen wird immer noch Werbung für sie angezeigt.

Es gibt einige ethische Fragen, die verhandelt werden müssen, wenn das NIDA-Tool implementiert werden soll. Experten für Drogenpolitik warnen davor, dass dadurch der Verkauf durch Drogenverkäufer auf niedrigem Niveau übermäßig kriminalisiert werden könnte und dass auch der falsche Eindruck entstehen könnte, dass das Problem gelöst wird, auch wenn solche KI-Tools die Gesamtnachfrage nach der Substanz möglicherweise nicht verringern. Dennoch könnten die KI-Tools bei richtiger Anwendung den Strafverfolgungsbehörden dabei helfen, Verbindungen zwischen Online-Verkäufern und Offline-Lieferketten herzustellen und so das Ausmaß des Problems zu quantifizieren. Darüber hinaus könnten ähnliche Techniken wie die von NIDA zur Bekämpfung der Opioidabhängigkeit eingesetzt werden, indem Menschen bei der Suche auf Rehabilitationsquellen verwiesen werden. Wie bei jeder Innovation gibt es sowohl Risiken als auch Chancen.