Vernetzen Sie sich mit uns

KI-Experten ordnen Deepfakes und 19 andere KI-basierte Straftaten nach Gefahrenstufe

Internet-Sicherheit

KI-Experten ordnen Deepfakes und 19 andere KI-basierte Straftaten nach Gefahrenstufe

mm

Neue berichten Das vom University College London veröffentlichte Projekt zielte darauf ab, die vielen verschiedenen Möglichkeiten zu identifizieren, wie KI Kriminellen in den nächsten 15 Jahren möglicherweise helfen könnte. In dem Bericht untersuchten 31 verschiedene KI-Experten 20 verschiedene Methoden des Einsatzes von KI zur Begehung von Straftaten und bewerteten diese Methoden anhand verschiedener Faktoren. Die KI-Experten ordneten die Straftaten anhand von Variablen ein, z. B. wie einfach die Straftat zu begehen wäre, welchen potenziellen gesellschaftlichen Schaden die Straftat anrichten könnte, wie viel Geld ein Krimineller verdienen könnte und wie schwierig es wäre, die Straftat zu stoppen. Den Ergebnissen des Berichts zufolge stellten Deepfakes die größte Bedrohung für gesetzestreue Bürger und die Gesellschaft im Allgemeinen dar, da ihr Potenzial für die Ausnutzung durch Kriminelle und Terroristen hoch ist.

Die KI-Experten stuften Deepfakes ganz oben auf der Liste potenzieller KI-Bedrohungen ein, da Deepfakes schwer zu erkennen und zu bekämpfen sind. Deepfakes können selbst die Augen von Deepfake-Experten immer besser täuschen, und selbst andere KI-basierte Methoden zur Erkennung von Deepfakes sind oft unzuverlässig. Im Hinblick auf ihre Fähigkeit, Schaden anzurichten, können Deepfakes leicht von böswilligen Akteuren genutzt werden, um vertrauenswürdige Experten zu diskreditieren oder um zu versuchen, Menschen zu betrügen, indem sie sich als geliebte Menschen oder andere vertrauenswürdige Personen ausgeben. Wenn Deepfakes im Überfluss vorhanden sind, könnte das Vertrauen der Menschen in Audio- oder Videomedien verloren gehen, was dazu führen könnte, dass sie den Glauben an die Gültigkeit realer Ereignisse und Fakten verlieren.

Dr. Matthew Caldwell von der UCL Computer Science war der erste Autor des Artikels. Caldwell betont die wachsende Gefahr von Deepfakes, da sich immer mehr unserer Aktivitäten online verlagern. Wie Caldwell von UCL News zitiert wurde:

„Im Gegensatz zu vielen traditionellen Straftaten können Straftaten im digitalen Bereich leicht geteilt, wiederholt und sogar verkauft werden, wodurch kriminelle Techniken vermarktet und Straftaten als Dienstleistung angeboten werden können.“ Das bedeutet, dass Kriminelle möglicherweise die schwierigeren Aspekte ihrer KI-basierten Kriminalität auslagern können.“

Das Expertenteam stufte fünf weitere aufkommende KI-Technologien als höchst besorgniserregende potenzielle Katalysatoren für neue Arten von Kriminalität ein: selbstfahrende Fahrzeuge, die als Waffen eingesetzt werden, Hackangriffe auf KI-gesteuerte Systeme und Geräte, Online-Datenerfassung zu Erpressungszwecken, KI-basiert Phishing mit personalisierten Nachrichten und Fake News/Fehlinformationen im Allgemeinen.

Laut Shane Johnson, dem Direktor des Dawes Center for Future Crimes an der UCL, war das Ziel der Studie, mögliche Bedrohungen im Zusammenhang mit neu aufkommenden Technologien zu identifizieren und Möglichkeiten zu entwickeln, diesen Bedrohungen einen Schritt voraus zu sein. Johnson sagt, dass es angesichts der zunehmenden Geschwindigkeit des technologischen Wandels unerlässlich sei, „zukünftige Kriminalitätsbedrohungen vorherzusehen, damit politische Entscheidungsträger und andere Interessengruppen mit Handlungskompetenz dies tun können, bevor es zu neuen ‚Verbrechenserträgen‘ kommt“.

Die vierzehn weiteren möglichen Straftaten auf der Liste wurden in eine von zwei Kategorien eingeteilt: mäßige Besorgnis und geringe Besorgnis.

Zu den KI-Verbrechen von mäßiger Besorgnis gehören der Missbrauch von Militärrobotern, Datenvergiftung, automatisierte Angriffsdrohnen, lernbasierte Cyberangriffe, Denial-of-Service-Angriffe für Online-Aktivitäten, Manipulation von Finanz-/Aktienmärkten, Snake Oil (Verkauf betrügerischer Dienste, die in KI/ML getarnt sind). Terminologie) und Austricksen der Gesichtserkennung.

Zu den wenig besorgniserregenden KI-basierten Straftaten gehören die Fälschung von Kunst oder Musik, KI-gestütztes Stalking, von KI verfasste gefälschte Bewertungen, die Umgehung von KI-Erkennungsmethoden und „Einbrecher-Bots“ (Bots, die in die Häuser von Menschen einbrechen, um Dinge zu stehlen).

Natürlich können KI-Modelle selbst zur Bekämpfung einiger dieser Verbrechen eingesetzt werden. Kürzlich wurden KI-Modelle eingesetzt, um dabei zu helfen die Aufdeckung von Geldwäsche-Maßnahmen, Erkennung verdächtiger Finanztransaktionen. Die Ergebnisse werden von menschlichen Bedienern analysiert, die dann die Warnung genehmigen oder ablehnen, und das Feedback wird verwendet, um das Modell besser zu trainieren. Es ist wahrscheinlich, dass in Zukunft KIs gegeneinander ausgespielt werden, wobei Kriminelle versuchen werden, ihre besten KI-gestützten Werkzeuge und Sicherheit zu entwickeln, Strafverfolgungsbehörden und andere ethische KI-Designer versuchen, ihre eigenen besten KI-Systeme zu entwerfen.

Blogger und Programmierer mit Spezialisierung auf Maschinelles lernen und Tiefes Lernen Themen. Daniel hofft, anderen dabei zu helfen, die Macht der KI für das soziale Wohl zu nutzen.