Stummel Die Gefahren von KI-Chatbots – und wie man ihnen entgegenwirkt – Unite.AI
Vernetzen Sie sich mit uns

Vordenker

Die Gefahren von KI-Chatbots – und wie man ihnen entgegenwirkt

mm

Veröffentlicht

 on

Früher dachte man, dass es sich bei KI-Chatbots lediglich um automatisierte Gesprächsprogramme handelte. Heute können sie Gespräche erlernen und führen, die von Menschen kaum zu unterscheiden sind. Die Gefahren von KI-Chatbots sind jedoch ebenso vielfältig.

Diese können vom Missbrauch durch Menschen bis hin zu tatsächlichen Cybersicherheitsrisiken reichen. Da Menschen zunehmend auf KI-Technologie angewiesen sind, ist es wichtig, die möglichen Auswirkungen der Verwendung dieser Programme zu kennen. Aber sind Bots gefährlich?

1. Voreingenommenheit und Diskriminierung

Eine der größten Gefahren von KI-Chatbots ist ihre Tendenz zu schädlichen Vorurteilen. Da die KI Verbindungen zwischen Datenpunkten herstellt, die Menschen oft übersehen, kann sie subtile, implizite Verzerrungen in ihren Trainingsdaten aufgreifen und sich selbst beibringen, diskriminierend zu sein. Dadurch können Chatbots schnell lernen, rassistische, sexistische oder anderweitig diskriminierende Inhalte auszuspucken, selbst wenn in ihren Trainingsdaten nichts so Extremes vorkommt.

Ein Paradebeispiel ist der abgeschaffte Einstellungs-Bot von Amazon. Im Jahr 2018 stellte sich heraus, dass Amazon hatte ein KI-Projekt aufgegeben war dazu gedacht, die Lebensläufe von Bewerbern vorab zu bewerten, da dadurch Bewerbungen von Frauen bestraft wurden. Da es sich bei den meisten Lebensläufen, an denen der Bot trainierte, um Männer handelte, lernte er von selbst, dass männliche Bewerber vorzuziehen waren, auch wenn dies in den Trainingsdaten nicht ausdrücklich angegeben war.

Chatbots, die Internetinhalte nutzen, um sich selbst beizubringen, wie man auf natürliche Weise kommuniziert, neigen dazu, noch extremere Vorurteile an den Tag zu legen. Im Jahr 2016 stellte Microsoft einen Chatbot namens Tay vor, der lernte, Social-Media-Beiträge nachzuahmen. Innerhalb weniger Stunden ist es soweit begann, äußerst anstößige Inhalte zu twittern, was dazu führte, dass Microsoft das Konto bald sperrte.

Wenn Unternehmen beim Erstellen und Bereitstellen dieser Bots nicht vorsichtig sind, kann es versehentlich zu ähnlichen Situationen kommen. Chatbots könnten Kunden misshandeln oder schädliche, voreingenommene Inhalte verbreiten, die sie eigentlich verhindern sollen.

2. Cybersicherheitsrisiken

Die Gefahren der KI-Chatbot-Technologie können auch eine direktere Bedrohung der Cybersicherheit für Menschen und Unternehmen darstellen. Eine der häufigsten Formen von Cyberangriffen sind Phishing- und Vishing-Betrügereien. Dazu gehören Cyber-Angreifer imitieren vertrauenswürdige Organisationen wie Banken oder Regierungsbehörden.

Phishing-Betrügereien erfolgen in der Regel über E-Mails und Textnachrichten. Wenn Sie auf den Link klicken, gelangt Schadsoftware in das Computersystem. Sobald der Virus einmal eingedrungen ist, kann er alles tun, vom Diebstahl persönlicher Daten bis zur Erpressung eines Lösegelds durch das System.

Die Zahl der Phishing-Angriffe hat während und nach der COVID-19-Pandemie stetig zugenommen. Die Agentur für Cybersicherheit und Infrastruktursicherheit fanden 84 % der Personen auf Phishing-Nachrichten mit vertraulichen Informationen geantwortet oder auf den Link geklickt hat.

Phisher nutzen KI-Chatbot-Technologie, um die Suche nach Opfern zu automatisieren und sie dazu zu verleiten, auf Links zu klicken und persönliche Daten preiszugeben. Chatbots werden von vielen Finanzinstituten – beispielsweise Banken – verwendet, um den Kundenservice zu optimieren.

Phisher mit Chatbots können dieselben automatisierten Eingabeaufforderungen nachahmen, mit denen Banken ihre Opfer täuschen. Sie können auch automatisch Telefonnummern wählen oder Opfer direkt auf interaktiven Chat-Plattformen kontaktieren.

3. Datenvergiftung

Data Poisoning ist ein neu konzipierter Cyberangriff, der direkt auf künstliche Intelligenz abzielt. Die KI-Technologie lernt aus Datensätzen und nutzt diese Informationen, um Aufgaben zu erledigen. Dies gilt für alle KI-Programme, unabhängig von ihrem Zweck oder ihren Funktionen.

Für Chatbot-KIs bedeutet dies, dass sie mehrere Antworten auf mögliche Fragen lernen, die Benutzer ihnen stellen können. Dies ist jedoch auch eine der Gefahren von KI.

Bei diesen Datensätzen handelt es sich häufig um Open-Source-Tools und -Ressourcen, die jedem zur Verfügung stehen. Obwohl KI-Unternehmen ihre Datenquellen in der Regel streng geheim halten, können Cyber-Angreifer feststellen, welche sie verwenden, und die Daten manipulieren.

Cyber-Angreifer können Wege finden, dies zu tun Manipulation der Datensätze Wird zum Trainieren von KIs verwendet, damit diese ihre Entscheidungen und Reaktionen manipulieren können. Die KI nutzt die Informationen aus den veränderten Daten und führt die von den Angreifern gewünschten Aktionen aus.

Eine der am häufigsten verwendeten Quellen für Datensätze sind beispielsweise Wiki-Ressourcen wie Wikipedia. Obwohl die Daten nicht aus dem Live-Wikipedia-Artikel stammen, stammen sie aus Schnappschüssen von Daten, die zu bestimmten Zeiten aufgenommen wurden. Hacker können einen Weg finden, die Daten zu ihrem Vorteil zu bearbeiten.

Im Fall von Chatbot-KIs können Hacker die Datensätze beschädigen, die zum Trainieren von Chatbots verwendet werden, die für medizinische oder Finanzinstitute arbeiten. Sie können Chatbot-Programme manipulieren, um Kunden falsche Informationen zu liefern, die sie dazu verleiten könnten, auf einen Link mit Malware oder eine betrügerische Website zu klicken. Sobald die KI beginnt, aus manipulierten Daten zu schöpfen, ist dies schwer zu erkennen und kann zu einer erheblichen Verletzung der Cybersicherheit führen, die lange Zeit unbemerkt bleibt.

Wie man den Gefahren von KI-Chatbots begegnet

Diese Risiken sind besorgniserregend, bedeuten aber nicht, dass Bots grundsätzlich gefährlich sind. Vielmehr sollten Sie vorsichtig an sie herangehen und diese Gefahren beim Aufbau und Einsatz von Chatbots berücksichtigen.

Der Schlüssel zur Vermeidung von KI-Voreingenommenheit besteht darin, während des gesamten Trainings danach zu suchen. Trainieren Sie es unbedingt anhand verschiedener Datensätze und programmieren Sie es gezielt, um Faktoren wie Rasse, Geschlecht oder sexuelle Orientierung nicht in seine Entscheidungsfindung einzubeziehen. Am besten ist es auch, ein vielfältiges Team von Datenwissenschaftlern zu haben, die das Innenleben von Chatbots überprüfen und sicherstellen, dass sie keine Vorurteile aufweisen, wie subtil sie auch sein mögen.

Der beste Schutz vor Phishing ist Schulung. Schulen Sie alle Mitarbeiter im Erkennen Häufige Anzeichen für Phishing-Versuche damit sie nicht auf diese Angriffe hereinfallen. Auch die Sensibilisierung der Verbraucher für das Thema wird hilfreich sein.

Sie können Datenvergiftung verhindern, indem Sie den Zugriff auf die Trainingsdaten von Chatbots beschränken. Nur Personen, die Zugriff auf diese Daten benötigen, um ihre Arbeit ordnungsgemäß ausführen zu können, sollten eine Berechtigung haben – ein Konzept, das als Prinzip der geringsten Privilegien bezeichnet wird. Nutzen Sie nach der Umsetzung dieser Einschränkungen starke Verifizierungsmaßnahmen wie Multi-Faktor-Authentifizierung oder Biometrie, um das Risiko zu verhindern, dass Cyberkriminelle in ein autorisiertes Konto eindringen.

Bleiben Sie wachsam gegenüber den Gefahren der Abhängigkeit von KI

Künstliche Intelligenz ist eine wirklich wundersame Technologie mit nahezu endlosen Anwendungsmöglichkeiten. Die Gefahren der KI könnten jedoch unklar sein. Sind Bots gefährlich? Nicht von Natur aus, aber Cyberkriminelle können sie auf verschiedene, störende Weise nutzen. Es liegt an den Benutzern, zu entscheiden, welche Anwendungen diese neu entdeckte Technologie bietet.