Vernetzen Sie sich mit uns

Vordenker

Die Gefahren von KI-Chatbots – und wie man ihnen entgegenwirkt

mm

Veröffentlicht

 on

FrĂŒher dachte man, dass es sich bei KI-Chatbots lediglich um automatisierte GesprĂ€chsprogramme handelte. Heute können sie GesprĂ€che erlernen und fĂŒhren, die von Menschen kaum zu unterscheiden sind. Die Gefahren von KI-Chatbots sind jedoch ebenso vielfĂ€ltig.

Diese können vom Missbrauch durch Menschen bis hin zu tatsÀchlichen Cybersicherheitsrisiken reichen. Da Menschen zunehmend auf KI-Technologie angewiesen sind, ist es wichtig, die möglichen Auswirkungen der Verwendung dieser Programme zu kennen. Aber sind Bots gefÀhrlich?

1. Voreingenommenheit und Diskriminierung

Eine der grĂ¶ĂŸten Gefahren von KI-Chatbots ist ihre Tendenz zu schĂ€dlichen Vorurteilen. Da die KI Verbindungen zwischen Datenpunkten herstellt, die Menschen oft ĂŒbersehen, kann sie subtile, implizite Verzerrungen in ihren Trainingsdaten aufgreifen und sich selbst beibringen, diskriminierend zu sein. Dadurch können Chatbots schnell lernen, rassistische, sexistische oder anderweitig diskriminierende Inhalte auszuspucken, selbst wenn in ihren Trainingsdaten nichts so Extremes vorkommt.

Ein Paradebeispiel ist der abgeschaffte Einstellungs-Bot von Amazon. Im Jahr 2018 stellte sich heraus, dass Amazon hatte ein KI-Projekt aufgegeben war dazu gedacht, die LebenslĂ€ufe von Bewerbern vorab zu bewerten, da dadurch Bewerbungen von Frauen bestraft wurden. Da es sich bei den meisten LebenslĂ€ufen, an denen der Bot trainierte, um MĂ€nner handelte, lernte er von selbst, dass mĂ€nnliche Bewerber vorzuziehen waren, auch wenn dies in den Trainingsdaten nicht ausdrĂŒcklich angegeben war.

Chatbots, die Internetinhalte nutzen, um sich selbst beizubringen, wie man auf natĂŒrliche Weise kommuniziert, neigen dazu, noch extremere Vorurteile an den Tag zu legen. Im Jahr 2016 stellte Microsoft einen Chatbot namens Tay vor, der lernte, Social-Media-BeitrĂ€ge nachzuahmen. Innerhalb weniger Stunden ist es soweit begann, Ă€ußerst anstĂ¶ĂŸige Inhalte zu twittern, was dazu fĂŒhrte, dass Microsoft das Konto bald sperrte.

Wenn Unternehmen beim Erstellen und Bereitstellen dieser Bots nicht vorsichtig sind, kann es versehentlich zu Àhnlichen Situationen kommen. Chatbots könnten Kunden misshandeln oder schÀdliche, voreingenommene Inhalte verbreiten, die sie eigentlich verhindern sollen.

2. Cybersicherheitsrisiken

Die Gefahren der KI-Chatbot-Technologie können auch eine direktere Bedrohung der Cybersicherheit fĂŒr Menschen und Unternehmen darstellen. Eine der hĂ€ufigsten Formen von Cyberangriffen sind Phishing- und Vishing-BetrĂŒgereien. Dazu gehören Cyber-Angreifer imitieren vertrauenswĂŒrdige Organisationen wie Banken oder Regierungsbehörden.

Phishing-BetrĂŒgereien erfolgen in der Regel ĂŒber E-Mails und Textnachrichten. Wenn Sie auf den Link klicken, gelangt Schadsoftware in das Computersystem. Sobald der Virus einmal eingedrungen ist, kann er alles tun, vom Diebstahl persönlicher Daten bis zur Erpressung eines Lösegelds durch das System.

Die Zahl der Phishing-Angriffe hat wĂ€hrend und nach der COVID-19-Pandemie stetig zugenommen. Die Agentur fĂŒr Cybersicherheit und Infrastruktursicherheit fanden 84 % der Personen auf Phishing-Nachrichten mit vertraulichen Informationen geantwortet oder auf den Link geklickt hat.

Phisher nutzen KI-Chatbot-Technologie, um die Suche nach Opfern zu automatisieren und sie dazu zu verleiten, auf Links zu klicken und persönliche Daten preiszugeben. Chatbots werden von vielen Finanzinstituten – beispielsweise Banken – verwendet, um den Kundenservice zu optimieren.

Phisher mit Chatbots können dieselben automatisierten Eingabeaufforderungen nachahmen, mit denen Banken ihre Opfer tÀuschen. Sie können auch automatisch Telefonnummern wÀhlen oder Opfer direkt auf interaktiven Chat-Plattformen kontaktieren.

3. Datenvergiftung

Data Poisoning ist ein neu konzipierter Cyberangriff, der direkt auf kĂŒnstliche Intelligenz abzielt. Die KI-Technologie lernt aus DatensĂ€tzen und nutzt diese Informationen, um Aufgaben zu erledigen. Dies gilt fĂŒr alle KI-Programme, unabhĂ€ngig von ihrem Zweck oder ihren Funktionen.

FĂŒr Chatbot-KIs bedeutet dies, dass sie mehrere Antworten auf mögliche Fragen lernen, die Benutzer ihnen stellen können. Dies ist jedoch auch eine der Gefahren von KI.

Bei diesen DatensĂ€tzen handelt es sich hĂ€ufig um Open-Source-Tools und -Ressourcen, die jedem zur VerfĂŒgung stehen. Obwohl KI-Unternehmen ihre Datenquellen in der Regel streng geheim halten, können Cyber-Angreifer feststellen, welche sie verwenden, und die Daten manipulieren.

Cyber-Angreifer können Wege finden, dies zu tun Manipulation der DatensĂ€tze Wird zum Trainieren von KIs verwendet, damit diese ihre Entscheidungen und Reaktionen manipulieren können. Die KI nutzt die Informationen aus den verĂ€nderten Daten und fĂŒhrt die von den Angreifern gewĂŒnschten Aktionen aus.

Eine der am hĂ€ufigsten verwendeten Quellen fĂŒr DatensĂ€tze sind beispielsweise Wiki-Ressourcen wie Wikipedia. Obwohl die Daten nicht aus dem Live-Wikipedia-Artikel stammen, stammen sie aus SchnappschĂŒssen von Daten, die zu bestimmten Zeiten aufgenommen wurden. Hacker können einen Weg finden, die Daten zu ihrem Vorteil zu bearbeiten.

Im Fall von Chatbot-KIs können Hacker die DatensĂ€tze beschĂ€digen, die zum Trainieren von Chatbots verwendet werden, die fĂŒr medizinische oder Finanzinstitute arbeiten. Sie können Chatbot-Programme manipulieren, um Kunden falsche Informationen zu liefern, die sie dazu verleiten könnten, auf einen Link mit Malware oder eine betrĂŒgerische Website zu klicken. Sobald die KI beginnt, aus manipulierten Daten zu schöpfen, ist dies schwer zu erkennen und kann zu einer erheblichen Verletzung der Cybersicherheit fĂŒhren, die lange Zeit unbemerkt bleibt.

Wie man den Gefahren von KI-Chatbots begegnet

Diese Risiken sind besorgniserregend, bedeuten aber nicht, dass Bots grundsĂ€tzlich gefĂ€hrlich sind. Vielmehr sollten Sie vorsichtig an sie herangehen und diese Gefahren beim Aufbau und Einsatz von Chatbots berĂŒcksichtigen.

Der SchlĂŒssel zur Vermeidung von KI-Voreingenommenheit besteht darin, wĂ€hrend des gesamten Trainings danach zu suchen. Trainieren Sie es unbedingt anhand verschiedener DatensĂ€tze und programmieren Sie es gezielt, um Faktoren wie Rasse, Geschlecht oder sexuelle Orientierung nicht in seine Entscheidungsfindung einzubeziehen. Am besten ist es auch, ein vielfĂ€ltiges Team von Datenwissenschaftlern zu haben, die das Innenleben von Chatbots ĂŒberprĂŒfen und sicherstellen, dass sie keine Vorurteile aufweisen, wie subtil sie auch sein mögen.

Der beste Schutz vor Phishing ist Schulung. Schulen Sie alle Mitarbeiter im Erkennen HĂ€ufige Anzeichen fĂŒr Phishing-Versuche damit sie nicht auf diese Angriffe hereinfallen. Auch die Sensibilisierung der Verbraucher fĂŒr das Thema wird hilfreich sein.

Sie können Datenvergiftung verhindern, indem Sie den Zugriff auf die Trainingsdaten von Chatbots beschrĂ€nken. Nur Personen, die Zugriff auf diese Daten benötigen, um ihre Arbeit ordnungsgemĂ€ĂŸ ausfĂŒhren zu können, sollten eine Berechtigung haben – ein Konzept, das als Prinzip der geringsten Privilegien bezeichnet wird. Nutzen Sie nach der Umsetzung dieser EinschrĂ€nkungen starke Verifizierungsmaßnahmen wie Multi-Faktor-Authentifizierung oder Biometrie, um das Risiko zu verhindern, dass Cyberkriminelle in ein autorisiertes Konto eindringen.

Bleiben Sie wachsam gegenĂŒber den Gefahren der AbhĂ€ngigkeit von KI

KĂŒnstliche Intelligenz ist eine wirklich wundersame Technologie mit nahezu endlosen Anwendungsmöglichkeiten. Die Gefahren der KI könnten jedoch unklar sein. Sind Bots gefĂ€hrlich? Nicht von Natur aus, aber Cyberkriminelle können sie auf verschiedene, störende Weise nutzen. Es liegt an den Benutzern, zu entscheiden, welche Anwendungen diese neu entdeckte Technologie bietet.