Vordenker
Die Besorgnis über mögliche Risiken von ChatGPT nimmt zu, aber ist eine Pause bei der KI ein guter Schachzug?

Während Elon Musk und andere globale Technologieführer eine forderten Pause in der KI Nach der Veröffentlichung von ChatGPT glauben einige Kritiker, dass ein Entwicklungsstopp nicht die Lösung sei. Der KI-Evangelist Andrew Pery vom intelligenten Automatisierungsunternehmen ABBYY glaubt, dass eine Pause so ist, als würde man die Zahnpasta zurück in die Tube stecken. Hier erklärt er uns, warum…
KI-Anwendungen sind allgegenwärtig und beeinflussen praktisch jeden Aspekt unseres Lebens. Das ist zwar lobenswert, aber jetzt auf die Bremse zu treten, könnte unglaubwürdig sein.
Es gibt durchaus spürbare Bedenken, die eine stärkere Regulierungsaufsicht fordern, um die potenziell schädlichen Auswirkungen einzudämmen.
Erst kürzlich hat die italienische Datenschutzbehörde die Verwendung von ChatGPT landesweit vorübergehend blockiert, da Datenschutzbedenken im Zusammenhang mit der Art und Weise der Erhebung und Verarbeitung personenbezogener Daten, die zum Trainieren des Modells verwendet werden, sowie ein offensichtlicher Mangel an Sicherheitsvorkehrungen bestehen, wodurch Kinder „absolut“ Antworten ausgesetzt sind unangemessen für ihr Alter und Bewusstsein.“
Die Europäische Verbraucherorganisation (BEUC) fordert die EU dringend auf, mögliche schädliche Auswirkungen groß angelegter Sprachmodelle zu untersuchen, da „die Besorgnis wächst, dass ChatGPT und ähnliche Chatbots Menschen täuschen und manipulieren könnten.“ Diese KI-Systeme bedürfen einer stärkeren öffentlichen Kontrolle, und die Behörden müssen die Kontrolle über sie wiedererlangen.“
In den USA, die Zentrum für KI und digitale Politik hat bei der Federal Trade Commission eine Beschwerde eingereicht, dass ChatGPT gegen Abschnitt 5 des Federal Trade Commission Act (FTC Act) (15 USC 45) verstößt. Grundlage der Beschwerde ist, dass ChatGPT angeblich die Anforderungen nicht erfüllt Tipps und Tricks, von der FTC für Transparenz und Erklärbarkeit von KI-Systemen festgelegt. Es wurde auf die Danksagungen von ChatGPT zu mehreren bekannten Informationen verwiesen Risiken Dazu gehören die Beeinträchtigung von Datenschutzrechten, die Generierung schädlicher Inhalte und die Verbreitung von Desinformation.
Die Nützlichkeit groß angelegter Sprachmodelle wie ChatGPT zeigt ungeachtet der Forschung ihr Potenzial dunkle Seite. Es führt nachweislich zu falschen Antworten, da das zugrunde liegende ChatGPT-Modell auf Deep-Learning-Algorithmen basiert, die große Trainingsdatensätze aus dem Internet nutzen. Im Gegensatz zu anderen Chatbots verwendet ChatGPT Sprachmodelle, die auf Deep-Learning-Techniken basieren, die Texte generieren, die menschlichen Gesprächen ähneln, und die Plattform „kommt zu einer Antwort, indem sie eine Reihe von Vermutungen anstellt, was einer der Gründe dafür ist, dass sie falsche Antworten so argumentieren kann, als ob sie es wären.“ waren völlig wahr.“
Darüber hinaus verstärkt und verstärkt ChatGPT nachweislich Voreingenommenheit, was zu „Antworten führt, die Geschlecht, Rasse und Minderheitengruppen diskriminieren, was das Unternehmen abzumildern versucht“. ChatGPT kann auch eine Goldgrube für ruchlose Akteure sein, um ahnungslose Benutzer auszunutzen und sie zu kompromittieren Datenschutz und sie auszusetzen Betrugsangriffe.
Diese Bedenken veranlassten das Europäische Parlament, einen zu veröffentlichen Kommentar Dies unterstreicht die Notwendigkeit, die aktuellen Bestimmungen des Entwurfs weiter zu stärken EU-Gesetz über künstliche Intelligenz, (AIA), dessen Ratifizierung noch aussteht. Der Kommentar weist darauf hin, dass sich der aktuelle Entwurf des Verordnungsvorschlags auf sogenannte enge KI-Anwendungen konzentriert, die aus bestimmten Kategorien von KI-Systemen mit hohem Risiko bestehen, wie z. B. Einstellung, Kreditwürdigkeit, Beschäftigung, Strafverfolgung und Berechtigung für soziale Dienste. Allerdings deckt der EU-Entwurf der AIA-Verordnung keine Allzweck-KI ab, etwa große Sprachmodelle, die fortgeschrittenere kognitive Fähigkeiten bieten und „ein breites Spektrum intelligenter Aufgaben ausführen“ können. Es gibt Forderungen, den Geltungsbereich des Verordnungsentwurfs auf eine separate, risikoreiche Kategorie von Allzweck-KI-Systemen auszudehnen, wobei Entwickler verpflichtet werden, strenge Ex-ante-Konformitätstests durchzuführen, bevor sie solche Systeme auf den Markt bringen, und ihre Leistung kontinuierlich zu überwachen potenziell unerwartete schädliche Ergebnisse.
Ein besonders hilfreiches Stück Forschungsprojekte macht auf diese Lücke aufmerksam, dass die EU-AIA-Verordnung „in erster Linie auf konventionelle KI-Modelle ausgerichtet ist und nicht auf die neue Generation, deren Geburt wir heute erleben.“
Es empfiehlt vier Strategien, die Regulierungsbehörden berücksichtigen sollten.
- Fordern Sie Entwickler solcher Systeme auf, regelmäßig über die Wirksamkeit ihrer Risikomanagementprozesse zu berichten, um schädliche Ergebnisse zu mindern.
- Unternehmen, die groß angelegte Sprachmodelle verwenden, sollten verpflichtet sein, ihren Kunden gegenüber offenzulegen, dass die Inhalte KI-generiert wurden.
- Entwickler sollten sich als Teil eines Risikomanagementrahmens an einen formellen Prozess mit gestaffelten Veröffentlichungen halten, der Schutz vor potenziell unvorhergesehenen schädlichen Folgen bieten soll.
- Überlassen Sie es den Entwicklern, „das Risiko an der Wurzel zu mindern“, indem Sie „den Trainingsdatensatz proaktiv auf Falschdarstellungen prüfen“.
Ein Faktor, der die mit disruptiven Technologien verbundenen Risiken fortbesteht, ist das Bestreben von Innovatoren, durch die Einführung eines Geschäftsmodells „Zuerst versenden und später reparieren“ einen First-Mover-Vorteil zu erzielen. Während OpenAI etwas ist transparente Was die potenziellen Risiken von ChatGPT angeht, haben sie es für eine breite kommerzielle Nutzung freigegeben, mit der „Käufer aufgepasst“-Verpflichtung der Benutzer, die Risiken selbst abzuwägen und zu übernehmen. Angesichts der allgegenwärtigen Auswirkungen von Konversations-KI-Systemen könnte dies ein unhaltbarer Ansatz sein. Beim Umgang mit einer solch disruptiven Technologie müssen proaktive Regulierung und strenge Durchsetzungsmaßnahmen von größter Bedeutung sein.
Künstliche Intelligenz durchdringt bereits fast jeden Bereich unseres Lebens, sodass eine Pause bei der KI-Entwicklung eine Vielzahl unvorhergesehener Hindernisse und Konsequenzen mit sich bringen könnte. Anstatt plötzlich die Bremsen zu betätigen, sollten Industrie und Gesetzgebungsakteure in gutem Glauben zusammenarbeiten, um umsetzbare Vorschriften zu erlassen, die auf menschenzentrierten Werten wie Transparenz, Rechenschaftspflicht und Fairness basieren. Durch die Bezugnahme auf bestehende Gesetze wie das AIA können Führungskräfte im privaten und öffentlichen Sektor gründliche, weltweit standardisierte Richtlinien entwerfen, die schändliche Nutzungen verhindern und negative Folgen abmildern und so die künstliche Intelligenz im Rahmen der Verbesserung menschlicher Erfahrungen halten.