Connect with us

Vordenker

Wie Menschen den Wettlauf um künstliche Intelligenz navigieren können

mm

KI-Tools werden von vielen als Segen für die Forschung angesehen, von Arbeitsprojekten bis hin zu Schulprojekten und Wissenschaft. Zum Beispiel können Sie anstelle von stundenlangem, mühevollen Durchforsten von Websites einfach ChatGPT eine Frage stellen, und es wird eine scheinbar plausible Antwort liefern. Die Frage ist jedoch – können Sie diesen Ergebnissen vertrauen? Erfahrungen zeigen, dass die Antwort oft „nein“ ist. KI funktioniert nur gut, wenn Menschen mehr involviert sind, sie dirigieren und beaufsichtigen, und dann die Ergebnisse, die sie produziert, gegen die reale Welt überprüfen. Aber mit dem schnellen Wachstum des generativen KI-Sektors und der ständigen Veröffentlichung neuer Tools kann es für Verbraucher schwierig sein, die Rolle zu verstehen und zu akzeptieren, die sie spielen müssen, wenn sie mit KI-Tools arbeiten.

Der KI-Sektor ist riesig und wird nur noch größer, mit Experten, die behaupten, dass er bis 2030 über eine Billion Dollar wert sein wird. Es sollte daher keine Überraschung sein, dass fast jedes große Technologieunternehmen – von Apple bis Amazon, IBM und Microsoft und viele andere – seine eigene Version von KI-Technologie veröffentlicht, insbesondere fortschrittliche generative KI-Produkte.

Angesichts dieser Einsätze sollte es auch keine Überraschung sein, dass Unternehmen so schnell wie möglich arbeiten, um neue Funktionen zu veröffentlichen, die ihnen einen Vorteil gegenüber der Konkurrenz verschaffen. Es ist tatsächlich ein Wettlauf, bei dem Unternehmen versuchen, so viele Benutzer wie möglich in ihr Ökosystem zu binden. Unternehmen hoffen, dass Funktionen, die es Benutzern ermöglichen, KI-Systeme auf die einfachste Weise zu nutzen – wie zum Beispiel, alle Informationen für ein Forschungsprojekt zu erhalten, indem man einfach einem generativen KI-Chatbot eine Frage stellt – ihnen mehr Kunden einbringen, die beim Produkt oder der Marke bleiben, wenn neue Funktionen regelmäßig hinzugefügt werden.

Aber manchmal veröffentlichen Unternehmen in ihrem Wettlauf, um als Erste zu sein, Funktionen, die möglicherweise nicht ordnungsgemäß geprüft wurden oder deren Grenzen nicht gut verstanden oder definiert sind. Während Unternehmen in der Vergangenheit um Marktanteile bei vielen Technologien und Anwendungen konkurriert haben, scheint der aktuelle Wettlauf dazu zu führen, dass mehr Unternehmen mehr „halbfertige“ Produkte veröffentlichen als je zuvor – mit den entsprechend halbfertigen Ergebnissen. Die Verwendung solcher Ergebnisse für Forschungszwecke – sei es in der Wirtschaft, persönlich, medizinisch, akademisch oder anderen Bereichen – könnte zu unerwünschten Ergebnissen führen, einschließlich Reputationsschäden, Geschäftsverlusten oder sogar Lebensgefahr.

KI-Pannen haben bereits erhebliche Verluste für mehrere Unternehmen verursacht. Ein Unternehmen namens iTutor wurde 2023 mit einer Strafe von 365.000 Dollar belegt, nachdem sein KI-Algorithmus Dutzende von Jobbewerbern aufgrund ihres Alters abgelehnt hatte. Der Immobilienmarkt Zillow verlor 2021 Hunderte von Millionen Dollar, weil sein KI-System falsche Preisschätzungen abgegeben hatte. Auch Benutzer, die auf KI für medizinische Ratschläge vertraut haben, waren gefährdet. Chat GPT beispielsweise hat Benutzern ungenaue Informationen über die Wechselwirkung zwischen dem blutdrucksenkenden Medikament Verapamil und Paxlovid, Pfizers Antiviralpillen gegen Covid-19, und ob ein Patient diese Medikamente gleichzeitig einnehmen kann, bereitgestellt. Diejenigen, die auf die falschen Ratschläge des Systems vertrauen, dass es keine Wechselwirkung zwischen den beiden Medikamenten gibt, könnten sich selbst gefährden.

Während diese Vorfälle Schlagzeilen machten, gibt es viele andere KI-Pannen, die nicht bekannt werden – aber sie können genauso tödlich für Karrieren und Reputationsverluste sein. Zum Beispiel könnte ein gestresster Marketing-Manager, der nach einem Shortcut sucht, um Berichte zu erstellen, versucht sein, ein KI-Tool zu verwenden, um es zu generieren – und wenn dieses Tool falsche Informationen liefert, könnte er sich selbst arbeitslos machen. Ein Student, der ChatGPT verwendet, um einen Bericht zu schreiben – und dessen Professor clever genug ist, um die Quelle dieses Berichts zu erkennen – könnte mit einem F konfrontiert werden, möglicherweise für das gesamte Semester. Und ein Anwalt, dessen Assistent KI-Tools für juristische Arbeiten verwendet, könnte mit Geldstrafen oder sogar mit dem Entzug der Zulassung rechnen, wenn der Fall, den er vorbringt, aufgrund schlechter Daten verzerrt ist.

Fast alle diese Situationen können verhindert werden – wenn Menschen die KI dirigieren und mehr Transparenz in die Forschungsschleife haben. KI muss als Partnerschaft zwischen Mensch und Maschine gesehen werden. Es ist eine wahre Zusammenarbeit – und das ist ihr herausragender Wert.

Während leistungsfähigere Such-, Formatierungs- und Analysefunktionen willkommen sind, müssen auch die Hersteller von KI-Produkten Mechanismen einbauen, die diese Zusammenarbeit ermöglichen. Systeme müssen Faktenprüfungstools enthalten, die es Benutzern ermöglichen, die Ergebnisse von Tools wie ChatGPT zu überprüfen, und es Benutzern ermöglichen, die ursprünglichen Quellen spezifischer Datenpunkte oder Informationen zu sehen. Dies wird nicht nur bessere Forschung produzieren, sondern auch das Vertrauen in uns selbst wiederherstellen; wir können einen Bericht einreichen oder eine Politik empfehlen, mit der Sicherheit, dass die Fakten, auf denen wir uns verlassen, vertrauenswürdig und verständlich sind.

Benutzer müssen auch erkennen und abwägen, was auf dem Spiel steht, wenn sie auf KI vertrauen, um Forschung zu betreiben. Sie sollten den Grad der Mühsal mit der Wichtigkeit des Ergebnisses abwägen. Zum Beispiel können Menschen wahrscheinlich weniger involviert sein, wenn sie KI für einen Vergleich von lokalen Restaurants verwenden. Aber wenn sie Forschung betreiben, die wichtige Geschäftsentscheidungen oder die Konstruktion von Flugzeugen oder medizinischer Ausrüstung beeinflussen wird, müssen Benutzer an jedem Schritt des KI-gesteuerten Forschungsprozesses mehr involviert sein. Je wichtiger die Entscheidung ist, desto wichtiger ist es, dass Menschen daran beteiligt sind. Forschung für relativ kleine Entscheidungen kann wahrscheinlich vollständig der KI anvertraut werden.

KI wird ständig besser – sogar ohne menschliche Hilfe. Es ist möglich, wenn nicht wahrscheinlich, dass KI-Tools, die in der Lage sind, sich selbst zu überprüfen, entstehen, ihre Ergebnisse gegen die reale Welt überprüfen, genauso wie ein Mensch – entweder die Welt zu einem besseren Ort machen oder sie zu zerstören. Aber KI-Tools werden möglicherweise nicht so schnell dieses Level erreichen, wie viele glauben, wenn überhaupt. Das bedeutet, dass der menschliche Faktor bei jedem Forschungsprojekt immer noch unerlässlich sein wird. So gut KI-Tools auch darin sind, Daten zu entdecken und Informationen zu organisieren, sie können nicht vertraut werden, um Kontext zu bewerten und diese Informationen auf die Weise zu verwenden, wie wir als Menschen benötigen. Für die absehbare Zukunft ist es wichtig, dass Forscher KI-Tools für das sehen, was sie sind: Tools, um die Arbeit zu erledigen, anstatt Menschen und menschliche Gehirne auf der Arbeit zu ersetzen.

Roee Barak ist der Gründer und CEO von Upword. Er studierte Recht und Betriebswirtschaft an der Reichmann University und verbrachte ein Jahrzehnt in verschiedenen Rollen im israelischen Tech-Sektor, bevor er Upword gründete.