Connect with us

Vordenker

KI und der Bogen des Vertrauens

mm

Anfang letzten Jahres, als unser Team Vorhersagen über das traf, was vor uns lag, war die Meinung einstimmig, dass die Hüllen von der künstlichen Intelligenz (KI) genommen würden. Wir würden endlich sehen, was sie konnte, und hoffentlich Klarheit über ihre Auswirkungen auf Unternehmen und Gesellschaft und wie man voranschreiten sollte, gewinnen. Es war keine neue Vorhersage, aber ihr Kern war genau, obwohl wir immer noch mit den Auswirkungen von KI und wie (oder ob) sie in irgendeiner Weise kontrolliert werden sollte, kämpfen.

Wir würden schließlich sehen, wie Apple, Microsoft und Google KI in Geräte integrieren und ihre Macht einem breiteren und größeren Publikum zugänglich machen. Dann wiederum bedrohte ein Chatbot in einem KI-gesteuerten Suchtool Benutzer und behauptete, es spioniere Mitarbeiter aus, während ein anderer vorschlug, Elmer’s Klebstoff in selbstgemachtem Pizza zu verwenden, um den Käse daran zu hindern, abzurutschen. Dennoch wuchs die Geschäftsanwendung von KI dramatisch und auch der Markt. Laut Daten von Crunchbase gingen fast ein Drittel aller globalen Venture-Finanzierungen im letzten Jahr an Unternehmen in KI-bezogenen Bereichen allein.

Aber selbst als OpenAI wirklich bemerkenswerte erweiterte Argumentation lieferte, drängte der renommierte KI-Forscher Yoshua Bengio auf die Annahme von Sicherheitsmaßnahmen für “Grenzmodelle” mit dem Potenzial, katastrophalen Schaden anzurichten. Und obwohl die Technologie zwei Nobelpreise für Anwendungen in der Wissenschaft mit nach Hause nehmen würde, äußerte einer der Preisträger Bedenken darüber, Systeme zu haben, “die intelligenter sind als wir und schließlich die Kontrolle übernehmen”.

In einem so rasanten Bereich ist es für Expertentechnologen schwierig, mitzuhalten, geschweige denn für die breite Masse.

Und diese KI-Ruckschläge – und Bedenken hinsichtlich Datenschutz und unkontrollierter Nutzung – haben nur die öffentliche Vorsicht erhöht.

Vertrau mich einfach

Wir befinden uns mittendrin auf einem Bogen des Vertrauens, einem, der das Vorankommen der öffentlichen Akzeptanz von KI erfordert, während sichergestellt wird, dass die Geschäfts- und Technologiegemeinschaften verantwortungsvoll handeln. Der erste Teil ist, wo das Spiel gerade gespielt wird, auf der Unternehmensebene, mit jedem sicheren und soliden Einsatz an Fahrt gewinnend. Wir bauen auf unseren Beweispunkten auf, die letztendlich zu erhöhtem öffentlichem Vertrauen führen werden. Der zweite Teil jedoch ist viel schwieriger.

Wer definiert und durchsetzt die verantwortungsvolle Nutzung von KI? Kann eine Branche Richtlinien erstellen, wenn sie selbst reguliert werden muss? Wenn Technologen Schwierigkeiten haben, KI zu verfolgen, werden Politiker informiert sein und ihre politischen Agenden aus dem Gespräch halten? Und wenn ein KI-Milliardär plötzlich über Kontrolle sprechen will, hatte er eine Erleuchtung oder versucht er nur, die Bremsen anzuziehen, um aufzuholen?

“Vertrau mir einfach” wird bei KI nicht ausreichen, egal wer du bist.

Vertraue, aber überprüfe

Die Leute schauen auf generative KI wie ChatGPT und fragen sich, ob es ihr nächstes Google sein wird? Nun, das Top-Ergebnis einer Google-Suche wird jetzt von seinem KI-Modell Gemini erstellt. Das Problem ist, dass man sich nicht auf es im Geschäftsmaßstab verlassen kann, wenn eine einfache Frage wie “Ist rohes Fleisch zum Verzehr sicher?” die Antwort “Ja, gefroren” liefert. Man muss die Daten überprüfen.

Der Bogen des öffentlichen Vertrauens wird dem ähneln, was er bei herkömmlicher Suche getan hat, das über die Zeit und mit Beweisen der Zuverlässigkeit gewonnen wurde. Ironischerweise haben wir in unserem Bemühen, die Suche zu vereinfachen und zu verbessern, einen Schritt zurück gemacht. Jetzt, nachdem man diese KI-generierte Antwort oben erhalten hat, muss man an einer langen Liste von Sponsorenlinks vorbeiscrollen, auf die nächsten fünf klicken und die Informationen immer noch qualifizieren.

Das ist viel Arbeit, wenn man nach einer schnellen Antwort sucht – und man kann nicht erwarten, dass ein ganzes Unternehmen das Gleiche tut. Wenn man jedoch die Daten, die man bereits abgebaut hat, mit Zehntausenden von eigenen Servicetickets anreichert, bringt man tatsächliches Wissen über die Umgebung ein. Algorithmisch kann man dann Halluzinationen herunterkonfigurieren, aber es bleibt eine “Vertraue, aber überprüfe”-Situation.

Halte Politik fern

Wenn es um die Regulierung von KI geht, posieren einige, dass das Pferd bereits aus dem Stall ist und wahrscheinlich nicht mehr gefangen werden kann. Zum Beispiel gibt es einen Mangel an wirklich effektiven Tools, um zu überprüfen, ob ein Schüler eine Arbeit verfasst oder GenAI verwendet hat. Die Technologie ist einfach zu weit fortgeschritten.

Die Regulierung davon wäre sehr komplex und, um ehrlich zu sein, würden wir auf dünnes Eis geraten. Wir wissen, dass Technologieunternehmen Jahrzehnte vor den vorgeschlagenen externen Regulierungsbehörden sind. Aber wir sind gut darin, einen Weg zu bahnen, anstatt zurückgehalten zu werden. Dennoch kann es am Ende auf die Innovatoren ankommen, Regulierungen zu versuchen. Wer sonst könnte es verantwortungsvoll tun?

Es gibt viele Politiker, die es gerne versuchen würden. Das Risiko, zusätzlich zu einem Mangel an Verständnis, besteht darin, dass sie eine persönliche und politische Agenda vorantreiben. Ihr Fokus wäre möglicherweise weniger auf die Förderung von KI und mehr auf das, was in ihrem besten politischen Interesse liegt. Sie könnten die öffentlichen Ängste ausnutzen und mit harter Hand den Fortschritt behindern.

Der CHIPS- und Wissenschaftsakt war ein gutes Beispiel für gesundes staatliches Handeln, das zu einer dramatischen 15-fachen Zunahme beim Bau von Fertigungsanlagen für Computer und elektronische Geräte führte. Aber dies wurde durch Bipartisanship ermöglicht – ein immer seltener werdendes Relikt einer vergangenen Ära.

Sind wir würdig?

Es fließt viel Geld in KI und in den nächsten zwei Jahrzehnten wird viel Geld von Technologieunternehmen gemacht werden. Wie viel, wie schnell und wie sicher bleibt abzuwarten. An jedem gegebenen Tag könnte ein Deep Fake zirkulieren, der jemanden im Rampenlicht zeigt, der die Eier eines gefährdeten Vogels jongliert. Die Öffentlichkeit würde in Horror reagieren und obwohl es möglicherweise als KI-generiert enthüllt wird, kann das Ei nicht zurück in die Schale gelegt werden – der Schaden ist angerichtet.

Wir benötigen solche Dinge, die von informierten Technologen reguliert werden. Welche Form das annimmt – ein Rat, eine Normenbehörde, ein internationales Rahmenwerk – bleibt abzuwarten. Was bekannt ist, ist, dass KI auf einem Bogen des Vertrauens ist und dass wir als Branche beweisen müssen, dass wir es würdig sind.

Eduardo Mota ist ein leitender Cloud-Datenarchitekt und ein AI/ML-Spezialist bei DoiT. Als erfahrener Cloud-Architekt und ML-Spezialist verfügt er über einen Bachelor of Business Administration und mehrere damit verbundene Zertifizierungen, die seine unermüdliche Verfolgung von Wissen demonstrieren. Eduardo's Reise umfasst wichtige Rollen bei DoiT und AWS, wo seine Expertise in AWS- und GCP-Cloud-Architektur und Optimierungsstrategien die betriebliche Effizienz und die Kosteneinsparungen für mehrere Organisationen erheblich beeinflusste.