Vernetzen Sie sich mit uns

Vordenker

Es geht nicht darum, was KI für uns tun kann, sondern was wir für KI tun können

mm

Die meisten betrachten Künstliche Intelligenz (KI) durch eine einseitige Linse. Die Technologie existiert nur, um Menschen zu dienen und ein neues Maß an Effizienz, Genauigkeit und Produktivität zu erreichen. Doch was, wenn wir die Hälfte der Gleichung übersehen? Und was, wenn wir dadurch nur die Schwächen der Technologie verstärken?

KI steckt noch in den Kinderschuhen und stößt noch immer auf erhebliche Einschränkungen in Bezug auf logisches Denken, Datenqualität und das Verständnis von Konzepten wie Vertrauen, Wert und Anreizen. Die Kluft zwischen aktuellen Fähigkeiten und echter „Intelligenz“ ist beträchtlich. Die gute Nachricht? Wir können dies ändern, indem wir aktiv mitarbeiten, anstatt nur passive Konsumenten von KI zu sein.

Der Mensch ist der Schlüssel zur intelligenten Evolution, indem er bessere Denkstrukturen bereitstellt, qualitativ hochwertige Daten liefert und Vertrauenslücken schließt. Dadurch können Mensch und Maschine Seite an Seite arbeiten und beide Seiten profitieren – eine bessere Zusammenarbeit führt zu besseren Daten und besseren Ergebnissen.

Lassen Sie uns darüber nachdenken, wie eine symbiotischere Beziehung aussehen könnte und wie eine sinnvolle Zusammenarbeit als Partner beiden Seiten der KI-Gleichung zugute kommen kann.

Die erforderliche Beziehung zwischen Mensch und Maschine

KI eignet sich zweifellos hervorragend für die Analyse riesiger Datensätze und die Automatisierung komplexer Aufgaben. Allerdings ist die Technologie in ihrer Denkfähigkeit uns gegenüber grundsätzlich eingeschränkt. Erstens fällt es diesen Modellen und Plattformen schwer, über ihre Trainingsdaten hinaus zu schlussfolgern. Mustererkennung und statistische Vorhersagen stellen kein Problem dar, doch die kontextuellen Urteile und logischen Strukturen, die wir als selbstverständlich voraussetzen, sind schwieriger zu replizieren. Diese Denklücke führt dazu, dass KI bei differenzierten Szenarien oder ethischen Urteilen oft ins Straucheln gerät.

Zweitens gibt es die „Garbage in, Garbage out“-Datenqualität. Aktuelle Modelle werden mit riesigen Datenmengen trainiert, mit und ohne Zustimmung. Ungeprüfte oder verzerrte Informationen werden ohne Rücksicht auf die korrekte Zuordnung oder Autorisierung verwendet, was zu ungeprüfte oder voreingenommene KI. Das "DatendiätDie Modellierung ist daher bestenfalls fragwürdig und schlimmstenfalls ungenau. Es ist hilfreich, diese Auswirkungen aus ernährungswissenschaftlicher Sicht zu betrachten. Wenn Menschen nur Junkfood essen, sind sie langsam und träge. Wenn Akteure nur urheberrechtlich geschütztes und gebrauchtes Material konsumieren, wird ihre Leistung ähnlich beeinträchtigt, da die Ergebnisse ungenau, unzuverlässig und eher allgemein als spezifisch sind. Das ist noch weit entfernt die autonome und proaktive Entscheidungsfindung, die in der kommenden Agentenwelle versprochen wird.

Kritisch ist, dass KI immer noch nicht erkennt, mit wem und was sie interagiert. Sie kann nicht zwischen gleichgesinnten und nicht gleichgesinnten Nutzern unterscheiden, hat Schwierigkeiten, Beziehungen zu verifizieren und versteht Konzepte wie Vertrauen, Werteaustausch und Stakeholder-Anreize nicht – Kernelemente menschlicher Interaktionen.

KI-Probleme mit menschlichen Lösungen

Wir müssen über KI-Plattformen, Tools und Agenten nachdenken weniger als Diener Und mehr noch als Assistenten, die wir trainieren können. Betrachten wir zunächst das logische Denken. Wir können neue logische Strukturen, ethische Richtlinien und strategisches Denken einführen, die KI-Systeme nicht allein entwickeln können. Durch gezielte Anregungen und sorgfältige Überwachung können wir die statistischen Stärken der KI mit menschlicher Weisheit ergänzen – indem wir ihnen beibringen, Muster zu erkennen und die Kontexte zu verstehen, die diese Muster bedeutsam machen.

Anstatt die KI mit beliebigen Informationen aus dem Internet trainieren zu lassen, können Menschen qualitativ hochwertigere Datensätze kuratieren, die verifiziert, vielfältig und aus ethischen Quellen stammen.

Dies bedeutet, dass bessere Zuordnungssysteme entwickelt werden müssen, in denen die Ersteller von Inhalten für ihre Beiträge zur Schulung anerkannt und entschädigt werden.

Neue Rahmenbedingungen machen dies möglich. Durch Online-Identitäten unter einem Banner vereinen Nutzer können Modelle mit Zero-Party-Informationen ausstatten, die Datenschutz, Einwilligungen und Vorschriften respektieren und entscheiden, ob und was sie teilen möchten. Durch die Verfolgung dieser Informationen in der Blockchain können Nutzer und Modellbauer zudem nachvollziehen, woher die Informationen stammen, und die Entwickler für die Bereitstellung angemessen entschädigen.neues Öl.“ Auf diese Weise danken wir den Nutzern für ihre Daten und beziehen sie in die Informationsrevolution ein.

Um die Vertrauenslücke zu schließen, müssen Modelle mit menschlichen Werten und Einstellungen ausgestattet werden. Dies erfordert die Entwicklung von Mechanismen, die Stakeholder erkennen, Beziehungen überprüfen und zwischen gleichgesinnten und nicht gleichgesinnten Nutzern unterscheiden. Dadurch helfen wir der KI, ihren operativen Kontext zu verstehen – wer von ihren Aktionen profitiert, was zu ihrer Entwicklung beiträgt und wie der Wertfluss durch die Systeme erfolgt, an denen sie beteiligt ist.

Agenten, die auf einer Blockchain-Infrastruktur basieren, sind hier beispielsweise recht gut. Sie können Nutzer erkennen und priorisieren, die sich durch Reputation, sozialen Einfluss oder Token-Besitz nachweislich für das Ökosystem engagieren. Dies ermöglicht es KI, Anreize zu schaffen, indem sie Stakeholdern mit Eigeninteresse mehr Gewicht verleiht und Governance-Systeme schafft, in denen verifizierte Unterstützer je nach ihrem Engagement an Entscheidungen beteiligt sind. Dadurch versteht KI ihr Ökosystem besser und kann Entscheidungen auf der Grundlage echter Stakeholder-Beziehungen treffen.

Verlieren Sie den menschlichen Faktor in der KI nicht aus den Augen

Es wurde viel über den Aufstieg dieser Technologie und ihre Gefahr gesprochen, Branchen zu revolutionieren und Arbeitsplätze zu vernichten. Durch die Integration von Leitplanken kann jedoch sichergestellt werden, dass KI die menschliche Erfahrung ergänzt, anstatt sie zu ersetzen. Die erfolgreichsten KI-Implementierungen ersetzen beispielsweise nicht den Menschen, sondern erweitern das, was wir gemeinsam erreichen können. Wenn KI Routineanalysen übernimmt und Menschen kreative Leitung und ethische Aufsicht übernehmen, bringen beide Seiten ihre individuellen Stärken ein.

Richtig eingesetzt, verspricht KI, die Qualität und Effizienz unzähliger menschlicher Prozesse zu verbessern. Falsch eingesetzt, ist sie jedoch durch fragwürdige Datenquellen eingeschränkt und imitiert Intelligenz nur, anstatt sie tatsächlich zu zeigen. Es liegt an uns, der menschlichen Seite, diese Modelle intelligenter zu machen und sicherzustellen, dass unsere Werte, unser Urteilsvermögen und unsere Ethik im Mittelpunkt stehen.

Vertrauen ist unerlässlich, damit sich diese Technologie durchsetzt. Wenn Nutzer überprüfen können, wohin ihre Daten gehen, wie sie verwendet werden und an der Wertschöpfung teilhaben können, werden sie zu willigen Partnern statt zu widerstrebenden Subjekten. Ebenso gewinnen KI-Systeme an Vertrauen, wenn sie auf die Zusammenarbeit mit Stakeholdern und transparente Datenpipelines zurückgreifen können. Dadurch erhalten sie leichter Zugang zu unseren wichtigsten privaten und beruflichen Bereichen und schaffen so einen besseren Datenzugriff und bessere Ergebnisse.

Konzentrieren wir uns daher auf die nächste Phase der KI und die Vernetzung von Mensch und Maschine durch überprüfbare Beziehungen, hochwertige Datenquellen und präzise Systeme. Wir sollten nicht fragen, was KI für uns tun kann, sondern was wir für KI tun können.

Yukai Tu ist Chief Technology Officer bei CARV. Yukai ist Experte für vertrauliches Computing und Blockchain und hat einen Master in Informatik von der UCLA. Bei CARV hilft Yukai beim Aufbau CARV SVM-Kette und Das DATA-Framework von CARV, eine agentenbasierte Infrastruktur, die die Fähigkeiten von SVM auf Ethereum erweitert und KI-Agenten mit hochwertigen On-Chain- und Off-Chain-Daten ausstattet. Er arbeitete außerdem als Softwareentwickler bei Google und Coinbase, als Mitwirkender am Cosmos SDK und als Blockchain-Engineering-Leiter bei LINO.