Vernetzen Sie sich mit uns

Vordenker

Drei Möglichkeiten, eine „emotionale Infrastruktur“ in GenAI-Produkten aufzubauen und das Vertrauen der Verbraucher zu gewinnen

mm

In einem Gespräch mit einem potenziellen Investor wurde ich kürzlich gefragt, ob ich das effektivste Geheimnis für Skalierung kenne. Für mich war die Antwort klar: Es sind Emotionen. Der Investor jedoch spottete. Wie so viele in der Tech-Welt glaubte er, Logik sei skalierbar, Emotionen jedoch nicht. 

Obwohl wir eine Weile stritten, konnte ich ihn nicht umstimmen (und auch nicht seine Investition gewinnen). Aber ich habe über ein Jahrzehnt im Sportmarketing gearbeitet – Sie werden mich nie davon überzeugen, dass Logik Stadien mit hysterischen Fans füllt. Das ist alles Emotion. 

Manche mögen zwar einwenden, dass der Vergleich von Technologie und Sport wie ein Vergleich von Äpfeln mit Birnen sei, aber ich würde sagen, die Technologiebranche könnte sich einiges von der Sportbranche abschauen. Denn wenn es um so viele Technologieprodukte geht, nicht Die Berücksichtigung menschlicher Emotionen wirkt sich negativ auf uns aus. Diese kurzsichtige Perspektive hat in der Vergangenheit zu den schlimmsten Aspekten der sozialen Medien geführt und ist derzeit der Auslöser für die meisten schädliche Schlagzeilen bezüglich generativer KI heute.

Wenn Technologieunternehmer das Vertrauen der Verbraucher in die Versprechen und das Potenzial der KI gewinnen wollen, müssen wir Produkte entwickeln, die auf einer, wie ich es nenne, „emotionalen Infrastruktur“ basieren. Und so geht‘s: 

Nutzen Sie den Speicher zur Unterstützung, nicht zur Ausbeutung

Die umfangreichen Funktionen, die KI-Agenten versprechen, werden durch verbesserte Speicherkapazitäten ermöglicht – das bedeutet aber auch, dass mehr persönliche Daten gespeichert werden müssen. Leider wurden Benutzerdaten in der Vergangenheit weitgehend dazu genutzt, Benutzer zu manipulieren, Geld ausgeben

Der Aufbau einer KI mit emotionaler Infrastruktur würde jedoch stattdessen das Gedächtnis der Benutzerdaten nutzen, um Wissenslücken zu schließen, die dem Benutzer möglicherweise nicht bewusst sind.

Wenn ein Benutzer beispielsweise einen KI-Agenten fragt, welche Strände in der Nähe hundefreundlich sind, geben die meisten Agenten derzeit eine Liste mit Stränden zurück und fragen vielleicht, ob der Benutzer auch an einer Liste mit haustierfreundlichen Restaurants in der Nähe interessiert wäre. 

Ein Agent mit emotionaler Infrastruktur verfügt jedoch über eine zusätzliche Ebene emotionaler Intelligenz. In diesem Fall würde er sich daran erinnern, dass der Impftermin des Hundes am Vortag war, und den Benutzer darauf hinweisen, dass ein zu frühes Eintauchen des Hundes ins Wasser zu Infektionen, Erschöpfung oder unerwarteten Nebenwirkungen führen kann.

Auf diese Weise würden sich KI-Agenten eher wie vertrauenswürdige Berater verhalten, die bereit sind, Widerstand zu leisten, wenn das bloße Befolgen von Anweisungen zu suboptimalen Ergebnissen führen könnte. Dies würde auch das Vertrauen der Nutzer stärken und zu einer verstärkten Nutzung führen. 

Steigern Sie Ihren Umsatz durch Vertrauen, nicht durch gezieltes Targeting

Frühe Anwender von genAI haben bereits seit Jahren kostenlosen Zugang zu den größten Marktteilnehmern. Dies könnte Gründer von B2C-KI-Startups zu der Annahme verleiten, der einzige Weg zur Profitabilität sei ein kostenloses Produkt, das durch den Verkauf von Daten an Drittanbieter oder über Anzeigen Geld verdient. 

Doch ein solches Geschäftsmodell könnte das ohnehin schon prekäre Verbrauchervertrauen gefährden, wenn die Nutzer nicht mit deutlich mehr Respekt, Sorgfalt und Verantwortung behandelt werden. Nehmen wir zum Beispiel die jüngste Geschichte der App von Meta AI, in der Nutzer scheinbar unbeabsichtigt Posten sehr persönlicher Anfragen auf einen öffentlichen Feed. 

Nicht alle Produkte verfügen über soziale Elemente, aber dieses Beispiel veranschaulicht, wie viele persönliche Informationen Nutzer bereit sind, mit KI-Agenten zu teilen. Und wenn man bedenkt, Forschung zeigt, dass Chatbots menschliche Gegenstücke besser überzeugen können, wenn sie mit persönlichen Daten ausgestattet sind, könnte Werbung innerhalb dieser Plattformen auf ethisch fragwürdige Weise erfolgen – wie beispielsweise Konten von Meta, die Werbung für Schönheitsprodukte nachdem jugendliche Benutzer Selfies gelöscht hatten. 

Stattdessen würde eine emotionale Infrastruktur die Aufmerksamkeit gegenüber Klicks optimieren. Und das muss nicht auf Kosten der Einnahmen gehen. 

KI könnte diese Erfahrungen noch effektiver machen, indem sie einzige Bereitstellung von Anzeigen, die die tatsächlichen Bedürfnisse der Benutzer authentisch erfüllen: ein Regenmantel, wenn schlechtes Wetter im Anmarsch ist, eine erschwingliche Haustierversicherung für ein neues Kätzchen, Vitamin-C-Präparate bei den ersten Anzeichen einer Erkältung. 

Doch echte Fürsorge bedeutet nicht nur präzises Targeting – ähnlich wie im Strandbeispiel oben füllt sie Lücken, die den Nutzern oft nicht auffallen. Ein Gesundheitstracker für Haustiere kann beispielsweise darauf hinweisen, dass die jeweilige Rasse anfällig für Vitamin-B12-Mangel ist, und ihnen deshalb eine Futtermarke empfehlen, die den Bedarf des Hundes besser deckt. Gerade das Aufdecken solcher übersehener Details ist der Bereich, in dem KI ihre Stärken voll ausspielen und den Endnutzern einen echten Mehrwert bieten kann. 

Über uns die Hälfte der weltweiten Verbraucher sind bereit, persönliche Daten zu teilen, wenn dies zu einem besseren Nutzererlebnis führt. Auf dem US-Markt sank dieser Anteil jedoch auf nur 15 %. KI-Unternehmer haben eine echte Chance, diese Wahrnehmung durch emotional intelligentes Design zu ändern. 

Entwerfen Sie emotionale Leitplanken, die den Menschen in den Mittelpunkt stellen

Der wichtigste Aspekt der emotionalen Infrastruktur ist der Aufbau von Schutzmechanismen, die die Interessen der Nutzer schützen. Dazu gehört die sorgfältige Auswahl der Inhalte, die KI-generiert werden können, die eindeutige Kennzeichnung von KI-generiertem Material und die Entwicklung klarer Interventionen, wenn Nutzer emotional riskantes Terrain betreten. 

Als wir zum Beispiel eine App zur Tierpflege entwickelten, beschlossen mein Team und ich, nicht Für alle gesundheits- oder ernährungsbezogenen Inhalte nutzen wir KI. Das Risiko von Halluzinationen oder Fehlinformationen war zu groß, daher entschieden wir uns, einen professionellen Tierarzt mit dem Schreiben und Kuratieren dieser Artikel zu beauftragen. Natürlich war das eine teurere Entscheidung, aber wenn buchstäblich Menschenleben auf dem Spiel stehen, ist es eine lohnende Investition. 

Es verleiht unserem Produkt nicht nur Glaubwürdigkeit, sondern schützt auch unsere Nutzer und ihre Haustiere. Es ist auch das, was die Verbraucher wollen – 79% stimmen zu dass Unternehmen den Einsatz von KI offenlegen sollten. 

Schließlich liegt es im Interesse von KI-Unternehmen, ihre Produkte so zu gestalten, dass ihre Grenzen klar kommuniziert werden und die Nutzer gegebenenfalls auf menschliche Eingriffe hingewiesen werden. Es gibt bereits Berichte über emotional verletzliche Nutzer, die sich aufgrund fehlender Sicherheitsvorkehrungen in Chatbots selbst verletzen oder Selbstmord begehen, und verständlicherweise haben diese führte zu Klagen

Obwohl ich glaube, dass KI eine rosige Zukunft in unserem Leben hat, müssen wir uns ihre aktuellen Schwächen offen zugestehen und dürfen nicht zulassen, dass Geschwindigkeits- und Wettbewerbsdruck Vorrang vor der Sicherheit haben. Andernfalls verlieren wir das Vertrauen der Verbraucher, denen wir angeblich dienen wollen. Diese Verantwortung zu ignorieren, schadet dem gesamten Ökosystem.