Interviews
Michael Schrage, Autor von Recommendation Engines (The MIT Press) – Interview-Serie

Michael Schrage ist ein Research Fellow am MIT Sloan School of Management’s Initiative on the Digital Economy. Als gefragter Experte auf den Gebieten Innovation, Metriken und Netzwerkeffekte ist er der Autor von Who Do You Want Your Customers to Become?, The Innovator’s Hypothesis: How Cheap Experiments Are Worth More than Good Ideas (MIT Press) und anderen Büchern.
In diesem Interview diskutieren wir sein Buch “Recommendation Engines“, das die Geschichte, Technologie, Geschäft und soziale Auswirkungen von Online-Empfehlungsmaschinen erforscht.
Was hat Sie dazu inspiriert, ein Buch über so ein spezifisches Thema wie “Recommendation Engines” zu schreiben?
Die Formulierung Ihrer Frage gibt das Spiel preis….. Als ich mir die digitalen Technologien und Touchpoints ansah, die das Leben der Menschen auf der ganzen Welt wirklich beeinflussen, fand ich fast immer eine “Empfehlungsmaschine”, die Entscheidungen beeinflusst. Spotifys Empfehlungen bestimmen die Musik und Songs, die Menschen hören; TikToks Empfehlungsmaschinen definieren die “viralen Videos”, die Menschen zusammenstellen und teilen; Netflix’ Empfehlungen sind so konzipiert, dass sie “Binge-Watching” und “Binge-Watcher” ermöglichen; Google Maps und Waze empfehlen die besten und/oder schnellsten und/oder einfachsten Wege dorthin; Tinder und Match.com empfehlen, mit wem Sie zusammen sein könnten oder, Sie wissen schon, “sein” könnten; Stitch Fix empfiehlt, was Sie tragen könnten, um “Sie” zu sein; Amazon wird empfehlen, was Sie wirklich kaufen sollten; Academia und ResearchGate empfehlen die relevantesten Forschungsergebnisse, auf die Sie auf dem Laufenden sein sollten…. Ich könnte fortfahren – und tue dies im Buch – aber sowohl technisch als auch konzeptionell sind “Empfehlungsmaschinen” das Gegenteil von “eng”. Ihr Zweck und Ziel umfasst den gesamten Bereich menschlicher Wünsche und Entscheidungen.
Ein Zitat in Ihrem Buch lautet: “Empfehlungen sind nicht nur darüber, was wir kaufen könnten, sondern darüber, wer wir werden könnten”. Wie könnten Unternehmen oder böswillige Akteure dies missbrauchen?
Es gibt keinen Zweifel, dass Empfehlungen missbraucht werden können. Die “klassische” Frage – Cui bono? – “Wer profitiert?” – gilt. Sollen die Empfehlungen wirklich dem Empfänger oder der Einheit/Unternehmen, die die Empfehlung abgeben, zugute kommen? Genau wie es leicht ist, dass ein Kollege, Bekannter oder “Freund”, der Sie kennt, Ihnen einen Rat gibt, der nicht in Ihrem besten Interesse ist, ist es ein digitaler Schnappschuss für “datengetriebene” Empfehlungen, Ihnen etwas zu empfehlen, das “ihren” Gewinn auf Kosten “Ihrer” Nützlichkeit oder Zufriedenheit erhöht. Auf einer Ebene bin ich sehr besorgt über das Potenzial – und die Realität – des Missbrauchs. Auf der anderen Seite denke ich, dass die meisten Menschen ziemlich schnell erkennen, wenn sie von Menschen oder Technologie ausgenutzt oder manipuliert werden. Betrüge mich einmal, schäme dich; betrüge mich zweimal oder dreimal, schäme dich. Empfehlung ist eines dieser speziellen Bereiche, in denen es clever ist, ethisch zu sein und ethisch zu sein, um clever zu sein.
Sind Echo-Kammern, in denen Benutzer nur das sehen, was sie sehen wollen, unabhängig von der Genauigkeit, ein gesellschaftliches Problem?
Eli Pariser hat den hervorragenden Ausdruck “Filterblase” geprägt, um dieses Phänomen und diese Pathologie zu beschreiben. Ich stimme größtenteils seiner Perspektive zu. In Wahrheit denke ich, es ist jetzt fair zu sagen, dass “Bestätigungsfehler” – nicht Sex – das ist, was das meiste menschliche Verhalten antreibt. Die meisten Menschen suchen nach Zustimmung die meiste Zeit. Empfehlungen müssen einen vorsichtigen Kurs zwischen Neuheit, Vielfalt, Relevanz und Serendipität steuern, denn – während zu viel Bestätigung langweilig und redundant ist – zu viel Neuheit und Herausforderung ärgerlich und beleidigend sein kann. Ja, die Suche nach Bestätigung ist sowohl ein persönliches als auch ein soziales Problem. Das sagte, bieten Empfehlungen eine relativ unangenehme Möglichkeit, alternative Perspektiven und Optionen ins Bewusstsein der Menschen zu bringen. Ich frage mich jedoch, ob Regulierung und rechtliche Überprüfung die Empfehlungszukunft zunehmend definieren werden.
Filterblasen begrenzen derzeit die Exposition gegenüber widersprüchlichen, widersprechenden und/oder herausfordernden/Meinungen. Sollte es eine Art Regulierung geben, die diese Art von Über-Filterung behindert?
Ich bevorzuge eine leichte Regulierung gegenüber einer schwerfälligen. Die meisten Plattformen, die ich sehe, machen eine ziemlich schlechte Arbeit bei der Kennzeichnung von “Fake News” oder der Einrichtung von Qualitätskontrollen. Ich würde gerne mehr innovative Mechanismen sehen: Wischen Sie nach links für eine konträre Meinung; integrieren Sie Links, die Geschichten oder Videos auf eine Weise erläutern, die das Verständnis vertieft oder die “Voreingenommenheit” dekontextualisiert, die bestätigt wird. Aber lassen Sie uns klarstellen: Choice-Architekturen, die “ermutigen” oder “Reibungen” erzeugen, erfordern andere Daten und Design-Sensibilitäten als die, die “verbieten” oder “zensieren” oder “verhindern”. Ich denke, das ist ein sehr hartes Problem für Menschen und Maschinen gleichermaßen. Was es besonders hart macht, ist, dass menschliche Wesen – tatsächlich – weniger vorhersehbar sind, als viele Psychologen und Sozialwissenschaftler glauben. Es gibt viele konkurrierende “Theorien des Geistes” und “Agenten” diese Tage. Je persönlicher die Empfehlungen und Empfehlungsmaschinen werden, desto herausfordernder und anachronistischer werden “eine-Größe-passt-für-alle”-Ansätze. Es ist einer der vielen Gründe, warum mich dieses Gebiet interessiert.
Sollten Endbenutzer und die Gesellschaft Transparenz darüber verlangen, warum bestimmte Empfehlungen gemacht werden?
Ja, ja und ja. Nicht nur “Erklärbarkeit”, sondern auch “Sichtbarkeit”, “Transparenz” und “Interpretierbarkeit”. Menschen sollten das Recht haben, die Technologien zu sehen und zu verstehen, die sie beeinflussen. Sie sollten in der Lage sein, die Algorithmen zu schätzen, die verwendet werden, um sie zu beeinflussen und zu überzeugen. Denken Sie daran als den algorithmischen Gegenpart zu “informierter Zustimmung” in der Medizin. Patienten haben das Recht, die Gründe und Begründungen für die Wahl “dieses” Kurses der Handlung zu “jenem” zu erhalten. Tatsächlich argumentiere ich, dass “informierte Zustimmung” – und ihre Zukunft – in der Medizin und der Gesundheitsversorgung ein gutes Template für die Zukunft der “informierten Zustimmung” für Empfehlungsmaschinen bietet.
Glauben Sie, dass es möglich ist, den menschlichen Geist mit Empfehlungsmaschinen zu “hacken”?
Den Geist oder den Verstand? Ich mache keinen Witz. Werden wir materiell – elektrisch und chemisch – Neuronen und Lappen “hacken”? Oder verwenden wir weniger invasive sensorische Reize, um vorhersehbares Verhalten hervorzurufen? Ehrlich gesagt, glaube ich, dass einige Gehirne – und einige Geister – einige Male “hackbar” sind. Aber glaube ich, dass Menschen dazu bestimmt sind, “Fleischpuppen” zu werden, die zu Empfehlungen tanzen? Ich tue es nicht. Einige Menschen werden süchtig. Einige Menschen verlieren Autonomie und Selbstkontrolle. Und ja, einige Menschen wollen andere ausnutzen. Aber die überwiegende Beweislage lässt mich nicht besorgt über die “Bewaffnung von Empfehlungen”. Ich bin mehr besorgt über den Missbrauch von Vertrauen.
Ein Zitat in einem Forschungspapier von Jason L. Harman und Jason L. Harman lautet: “Das Vertrauen, das Menschen in Empfehlungen setzen, ist der Schlüssel zum Erfolg von Empfehlungssystemen”. Glauben Sie, dass soziale Medien dieses Vertrauen verraten haben?
Ich glaube an dieses Zitat. Ich glaube, dass Vertrauen tatsächlich der Schlüssel ist. Ich glaube, dass intelligente und ethische Menschen wirklich die Bedeutung von Vertrauen verstehen und schätzen. Mit Entschuldigung für Churchills Kommentar über Mut, ist Vertrauen die Tugend, die gesunde menschliche Verbindung und Wachstum ermöglicht. Das sagte, argumentiere ich, dass die meisten sozialen Medien-Plattformen – ja, Twitter und Facebook, ich sehe Sie! – nicht auf Vertrauen basieren. Sie basieren auf der Erleichterung und Skalierung von Selbstausdruck. Die Fähigkeit, sich selbst im großen Maßstab auszudrücken, hat buchstäblich nichts mit dem Aufbau von Vertrauen zu tun. Es gab nichts zu verraten. Bei Empfehlungen gibt es.
Sie äußern die Überzeugung, dass die Zukunft von Empfehlungsmaschinen die besten Empfehlungen zur Verbesserung des Geistes bieten wird. Glauben Sie, dass irgendeine Empfehlungsmaschine derzeit an einem solchen System arbeitet?
Noch nicht. Ich sehe dies als den nächsten Billionen-Dollar-Markt. Ich denke, Amazon und Google und Alibaba und Tencent wollen dorthin gelangen. Aber wer weiß, es gibt vielleicht einen unternehmerischen Innovator, der uns alle überrascht: Vielleicht wird ein Spotify, das Achtsamkeit und just-in-time-geflüsterte “Ratschläge” integriert, der Geist-verbessernde Durchbruch sein.
Wie würden Sie zusammenfassen, wie Empfehlungsmaschinen es Benutzern ermöglichen, sich selbst besser zu verstehen?
Empfehlungen sind über gute Entscheidungen…. manchmal sogar großartige Entscheidungen. Welche Entscheidungen akzeptieren Sie? Welche Entscheidungen ignorieren Sie? Welche Entscheidungen lehnen Sie ab? Die Courage zu haben, diese Fragen zu stellen und zu beantworten, gibt Ihnen bemerkenswerte Einblicke in die Person, die Sie sind und die Sie werden könnten. Wir sind die Entscheidungen, die wir treffen; was auch immer diese Entscheidungen beeinflusst, hat bemerkenswerten Einfluss und Einfluss auf uns.
Gibt es noch etwas, das Sie über Ihr Buch teilen möchten?
Ja – in der ersten und letzten Analyse ist mein Buch über die Zukunft der Beratung und die Zukunft, die Sie “wirklich” werden wollen. Es ist über die Zukunft des Selbst – Ihrem “Selbst”. Ich denke, das ist sowohl ein aufregendes als auch ein wichtiges Thema, nicht wahr?
Vielen Dank, dass Sie Ihre Ansichten teilen.
Für unsere Leser empfehle ich dieses Buch sehr, es ist derzeit auf Amazon in Kindle- oder Taschenbuchform erhältlich. Sie können auch weitere Bestellmöglichkeiten auf der MIT Press-Seite anzeigen.












