stub Michael Schrage, författare till Recommendation Engines (The MIT Press) - Intervjuserie - Unite.AI
Anslut dig till vårt nätverk!

Intervjuer

Michael Schrage, författare till Recommendation Engines (The MIT Press) – Intervjuserie

mm
Uppdaterad on

Michael Schrage är forskare vid MIT Sloan School of Management's Initiative on the Digital Economy. En eftertraktad expert på innovation, mätetal och nätverkseffekter, han är författare till Vem vill du att dina kunder ska bli?Innovatörens hypotes: Hur billiga experiment är värda mer än bra idéer (MIT Press) och andra böcker.

I den här intervjun diskuterar vi hans bok "Rekommendationsmotorer” som utforskar historien, tekniken, verksamheten och sociala effekterna av onlinerekommendationsmotorer.

Vad inspirerade dig att skriva en bok om ett så smalt ämne som "Rekommendationsmotorer"?

Inramningen av din fråga ger bort spelet…..När jag på allvar tittade på de digitala teknikerna och kontaktpunkterna som verkligen påverkade människors liv över hela världen, fann jag nästan alltid ett "rekommendationsmotor" som drivande beslut. Spotifys rekommendatorer bestämmer vilken musik och sånger folk hör; TikToks rekommendationsmotorer definierar de "virala videorna" som människor sätter ihop och delar; Netflix rekommendatorer har utformats för att underlätta "binge watching" och "binge watchers;" Google Maps och Waze rekommenderar de bästa och/eller snabbaste och/eller enklaste sätten att ta sig dit; Tinder och Match.com rekommendera vem du skulle vilja vara med eller, du vet, "vara" med; Stitch Fix rekommenderar vad du kanske vill ha på dig som gör dig till "du"; Amazon kommer att rekommendera vad du verkligen borde köpa; Academia och ResearchGate kommer att rekommendera den mest relevanta forskningen du bör vara uppdaterad om... Jag skulle kunna fortsätta – och göra det i boken – men både tekniskt och konceptuellt är 'Recommendation Engines' motsatsen till 'smala'. Deras poäng och syfte täcker hela omfattningen av mänskligt begär och beslut.

Ett citat i din bok är som följer: "Rekommenderar handlar inte bara om vad vi kan köpa, de handlar om vem vi kanske vill bli". Hur kan detta missbrukas av företag eller dåliga aktörer?

Det finns ingen tvekan om att rekommendationen kan missbrukas. Den "klassiska" klassiska frågan – Cui bono? – "Vem tjänar på det?" – gäller. Är rekommendationerna verkligen avsedda att gynna mottagaren eller den enhet/företag som gör rekommendationen? Precis som det är lätt för en kollega, bekant eller "vän" som känner dig att ge råd som verkligen inte är i ditt bästa intresse, är det ett digitalt snap för "datadrivna" rekommendatorer att föreslå att du köper något som ökar "deras" vinst på bekostnad av "din" nytta eller tillfredsställelse. På ett plan är jag mycket oroad över potentialen – och verkligheten – av övergrepp. Å andra sidan tror jag att de flesta fångar ganska snabbt när de blir utnyttjade eller manipulerade av människor eller teknik. Lura mig en gång, skam dig; lura mig två eller tre gånger, skam på mig. Rekommendation är en av de där speciella domänerna där det är smart att vara etisk och etisk att vara smart. 

Är ekokammare där användarna bara matas med vad de vill se oavsett exakthet en samhällsfråga?

Eli Pariser myntade den utmärkta frasen "filterbubblan" för att beskriva detta fenomen och patologi. Jag håller i stort sett med hans synsätt. I sanning tycker jag att det nu är rättvist att säga att "bekräftelsebias" – inte sex – är det som verkligen driver de flesta vuxna mänskliga beteenden. De flesta människor letar efter överenskommelse för det mesta. Rekommenderar måste navigera en noggrann kurs mellan nyhet, mångfaldsrelevans och serendipitet eftersom – även om för mycket bekräftelse är tråkigt och överflödigt – för mycket nyhet och utmaning kan irritera och stöta. Så, ja, strävan efter bekräftelse är både en personlig och social fråga. Som sagt, rekommendatorer erbjuder ett relativt obehagligt sätt att få folk att uppmärksamma alternativa perspektiv och alternativ. Men jag undrar faktiskt om reglering och juridisk granskning i allt högre grad kommer att definiera rekommendationens framtid.

Filterbubblor begränsar för närvarande exponering för motstridiga, motstridiga och/eller utmanande/synpunkter. Bör det finnas någon typ av reglering som motverkar denna typ av överfiltrering?

Jag föredrar lätt beröring framför hårdhänt regulatorisk tillsyn. De flesta plattformar jag ser gör ett ganska dåligt jobb med att märka "falska nyheter" eller upprätta kvalitetskontroll. Jag skulle vilja se fler innovativa mekanismer utforskade: svep åt vänster för en kontrarisk uppfattning; bädda in länkar som utvecklar berättelser eller videor på ett sätt som fördjupar förståelsen eller dekontextualiserar den "bias" som bekräftas. Men låt oss vara tydliga: valarkitekturer som "avskräcker" eller skapar "friktioner" kräver annan data och designkänslighet än de som "förbjuder" eller "censurerar" eller "förhindrar". Jag tror att detta är ett mycket svårt problem för både människor och maskiner. Det som gör det särskilt svårt är att människor – i själva verket – är mindre förutsägbara än vad många psykologer och samhällsvetare tror. Det finns många konkurrerande "sinneteorier" och "agentur" nu för tiden. Ju mer personliga rekommendationer och rekommendationer blir, desto mer utmanande och anakronistiska "one size fits all"-metoder blir. Det är en av många anledningar till att den här domänen intresserar mig så.

Bör slutanvändare och samhället kräva förklaring till varför specifika rekommendationer görs?

Ja, ja och ja. Inte bara "förklarbarhet" utan "synlighet", "transparens" och "tolkbarhet" också. Människor bör ha rätt att se och förstå den teknik som används för att påverka dem. De bör kunna uppskatta de algoritmer som används för att knuffa och övertyga dem. Se detta som den algoritmiska motsvarigheten till "informerat samtycke" inom medicin. Patienter har rätt att få – och läkare är skyldiga att tillhandahålla – skälen och skälen för att välja "denna" handlingsväg till "denna". Jag hävdar faktiskt att "informerat samtycke" - och dess framtid - inom medicin och hälsovård erbjuder en bra mall för framtiden för "informerat samtycke" för rekommendationsmotorer. 

Tror du att det är möjligt att "hacka" den mänskliga hjärnan med hjälp av Recommender Engines?

Hjärnan eller sinnet? Skojar inte. Hackar vi materiellt – elektriskt och kemiskt – neuroner och lober? Eller använder vi mindre invasiva sensoriska stimuli för att framkalla förutsägbara beteenden? Jag tror rent ut sagt att vissa hjärnor – och vissa sinnen – är hackbara ibland. Men tror jag att människor är avsedda att bli "köttdockor" som dansar till rekommendationslåtarna? Det gör jag inte. Titta, vissa människor blir missbrukare. Vissa människor tappar självständighet och självkontroll. Och ja, vissa människor vill utnyttja andra. Men övervikten av bevis får mig inte att oroa mig för "rekommendationens beväpning". Jag är mer orolig för missbruket av förtroende.

Ett citat i en forskningsartikel av Jason L. Harman och Jason L. Harman säger följande: "Det förtroende som människor sätter på rekommendationer är nyckeln till framgången för rekommendatorsystem". Tror du att sociala medier har svikit det förtroendet?

Jag tror på det citatet. Jag tror att förtroende verkligen är nyckeln. Jag tror att smarta och etiska människor verkligen förstår och uppskattar vikten av förtroende. Med ursäkt för Churchills kommentar om mod, är tillit den dygd som möjliggör hälsosam mänsklig koppling och tillväxt. Som sagt, jag är bekväm med att hävda att de flesta sociala medieplattformar – ja, Twitter och Facebook, jag tittar på dig! – är inte byggda kring eller baserade på förtroende. De är baserade på att underlätta och skala självuttryck. Förmågan att uttrycka sig själv i stor skala har bokstavligen ingenting att göra med att skapa eller bygga förtroende. Det fanns inget att förråda. Med rekommendation finns det.

Du uttrycker din övertygelse om att framtiden för Recommender Engines kommer att innehålla de bästa rekommendationerna för att förbättra ens sinne. Finns det några rekommendationsmotorer som arbetar med ett sådant system för närvarande?

Inte än. Jag ser det som nästa biljoner dollarmarknad. Jag tror att Amazon och Google och Alibaba och Tencent vill komma dit. Men vem vet, det kanske finns en entreprenöriell innovatör som överraskar oss alla: kanske en Spotify som innehåller mindfulness och just-in-time viskade "råd" kan vara det sinneshöjande genombrottet.

Hur skulle du sammanfatta hur Recommendation Engines gör det möjligt för användare att bättre förstå sig själva?

Rekommendationer handlar om bra val... ibland till och med bra val. Vilka är de val du anammar? Vilka är de val du ignorerar? Vilka är de val du förkastar? Att ha modet att ställa – och svara på – de frågorna ger dig en anmärkningsvärd insikt om vem du är och vem du kanske vill bli. Vi är de val vi gör; vad som än påverkar dessa val har anmärkningsvärd inverkan och inflytande på oss.

Finns det något mer du skulle vilja dela med dig av om din bok?

Ja – i den första och sista analysen handlar min bok om framtiden för rådgivning och framtiden för vem du "verkligen" vill bli. Det handlar om jagets framtid – ditt "jag". Jag tycker att det är ett både spännande och viktigt ämne, eller hur?

Tack för att du tog dig tid att dela dina åsikter.

Till våra läsare rekommenderar jag starkt den här boken, den finns för närvarande tillgänglig på amason i Kindle eller pocketbok. Du kan också se fler beställningsalternativ på MIT Press sida.

En av grundarna av unite.AI och en medlem av Forbes Technology Council, Antoine är en futurist som brinner för framtiden för AI och robotik.

Han är också grundare av Securities.io, en webbplats som fokuserar på att investera i disruptiv teknik.