Connect with us

Regolamentazione

Dovrebbero gli Sistemi di Raccomandazione Essere Esenti dall’Età Post-Tracking?

mm
Idiocracy Costco

Man mano che la raccolta di dati di prima parte diventa la nuova stella polare per i marketer e i broker di dati, l’attenzione crescente sui sistemi di raccolta di dati ‘chiusi’ rischia di trascinare uno dei settori di ricerca più ferventi del machine learning nella controversia e in una maggiore regolamentazione.

Le azioni intraprese dai giocatori FAANG e dai produttori FOSS nei prossimi 12-18 mesi sono destinate a chiudere la cultura del tracciamento cross-domain che ha inghiottito i sistemi di analisi degli utenti negli ultimi vent’anni e si è conclusa con gli scandali di Cambridge Analytica e, successivamente, con l’irresistibile richiesta popolare di maggiore privacy online.

Che l’implementazione corrisponda o meno all’ideale, e indipendentemente dalla misura in cui sistemi di tracciamento più generalizzati (come Google’s FLOC e Apple’s SKAdNetwork) possano placare l’ira dei consumatori e soddisfare gli inserzionisti, questa nuova ondata di preoccupazione per la privacy degli utenti si applica solo all’estrazione di dati cross-domain in un contesto ‘pubblico’, e non agli ambienti di consumo chiusi o proprietari, e ai sistemi di raccomandazione personalizzati che alimentano l’engagement lì.

Dati Ricchi in Giardini Chiusi

Piattaforme come Netflix, Disney+, HBO Max, Roku e l’ecosistema Amazon (compresi Prime Video e raccomandazioni di prodotti), che utilizzano sistemi di raccomandazione personalizzati costruiti su misura, sono tra i servizi di contenuti che ora si moltiplicano e si ritirano mentre l’industria dello streaming si balcanizza.

Man mano che la raccolta di dati di terza parte recede, il vantaggio che questi grandi giocatori dello streaming conservano in termini di accesso fine-grano ai dati di utilizzo dei clienti sembra probabile che ispiri invidia e imitazione, e un rinnovato enfasi su framework di prima parte come mezzo per strappare di nuovo il targeting iper-personalizzato dai sistemi di analisi più generalizzati.

Se questo accade, non è probabile che sia così democratico o meritocratico come i criteri di ingresso precedenti, perché il maggior vantaggio cadrà ai fornitori con la più estesa rete di piattaforme di prima parte; con abbastanza risorse di sviluppo per fornire sistemi di autenticazione locali sicuri; e che sono in grado di gestire, analizzare e monetizzare grandi volumi di dati localmente.

Ciò focalizzerà l’attenzione pubblica sugli aspetti di privacy dei sistemi di raccomandazione ‘chiusi’ in un modo che hanno largamente evitato fino ad ora, perché, fino a questo punto, sono stati casi eccezionali, e hanno goduto di privilegi eccezionali, operando in un contesto in cui l’utente finale ha esplicitamente optato per pratiche di raccolta di dati aggressive che non sono generalmente consentite nelle reti aperte.

Un Ritorno più Ampio agli Ambienti di Prima Parte Ermeneutici

Un maggiore enfasi sui dati di prima parte sembra probabile che porti a un ritorno ai sistemi di autenticazione specifici del dominio che hanno preceduto la popolarità dei metodi di terza parte forniti da Google (0Auth 2.0), Facebook e Twitter, nonché altre piattaforme sociali popolari come Disqus.

Dieci anni fa, l’adozione generalizzata di queste piattaforme di autenticazione di terza parte ha risolto molti problemi di sicurezza per i domini con risorse di sviluppo limitate, ma ha anche reso più difficile ottenere la stessa granularità di dati di utente azionabili che un sistema di autenticazione e monitoraggio di prima parte dedicato e locale consente. All’epoca, non importava molto, perché il tracciamento cross-domain poteva colmare quella lacuna di dati.

Il Login come Soluzione a una Crisi Esistenziale

Ora, il vantaggio consiste nel fare in modo che l’utente sia connesso, anche se non ci sono meccanismi espliciti per monetizzarlo. Un esempio di ciò è il crescente numero di testate giornalistiche che richiedono un login per visualizzare i contenuti, anche se non c’è un paywall in atto. Ad esempio, The Guardian sta attualmente sperimentando requisiti di login per la visualizzazione di articoli che provengono da ricerche Google:

Screenshot di un 'muro di login' per la visualizzazione di un articolo di The Guardian proveniente da una ricerca Google. Ciò non può essere catturato in snapshot dell'archivio web, poiché la restrizione è generata da header di referrer o sistemi basati su IP che rivelano Google come origine del clic.

Screenshot di un ‘muro di login’ per la visualizzazione di un articolo di The Guardian proveniente da una ricerca Google. Ciò non può essere catturato in snapshot dell’archivio web, poiché la restrizione è generata da header di referrer o sistemi basati su IP che rivelano Google come origine del clic.

Restrizioni di questo tipo possono essere difficili da accertare per un visualizzatore individuale, poiché possono variare in base alle geolocalizzazioni o ad altre circostanze. Ad esempio, l’articolo di The Guardian sopra menzionato non è limitato in alcun modo quando navigato all’interno del sito web di The Guardian (anche se il lettore non è connesso), o quando accessibile direttamente. Richiedere un login da un riferimento di Google è un metodo economico per generare un aumento della domanda di iscrizione senza alienare i lettori ‘catturati in precedenza’.

Sebbene ci siano sempre stati vantaggi nella raccolta di dati in questo tipo di coinvolgimento di prima parte (ad esempio, un login ‘locale’), la caduta del tracciamento cross-domain è probabile che elevi la pratica da ‘vantaggiosa’ a una necessità esistenziale per evitare i flussi di dati di marketing più scarsi dei sistemi FLOC e SKAdNetwork.

L’Impulso verso la Raccolta di Dati di Prima Parte

Le prove di una ‘corsa all’oro’ dei dati di prima parte sono spesse a terra. Secondo il punto di vista di un insider dell’industria su Forbes, la caduta dei cookie di terza parte porterà a nuove opportunità per le aziende di curare e vendere dati di seconda parte, dove hanno abbastanza infrastrutture di prima parte per diventare effettivamente broker di dati di loro stessi.

L’analisi altrove prevede anche che i rivenditori (che investono pesantemente in sistemi di raccomandazione di machine learning) diventeranno i nuovi ‘magnati dei media’.

In un post del blog, la piattaforma di monetizzazione Setupad esemplifica l’intenzione dell’industria pubblicitaria di non accedere a sistemi federati e limitati dai dati come FLOC, stating that ‘il targeting comportamentale è la risposta al successo futuro per gli inserzionisti’, e che la cattura di prima parte è il requisito assoluto per questo.

Il targeting comportamentale è ciò che ha causato l’attuale spostamento tettonico nella privacy dei consumatori per prima; e ciò che gli inserzionisti e le industrie di influencer professionali vogliono riconquistare – per procura, di nascosto o con qualsiasi altro mezzo, non importa che possa trascinare il settore di ricerca dei sistemi di raccomandazione giù nel fango con esso.

Il ‘Club’ di Prima Parte

Oltre al requisito di infrastrutture costose, nonché risorse di sicurezza e sviluppo, un altro fattore indica perché solo le grandi aziende sono probabili di prosperare nell’era dei sistemi di raccolta di dati di prima parte: un’azienda avrà bisogno di una cattura di mercato convincente per costringere i consumatori a tornare ai sistemi di login locali che avevano abbandonato dieci anni fa.

Ciò è un movimento rischioso, anche per un giocatore importante, e il ricordo della demise di Digg nel 2010 ancora infesta il mondo del SEO e del marketing. La cattura di mercato più convincente di un’azienda sarà, meno dannoso sarà questo movimento, con aziende più potenti in grado di superare le difficoltà e adattarsi meglio all’ecosistema di prima parte rispetto alle preoccupazioni più piccole.

Effetti sulla Ricerca dei Sistemi di Raccomandazione

Man mano che questa situazione evolve, potrebbe minacciare il relativo ‘passaggio libero’ che la vigilanza regolamentare ha concesso alla ricerca dei sistemi di raccomandazione di machine learning da parte di aziende come Google, Amazon e Netflix.

In una certa misura, le nuove proposte dell’UE per la legislazione sull’AI anticipano una maggiore attenzione ai sistemi di raccomandazione in ogni caso. Sebbene non sia chiaro se la disposizione del progetto contro ‘tecniche subliminali al di là della coscienza di una persona per distorcere materialmente il comportamento di una persona’ si applicherà ai sistemi di raccomandazione, si anticipa che gli inserzionisti e i ricercatori di sistemi di raccomandazione faranno pressione per un trattamento eccezionale.

Ma potrebbe essere difficile fare un caso per la ringenzione della ricerca dei sistemi di raccomandazione nel caso in cui l’approccio ‘giardino chiuso’ diventi il nuovo standard dell’industria, e i pascoli accademici che hanno ospitato questo settore di ricerca del machine learning diventino un letto caldo ad alto volume per la ricerca e lo sviluppo di dati comportamentali di prima parte su larga scala.

Gli investimenti importanti nei flussi di lavoro dei dati di prima parte potrebbero essere l’unica speranza per ricreare gli stessi tipi di annunci ‘psichici’ e propaganda politica altamente efficaci che hanno caratterizzato l’era di Cambridge Analytica; ma per i regolatori, potrebbe sembrare che la morte del cookie di terza parte abbia semplicemente spostato le pratiche ‘disoneste’ dalle strade ai locali chiusi. Se l’effetto esterno di quelle attività suscita di nuovo l’ira pubblica, ciò potrebbe dimostrarsi un santuario scarso.

Scrittore su apprendimento automatico, specialista di dominio nella sintesi di immagini umane. Ex capo della ricerca contenuti presso Metaphysic.ai.