interviste
Onur Alp Soner, CEO e co-fondatore di Countly – Serie di interviste

Onur Alp Soner è il co-fondatore e CEO di Conteggio, una piattaforma di analisi digitale e di coinvolgimento in-app. Tecnologo e intraprendente, ha avviato Countly da zero per offrire alle aziende un maggiore controllo su come comprendere e interagire con i propri utenti. Sotto la sua guida, Countly è diventata una piattaforma affidabile per le aziende di tutto il mondo che desiderano innovare rapidamente, mantenendo la privacy degli utenti al centro delle loro strategie di crescita.
Riportaci al momento che ti ha portato a fondare Countly: quali difficoltà incontravi personalmente con gli strumenti di analisi esistenti che ti hanno convinto che il modello di proprietà dei dati fosse fondamentalmente errato?
Circa 13 anni fa, quando le app per dispositivi mobili cominciavano a diffondersi, gli strumenti di analisi disponibili seguivano un modello ben preciso. Molti di essi erano gratuiti o piuttosto economici, ma il compromesso era che la piattaforma raccoglieva e monetizzava i dati degli utenti, spesso alimentando gli ecosistemi pubblicitari. All'epoca, questo era ampiamente accettato come la norma.
Questa cosa, però, non ci convinceva. Anche per una piccola azienda come la nostra, l'idea di cedere tutti i dati dei nostri utenti solo per capire come si comportava il nostro prodotto non aveva senso.
Countly è nata proprio in risposta a questa esigenza. Volevamo creare una piattaforma di analisi che le aziende potessero possedere e controllare completamente, ed è per questo che l'abbiamo lanciata come piattaforma open source e self-hosted. L'idea era semplice: le organizzazioni dovrebbero essere in grado di comprendere e utilizzare i propri dati senza doverli cedere a terzi. Questo principio è ancora oggi alla base di Countly.
Dalla fondazione di Countly, l'intelligenza artificiale ha trasformato la proprietà dei dati da una questione di nicchia a un requisito strategico. Quando ti è apparso chiaro che questo principio avrebbe avuto un'importanza che andava ben oltre l'analisi dei dati?
Nei primi anni, la maggior parte delle discussioni sulla proprietà dei dati si inquadrava in termini di privacy o conformità. Erano principalmente banche, operatori sanitari e governi a preoccuparsi profondamente di dove fossero archiviati i loro dati e di chi li controllasse. Per molti altri, l'analisi dei dati era ancora vista come un semplice strumento di reporting, quindi la questione della proprietà non era percepita come urgente.
Questa prospettiva ha iniziato a cambiare quando le aziende hanno cominciato a fare maggiore affidamento sui dati per gestire i propri prodotti, non solo per misurarli. Una volta che l'analisi dei dati è passata dalla semplice reportistica al processo decisionale, alimentando la personalizzazione, le modifiche ai prodotti e il coinvolgimento dei clienti, l'importanza del controllo di tali dati è diventata molto più chiara. Ogni azienda digital-first, dalla mobilità all'ospitalità, ha di fatto iniziato a competere sui dati, non solo sull'esperienza utente.
L'intelligenza artificiale ha accelerato drasticamente questa consapevolezza. È possibile ottenere una licenza o sviluppare un modello di IA, ma non si possono acquistare i dati comportamentali che riflettono il modo in cui i propri clienti interagiscono con il prodotto. Questi dati sono unici per ogni organizzazione.
Molte organizzazioni credono di essere "pronte per l'IA" perché dispongono di grandi quantità di dati. Ma cosa si nasconde solitamente dietro le quinte delle aziende reali?
Di solito il problema non è la mancanza di dati. Il vero problema è la mancanza di dati utilizzabili. Molte organizzazioni dispongono di enormi quantità di informazioni, ma queste sono frammentate tra diversi strumenti, team e sistemi. Ad esempio, il marketing potrebbe avere un set di dati, il reparto prodotto un altro e l'ingegneria i propri dati di telemetria, spesso archiviati in formati diversi con una struttura condivisa limitata.
Affinché l'IA sia utile, i dati sottostanti devono essere puliti, coerenti e contestualizzati. Non basta raccogliere eventi o log; è necessario comprendere cosa rappresentino effettivamente quei segnali. Senza questo livello semantico, i sistemi di IA si basano essenzialmente su supposizioni.
Un altro problema riguarda la proprietà dei dati. Un numero sorprendente di aziende non controlla effettivamente i propri dati perché risiedono su piattaforme di terze parti. Ciò rende difficile combinare i set di dati, regolarne l'utilizzo o applicarvi in modo sicuro modelli di intelligenza artificiale.
Quindi, quando le aziende affermano di essere pronte per l'IA perché dispongono di una grande quantità di dati, la vera domanda è se possiedono una base di dati coerente.
Perché i dati di prima parte creano un vantaggio competitivo duraturo nei sistemi di intelligenza artificiale, mentre i modelli stessi stanno diventando sempre più intercambiabili?
Ciò che crea un vantaggio duraturo non è il modello in sé, ma la comprensione degli utenti che deriva dai dati di prima parte. Questi dati riflettono il modo in cui le persone interagiscono effettivamente con il prodotto e sono unici per ogni organizzazione. I modelli, d'altro canto, stanno diventando sempre più delle commodity. È possibile concederli in licenza, perfezionarli o passare da un fornitore all'altro con relativa facilità. Ciò che non è possibile replicare sono i dati comportamentali generati dai propri utenti che interagiscono con i prodotti nel tempo.
Questi dati catturano modelli, contesto e segnali che riflettono il comportamento effettivo dei clienti. Se strutturati e interpretati correttamente, consentono alle aziende di costruire sistemi che apprendono continuamente dall'utilizzo reale, anziché da set di dati generici.
Dove si verificano i malfunzionamenti silenziosi delle moderne piattaforme di analisi quando vengono riadattate per sistemi di intelligenza artificiale anziché per report, dashboard e KPI?
Tendono a fallire nel momento in cui i dati devono passare dall'osservazione all'azione. Le tradizionali piattaforme di analisi sono state progettate principalmente per la creazione di report. Raccolgono e aggregano i dati, per poi presentarli in dashboard che aiutano i team a capire cosa è successo ieri o la settimana scorsa.
I sistemi di intelligenza artificiale, tuttavia, funzionano in modo molto diverso. Richiedono dati strutturati, contestualizzati e disponibili in tempo reale, in modo da poter influenzare direttamente il comportamento del sistema. Quando le pipeline di analisi sono basate sull'elaborazione batch e sulla generazione di report differiti, faticano a supportare sistemi che necessitano di reagire istantaneamente.
In che modo la mancanza di una reale proprietà dei dati si manifesta a livello operativo quando i team tentano di trasferire l'IA dalla fase sperimentale a quella di produzione?
Solitamente si manifesta come un problema di controllo. In definitiva, se non si ha il controllo sui propri dati, non si ha il controllo sull'IA. Questo diventa particolarmente evidente quando i team passano dalla fase di sperimentazione a quella di produzione. Durante la fase di sperimentazione, i team possono spesso lavorare con piccoli set di dati o pipeline temporanee, ma i sistemi di produzione richiedono un accesso costante a dati affidabili in tutta l'organizzazione.
Inoltre, in molte aziende, i dati sottostanti risiedono su diverse piattaforme di terze parti, come strumenti di analisi, sistemi di marketing o servizi cloud. Ciò rende difficile combinare i set di dati, applicare regole di governance o spostare i dati tra i sistemi in modo controllato. Questo è uno dei motivi per cui molti progetti di intelligenza artificiale rimangono bloccati nella fase pilota. Senza dati strutturati e condivisi a livello aziendale, diventa difficile implementare l'IA in modo affidabile in produzione.
Inoltre, rende più difficile risalire al processo decisionale di un modello o ricostruire l'esatto stato dei dati che lo ha determinato. Senza questo livello di controllo, correggere gli errori o annullare le decisioni diventa estremamente complicato.
Perché una struttura dei dati, una semantica e un contesto inadeguati compromettono anche i modelli di intelligenza artificiale più performanti?
Anche i modelli di intelligenza artificiale più avanzati sono validi solo quanto i dati che ricevono. Se i dati di base sono mal strutturati o privi di contesto, il modello avrà una comprensione molto limitata di ciò che quei segnali rappresentano realmente.
In molti sistemi, i dati vengono raccolti come eventi o registri isolati, senza un significato chiaro associato. Un modello può rilevare migliaia di interazioni, ma senza una struttura e una semantica adeguate, non è in grado di distinguere tra ciò che è importante e ciò che è semplicemente rumore.
Il contesto è altrettanto importante. I sistemi di intelligenza artificiale devono comprendere come i diversi dati si relazionano tra loro nel tempo. Senza tale contesto, i modelli possono comunque produrre risultati, ma spesso inaffidabili perché il sistema lavora con informazioni incomplete.
Quali sono i segnali d'allarme che indicano che un'azienda si sta dirigendo verso risultati generici derivanti dall'IA, molto prima che tali esperienze risultino generiche per i clienti?
Il segnale d'allarme più elementare si manifesta quando le aziende si affidano agli stessi modelli e strumenti di intelligenza artificiale esterni, ma fanno ben poco per sviluppare le proprie basi di dati. Se le organizzazioni utilizzano gli stessi modelli senza alimentarli con i propri dati utente e contestuali, i sistemi funzionano essenzialmente con gli stessi input generici. In questa situazione, l'IA può produrre solo risultati di alto livello o generici. Nel tempo, ciò porta a prodotti che risultano sempre più simili tra loro, perché l'intelligenza su cui si basano è costruita sulle stesse informazioni limitate.
Un altro segnale d'allarme si manifesta quando le organizzazioni si concentrano eccessivamente sull'adozione di modelli di intelligenza artificiale, prestando poca attenzione alla struttura e alla qualità dei propri dati. L'IA amplifica ciò che riceve. Se i dati di base sono disordinati, frammentati o mal strutturati, il sistema produrrà semplicemente una versione più sofisticata dello stesso problema.
Per le organizzazioni che cercano di sviluppare l'intelligenza artificiale a partire dai propri dati, cosa offre concretamente Countly che le piattaforme di analisi e dati tradizionali non consentono?
La differenza fondamentale sta nel modo in cui il controllo è integrato nella piattaforma. In molti prodotti di analisi, la proprietà dei dati appare come un'opzione o una funzionalità. Con Countly, invece, è al centro del sistema. La piattaforma è stata progettata in modo che le organizzazioni non debbano rinunciare al controllo dei propri dati in cambio di funzionalità avanzate.
In pratica, ciò significa che le aziende possono eseguire Countly nel proprio ambiente, mantenere il pieno controllo sulla propria infrastruttura dati e accedere comunque a funzionalità di analisi, coinvolgimento e automazione su larga scala. Questo diventa particolarmente importante quando le organizzazioni desiderano sviluppare l'intelligenza artificiale a partire dai propri dati. Molti strumenti di analisi tradizionali sono progettati principalmente per la creazione di report, il che significa che i dati raccolti spesso rimangono all'interno di dashboard di terze parti anziché diventare una base utilizzabile per altri sistemi. Countly adotta un approccio diverso, trattando l'analisi come parte integrante dell'infrastruttura dati sottostante.
Con l'integrazione sempre più diffusa dei sistemi di intelligenza artificiale nei processi decisionali quotidiani, come dovrebbe evolversi la definizione di IA etica quando la proprietà dei dati viene considerata un principio di progettazione fondamentale anziché una semplice casella da spuntare in una policy?
Una volta che la proprietà dei dati diventa un principio di progettazione, l'IA etica non si limita più a verificare i modelli a posteriori, ma si concentra sulla progettazione di sistemi in cui gli utenti mantengono il controllo sui dati che li addestrano. L'etica diventa infrastruttura.
Grazie per l'ottima intervista, i lettori che desiderano saperne di più dovrebbero visitare Conteggio.












