Connect with us

LLM personalizzati per ogni azienda? DeepSeek ci mostra la strada

Leader di pensiero

LLM personalizzati per ogni azienda? DeepSeek ci mostra la strada

mm

C’era una volta, il richiamo tecnologico era “cellulari per tutti” – e in effetti le comunicazioni mobili hanno rivoluzionato il business (e il mondo). Oggi, l’equivalente di quel richiamo è dare a tutti l’accesso alle applicazioni di intelligenza artificiale. Ma il vero potere dell’intelligenza artificiale consiste nell’utilizzarla per le esigenze specifiche delle aziende e delle organizzazioni. Il percorso tracciato dal startup cinese DeepSeek dimostra come l’intelligenza artificiale possa essere effettivamente utilizzata da tutti, soprattutto da coloro che hanno budget limitati, per soddisfare le loro esigenze specifiche. In effetti, l’avvento di soluzioni di intelligenza artificiale a basso costo promette di cambiare il modello profondamente radicato di soluzioni di intelligenza artificiale che spesso rimangono fuori portata per molte piccole aziende e organizzazioni a causa dei requisiti di costo.

I LLM sono – o erano – un’impresa costosa, che richiede l’accesso a grandi quantità di dati, un gran numero di computer potenti per elaborare i dati e tempo e risorse investite nella formazione del modello. Ma queste regole stanno cambiando. Operando con un budget ridotto, DeepSeek ha sviluppato il proprio LLM e un’applicazione di tipo ChatGPT per le query – con un investimento molto inferiore a quello delle società americane ed europee per sistemi simili. L’approccio di DeepSeek apre una finestra sullo sviluppo di LLM per le organizzazioni più piccole che non hanno miliardi da spendere. In effetti, il giorno in cui la maggior parte delle piccole organizzazioni potrà sviluppare i propri LLM per servire i propri scopi specifici non è lontano, fornendo generalmente una soluzione più efficace dei LLM generici come ChatGPT.

Mentre il dibattito permane sul vero costo di DeepSeek, non è solo il costo che lo distingue e modelli simili: è il fatto che si è basato su chip meno avanzati e su un approccio più focalizzato alla formazione. In quanto società cinese soggetta a restrizioni alle esportazioni degli Stati Uniti, DeepSeek non ha potuto accedere ai chip Nvidia avanzati generalmente utilizzati per l’elaborazione pesante richiesta per lo sviluppo di LLM, e quindi è stato costretto a utilizzare chip Nvidia H-800 meno potenti, che non possono elaborare i dati così velocemente o efficientemente.

Per compensare questa mancanza di potenza, DeepSeek ha adottato un approccio diverso, più focalizzato e diretto allo sviluppo del LLM. Invece di lanciare montagne di dati su un modello e affidarsi alla forza di calcolo per etichettare e applicare i dati, DeepSeek ha ristretto la formazione, utilizzando una piccola quantità di dati di alta qualità “cold-start” e applicando IRL (apprendimento per rinforzo iterativo, con l’algoritmo che applica i dati a diversi scenari e impara da essi). Questo approccio focalizzato consente al modello di imparare più velocemente, con meno errori e meno potenza di calcolo sprecata.

Simile a come i genitori possono guidare i movimenti specifici di un bambino, aiutandolo a rotolare con successo per la prima volta – piuttosto che lasciarlo scoprire da solo o insegnargli una varietà più ampia di movimenti che potrebbero aiutarlo a rotolare – i data scientist che formano questi modelli di intelligenza artificiale più focalizzati si concentrano su ciò che è più necessario per determinati compiti e risultati. Tali modelli non hanno probabilmente un’applicazione affidabile così ampia come i LLM più grandi come ChatGPT, ma possono essere affidati per applicazioni specifiche e portarle a termine con precisione e efficienza. Anche i critici di DeepSeek ammettono che il suo approccio razionalizzato allo sviluppo ha notevolmente aumentato l’efficienza, consentendogli di fare di più con molto meno.

Questo approccio consiste nel dare all’intelligenza artificiale i migliori input in modo che possa raggiungere i suoi obiettivi nel modo più intelligente e efficiente possibile, e può essere prezioso per qualsiasi organizzazione che desideri sviluppare un LLM per le proprie esigenze e compiti specifici. Un tale approccio è sempre più prezioso per le piccole aziende e le organizzazioni. Il primo passo consiste nell’iniziare con i dati giusti. Ad esempio, un’azienda che desidera utilizzare l’intelligenza artificiale per aiutare i propri team di vendita e marketing dovrebbe formare il proprio modello su un set di dati attentamente selezionato che si concentra su conversazioni di vendita, strategie e metriche. Ciò mantiene il modello dall’impiegare tempo e potenza di calcolo su informazioni non pertinenti. Inoltre, la formazione deve essere strutturata in fasi, assicurandosi che il modello padroneggi ogni compito o concetto prima di passare al successivo.

Ciò ha anche paralleli nell’allevare un bambino, come ho imparato io stessa da quando sono diventata madre alcuni mesi fa. In entrambi gli scenari, un approccio guidato e passo dopo passo evita di sprecare risorse e riduce l’attrito. Infine, un tale approccio sia con i bambini umani che con i modelli di intelligenza artificiale porta a un miglioramento iterativo. Man mano che il bambino cresce, o il modello impara di più, le sue capacità migliorano. Ciò significa che i modelli possono essere raffinati e migliorati per gestire meglio le situazioni del mondo reale.

Questo approccio mantiene i costi bassi, impedendo che i progetti di intelligenza artificiale diventino un drain di risorse, rendendoli più accessibili ai team e alle organizzazioni più piccoli. Porta anche a una migliore performance dei modelli di intelligenza artificiale più velocemente; e, poiché i modelli non sono sovraccarichi di dati estranei, possono anche essere adattati per adattarsi a nuove informazioni e alle mutevoli esigenze aziendali – chiave nei mercati competitivi.

L’arrivo di DeepSeek e del mondo dell’intelligenza artificiale a basso costo e più efficiente – sebbene abbia inizialmente diffuso il panico nel mondo dell’intelligenza artificiale e nei mercati azionari – è complessivamente uno sviluppo positivo per il settore dell’intelligenza artificiale. La maggiore efficienza e i minori costi dell’intelligenza artificiale, almeno per determinate applicazioni focalizzate, porteranno alla fine a un uso più ampio dell’intelligenza artificiale in generale, il che stimola la crescita per tutti, dagli sviluppatori ai produttori di chip agli utenti finali. In effetti, DeepSeek illustra il paradosso di Jevons – dove una maggiore efficienza porterà probabilmente a un uso maggiore di una risorsa, non minore. Poiché questa tendenza sembra destinata a continuare, le piccole aziende che si concentrano sull’uso dell’intelligenza artificiale per soddisfare le proprie esigenze specifiche saranno anche meglio posizionate per la crescita e il successo.

Stav Levi-Neumark è il CEO e co-fondatore di Alta e un esperto in gestione del prodotto e crescita dei ricavi. In precedenza, era uno dei primi dipendenti di Monday.com, dove ha aiutato a sviluppare "BigBrain", uno strumento di business intelligence interno utilizzato per le operazioni quotidiane dell'azienda. Stav detiene una laurea in scienze informatiche e statistica dell'Università Ebraica di Gerusalemme.