Seguici sui social

Vedere, pensare, spiegare: l'ascesa dei modelli linguistici della visione nell'intelligenza artificiale

Intelligenza Artificiale

Vedere, pensare, spiegare: l'ascesa dei modelli linguistici della visione nell'intelligenza artificiale

mm

Circa dieci anni fa, l'intelligenza artificiale era divisa tra il riconoscimento delle immagini e la comprensione del linguaggio. I modelli visivi potevano individuare gli oggetti ma non descriverli, e i modelli linguistici generavano testo ma non potevano "vedere". Oggi, questa divisione sta rapidamente scomparendo. Modelli di linguaggio visivo (VLM) ora combinano abilità visive e linguistiche, consentendo loro di interpretare le immagini e spiegarle in modi che sembrano quasi umani. Ciò che li rende davvero straordinari è il loro processo di ragionamento graduale, noto come Catena di pensiero, che contribuisce a trasformare questi modelli in strumenti potenti e pratici in settori come la sanità e l'istruzione. In questo articolo, esploreremo il funzionamento dei VLM, l'importanza del loro ragionamento e il modo in cui stanno trasformando settori che vanno dalla medicina alle auto a guida autonoma.

Comprendere i modelli linguistici della visione

I Vision Language Model, o VLM, sono un tipo di intelligenza artificiale in grado di comprendere contemporaneamente sia immagini che testo. A differenza dei vecchi sistemi di intelligenza artificiale che potevano gestire solo testo o immagini, i VLM combinano queste due capacità. Questo li rende incredibilmente versatili. Possono osservare un'immagine e descrivere cosa sta accadendo, rispondere a domande su un video o persino creare immagini basate su una descrizione scritta.

Ad esempio, se chiedi a un VLM di descrivere la foto di un cane che corre in un parco, un VLM non si limita a dire "C'è un cane". Può dirti "Il cane sta inseguendo una palla vicino a una grande quercia". Sta vedendo l'immagine e collegandola alle parole in un modo che abbia senso. Questa capacità di combinare la comprensione visiva e quella linguistica crea ogni sorta di possibilità, dall'aiutarti a cercare foto online all'assistenza in attività più complesse come la diagnostica per immagini.

In sostanza, i VLM funzionano combinando due elementi chiave: un sistema visivo che analizza le immagini e un sistema linguistico che elabora il testo. Il sistema visivo rileva dettagli come forme e colori, mentre il sistema linguistico li trasforma in frasi. I VLM vengono addestrati su enormi set di dati contenenti miliardi di coppie immagine-testo, il che conferisce loro una vasta esperienza per sviluppare una solida comprensione e un'elevata precisione.

Cosa significa ragionamento a catena di pensiero nei VLM

Il ragionamento a catena di pensiero, o CoT, è un modo per far ragionare l'IA passo dopo passo, proprio come noi affrontiamo un problema scomponendolo. Nei VLM, significa che l'IA non si limita a fornire una risposta quando le si chiede qualcosa su un'immagine, ma spiega anche come ci è arrivata, spiegando ogni passaggio logico lungo il percorso.

Supponiamo di mostrare a un VLM l'immagine di una torta di compleanno con le candeline e di chiedere: "Quanti anni ha la persona?". Senza CoT, potrebbe semplicemente indovinare un numero. Con CoT, ci pensa su: "Ok, vedo una torta con le candeline. Le candeline di solito indicano l'età di una persona. Contiamole, ce ne sono 10. Quindi, la persona ha probabilmente 10 anni". È possibile seguire il ragionamento man mano che si sviluppa, il che rende la risposta molto più affidabile.

Allo stesso modo, se al VLM venisse mostrata una scena di traffico e gli venisse chiesto: "È sicuro attraversare?", il VLM potrebbe ragionare: "Il semaforo pedonale è rosso, quindi non dovresti attraversarlo. C'è anche un'auto che sta svoltando nelle vicinanze, ed è in movimento, non ferma. Ciò significa che al momento non è sicuro". Eseguendo questi passaggi, l'IA mostra esattamente a cosa sta prestando attenzione nell'immagine e perché decide cosa fare.

Perché la catena di pensiero è importante nei VLM

L'integrazione del ragionamento CoT nei VLM offre diversi vantaggi chiave.

Innanzitutto, rende l'IA più affidabile. Quando spiega i suoi passaggi, si ottiene una chiara comprensione di come ha raggiunto la risposta. Questo è importante in settori come l'assistenza sanitaria. Ad esempio, guardando una risonanza magnetica, un VLM potrebbe dire: "Vedo un'ombra nell'emisfero sinistro del cervello. Quell'area controlla il linguaggio e il paziente ha difficoltà a parlare, quindi potrebbe trattarsi di un tumore". Un medico può seguire questa logica e sentirsi sicuro dell'input dell'IA.

In secondo luogo, aiuta l'IA ad affrontare problemi complessi. Scomponendo le cose, può gestire domande che richiedono più di una rapida occhiata. Ad esempio, contare le candele è semplice, ma valutare la sicurezza su una strada trafficata richiede più passaggi, tra cui controllare i semafori, individuare le auto e valutare la velocità. CoT consente all'IA di gestire questa complessità suddividendola in più fasi.

Infine, rende l'IA più adattabile. Ragionando passo dopo passo, può applicare ciò che sa a nuove situazioni. Se non ha mai visto prima un tipo specifico di torta, può comunque capire il collegamento tra l'età delle candele e la loro durata, perché ci sta pensando attentamente, non basandosi solo su schemi memorizzati.

Come la catena di pensiero e i VLM stanno ridefinendo i settori industriali

La combinazione di CoT e VLM sta avendo un impatto significativo in diversi campi:

  • Assistenza sanitaria: In medicina, i VLM come Med-PaLM 2 di Google Utilizzare CoT per scomporre quesiti medici complessi in passaggi diagnostici più piccoli. Ad esempio, quando viene eseguita una radiografia del torace e si presentano sintomi come tosse e mal di testa, l'IA potrebbe pensare: "Questi sintomi potrebbero essere un raffreddore, allergie o qualcosa di peggio. Non ci sono linfonodi ingrossati, quindi è improbabile che si tratti di un'infezione grave. I polmoni sembrano puliti, quindi probabilmente non si tratta di polmonite. Un raffreddore comune è la soluzione migliore". Esamina le opzioni e trova una risposta, fornendo ai medici una spiegazione chiara su cui lavorare.
  • Auto a guida autonoma: Per i veicoli autonomi, i VLM potenziati dalla CoT migliorano la sicurezza e il processo decisionale. Ad esempio, un'auto a guida autonoma può analizzare una scena di traffico passo dopo passo: controllando i segnali pedonali, identificando i veicoli in movimento e decidendo se è sicuro procedere. Sistemi come LINGO-1 di Wayve Generare commenti in linguaggio naturale per spiegare azioni come rallentare per un ciclista. Questo aiuta ingegneri e passeggeri a comprendere il processo di ragionamento del veicolo. La logica stepwise consente inoltre una migliore gestione di condizioni stradali insolite, combinando input visivi con conoscenze contestuali.
  • Analisi geospaziale: Google Si applica il modello Gemelli Ragionamento CoT su dati spaziali come mappe e immagini satellitari. Ad esempio, può valutare i danni causati da uragani integrando immagini satellitari, previsioni meteorologiche e dati demografici, generando quindi visualizzazioni chiare e risposte a domande complesse. Questa capacità accelera la risposta ai disastri fornendo ai decisori informazioni tempestive e utili senza richiedere competenze tecniche.
  • Robotica: In robotica, l'integrazione di CoT e VLM consente ai robot di pianificare ed eseguire meglio attività multi-step. Ad esempio, quando un robot deve raccogliere un oggetto, un VLM con CoT gli permette di identificare la tazza, determinare i punti di presa migliori, pianificare un percorso senza collisioni ed eseguire il movimento, il tutto "spiegando" ogni fase del processo. Progetti come RT-2 dimostrare come la CoT consenta ai robot di adattarsi meglio ai nuovi compiti e di rispondere a comandi complessi con un ragionamento chiaro.
  • Educazione: Nell'apprendimento, i tutor AI come Khanfriend Usare CoT per insegnare meglio. Per un problema di matematica, potrebbe guidare uno studente: "Prima, scrivi l'equazione. Poi, ottieni la sola variabile sottraendo 5 da entrambi i membri. Ora, dividi per 2". Invece di consegnare la risposta, guida lo studente attraverso il processo, aiutandolo a comprendere i concetti passo dopo passo.

Conclusione

I Vision Language Model (VLM) consentono all'IA di interpretare e spiegare i dati visivi utilizzando un ragionamento graduale, simile a quello umano, attraverso processi di Chain-of-Thought (CoT). Questo approccio aumenta la fiducia, l'adattabilità e la capacità di problem-solving in settori come la sanità, le auto a guida autonoma, l'analisi geospaziale, la robotica e l'istruzione. Trasformando il modo in cui l'IA affronta compiti complessi e supporta il processo decisionale, i VLM stanno definendo un nuovo standard per una tecnologia intelligente affidabile e pratica.

Il dottor Tehseen Zia è professore associato di ruolo presso l'Università COMSATS di Islamabad e ha conseguito un dottorato di ricerca in intelligenza artificiale presso l'Università della Tecnologia di Vienna, in Austria. Specializzato in Intelligenza Artificiale, Machine Learning, Data Science e Computer Vision, ha dato contributi significativi con pubblicazioni su rinomate riviste scientifiche. Il dottor Tehseen ha anche guidato vari progetti industriali in qualità di ricercatore principale e ha lavorato come consulente in materia di intelligenza artificiale.