Connect with us

Inteligență artificială

Mașina LLM: O Breakthrough în Comunicația Uman-AV

mm

Pe măsură ce vehiculele autonome (AV) se apropie de adoptarea pe scară largă, o provocare semnificativă rămâne: podul de comunicare dintre pasagerii umani și șoferii lor robotici. În timp ce AV-urile au făcut progrese remarcabile în navigarea pe medii rutiere complexe, ele adesea se luptă să interpreteze comenzile naturale, limbajul natural care vine atât de ușor șoferilor umani.

Intră într-un studiu inovator de la Școala de Inginerie Civilă și Construcții Lyles a Universității Purdue. Condus de asistentul profesor Ziran Wang, o echipă de ingineri a înfrânt o abordare inovatoare pentru a îmbunătăți interacțiunea AV-umană folosind inteligența artificială. Soluția lor este de a integra modele de limbaj mare (LLM) precum ChatGPT în sisteme de conducere autonomă.

Puterea Limbajului Natural în AV

LLM reprezintă un salt înainte în capacitatea IA de a înțelege și genera text umanoid. Aceste sisteme AI sofisticate sunt antrenate pe cantități uriașe de date textuale, permițându-le să înțeleagă contextul, nuanța și sensul implicat în moduri în care răspunsurile programate tradiționale nu pot.

În contextul vehiculelor autonome, LLM oferă o capacitate transformativă. În contrast cu interfețele AV convenționale care se bazează pe comenzi vocale specifice sau intrări de butoane, LLM pot interpreta o gamă largă de instrucțiuni de limbaj natural. Acest lucru înseamnă că pasagerii pot comunica cu vehiculele lor în mod similar cu cel în care ar face-o cu un șofer uman.

Îmbunătățirea capacităților de comunicare AV este semnificativă. Imaginați-vă spunând mașinii dvs., “Sunt în întârziere,” și având-o automată pentru a calcula ruta cea mai eficientă, ajustând stilul de conducere pentru a minimiza în siguranță timpul de călătorie. Sau luați în considerare capacitatea de a spune, “Mă simt un pic rău,” provocând vehiculul să ajusteze profilul de mișcare pentru a oferi o călătorie mai lină. Aceste interacțiuni nuanțate, pe care șoferii umani le înțeleg intuitiv, devin posibile pentru AV prin integrarea LLM.

Asistentul profesor Ziran Wang de la Universitatea Purdue stă lângă un vehicul autonom de test pe care el și studenții săi l-au echipat pentru a interpreta comenzile de la pasageri folosind ChatGPT sau alte modele de limbaj mare. (Fotografie Universitatea Purdue/John Underwood)

Studiul Purdue: Metodologie și Rezultate

Pentru a testa potențialul LLM în vehicule autonome, echipa Purdue a condus o serie de experimente folosind un vehicul autonom de nivel patru – doar un pas departe de autonomia completă, așa cum este definită de SAE International.

Cercetătorii au început prin antrenarea ChatGPT pentru a răspunde la o gamă de comenzi, de la instrucțiuni directe precum “Vă rog, conduceți mai repede” la cereri mai indirecte, cum ar fi “Mă simt un pic rău în acest moment.” Ei au integrat apoi acest model antrenat cu sistemele existente ale vehiculului, permițându-i să ia în considerare factori precum regulile de trafic, condițiile rutiere, vremea și datele de la senzori atunci când interpretează comenzile.

Configurația experimentală a fost riguroasă. Cele mai multe teste au fost efectuate pe un teren de testare în Columbus, Indiana – o fostă pistă de aterizare care a permis testarea la viteze mari în siguranță. Testele suplimentare de parcare au fost efectuate în parcarea stadionului Ross-Ade al Universității Purdue. Pe parcursul experimentelor, AV-ul asistat de LLM a răspuns la comenzi atât preînvățate, cât și noi de la pasageri.

Rezultatele au fost promițătoare. Participanții au raportat rate semnificativ mai scăzute de disconfort în comparație cu experiențele tipice în AV de nivel patru fără asistență LLM. Vehiculul a depășit constant metricile de siguranță și confort de bază, chiar și atunci când a răspuns la comenzi pe care nu a fost explicit antrenat.

Poate cel mai impresionant, sistemul a demonstrat capacitatea de a învăța și de a se adapta la preferințele individuale ale pasagerilor pe parcursul unei călătorii, arătând potențialul pentru o transportare autonomă personalizată.

Studentul doctorand Can Cui stă pentru o călătorie în vehiculul autonom de test. Un microfon în consolă preia comenzile sale, care sunt interpretate de modelele de limbaj mare din cloud. Vehiculul conduce conform instrucțiunilor generate de la modelele de limbaj mare. (Fotografie Universitatea Purdue/John Underwood)

Implicații pentru Viitorul Transportului

Pentru utilizatori, beneficiile sunt multiple. Capacitatea de a comunica în mod natural cu un AV reduce curbă de învățare asociată cu o nouă tehnologie, făcând vehiculele autonome mai accesibile pentru o gamă mai largă de oameni, inclusiv cei care ar putea fi intimidați de interfețele complexe. Mai mult, capacitățile de personalizare demonstrate în studiul Purdue sugerează un viitor în care AV-urile pot adapta la preferințele individuale, oferind o experiență personalizată pentru fiecare pasager.

Această interacțiune îmbunătățită poate, de asemenea, să îmbunătățească siguranța. Prin înțelegerea mai bună a intenției și stării pasagerului – cum ar fi recunoașterea când cineva este în grabă sau se simte rău – AV-urile pot ajusta comportamentul de conducere în consecință, potențial reducând accidentele cauzate de comunicarea defectuoasă sau disconfortul pasagerilor.

Din perspectiva industriei, această tehnologie poate fi un diferențiator cheie pe piața competitivă a AV. Producătorii care pot oferi o experiență de utilizator mai intuitivă și mai reactivă pot câștiga un avantaj semnificativ.

Provocări și Direcții Viitoare

În ciuda rezultatelor promițătoare, mai rămân câteva provocări înainte ca AV-urile integrate cu LLM să devină o realitate pe drumurile publice. O problemă cheie este timpul de procesare. Sistemul actual are în medie 1,6 secunde pentru a interpreta și răspunde la o comandă – acceptabil pentru scenarii necritice, dar potențial problematic în situații care necesită răspunsuri rapide.

O altă preocupare semnificativă este potențialul LLM de a “halucina” sau de a interpreta greșit comenzile. Deși studiul a incorporat mecanisme de siguranță pentru a mitigă acest risc, abordarea acestei probleme în mod cuprinzător este crucială pentru implementarea în lumea reală.

Urmând înainte, echipa lui Wang explorează mai multe direcții pentru cercetarea ulterioară. Ei evaluează alte LLM, inclusiv asistenții AI Gemini de la Google și Llama de la Meta, pentru a compara performanța. Rezultatele preliminare sugerează că ChatGPT depășește în prezent pe alții în metrici de siguranță și eficiență, deși rezultatele publicate sunt în curs de apariție.

O direcție viitoare interesantă este potențialul de comunicare inter-vehicul folosind LLM. Acest lucru ar putea permite o gestionare a traficului mai sofisticată, cum ar fi AV-urile care negociază dreptul de trecere la intersecții.

De asemenea, echipa pornește un proiect pentru a studia modelele de viziune mare – sisteme AI antrenate pe imagini, nu pe text – pentru a ajuta AV-urile să navigheze condiții meteorologice extreme de iarnă comune în Midwest. Această cercetare, sprijinită de Centrul pentru Transport Conectat și Automat, ar putea îmbunătăți și mai mult adaptabilitatea și siguranța vehiculelor autonome.

Rezumatul

Cercetarea inovatoare a Universității Purdue privind integrarea modelelor de limbaj mare cu vehicule autonome marchează un moment crucial în tehnologia transportului. Prin facilitarea unei interacțiuni umane-AV mai intuitive și mai reactive, această inovație abordează o provocare critică în adoptarea AV. În timp ce obstacole precum viteza de procesare și posibilele interpretări greșite rămân, rezultatele promițătoare ale studiului deschid calea pentru un viitor în care comunicarea cu vehiculele noastre ar putea fi la fel de naturală ca conversația cu un șofer uman. Pe măsură ce această tehnologie evoluează, are potențialul de a revoluționa nu numai modul în care călătorim, ci și modul în care percepem și interacționăm cu inteligența artificială în viața noastră de zi cu zi.

Alex McFarland este un jurnalist și scriitor de inteligență artificială, care explorează cele mai recente dezvoltări în domeniul inteligenței artificiale. El a colaborat cu numeroase startup-uri de inteligență artificială și publicații din întreaga lume.