stubs AI mācās no AI: sociālās mācīšanās parādīšanās lielo valodu modeļu vidū — Unite.AI
Savienoties ar mums

Mākslīgais intelekts

AI mācās no AI: sociālās mācīšanās parādīšanās lielo valodu modeļu vidū

mm
Atjaunināts on

Kopš OpenAI atklāšanas ChatGPT 3.5 2022. gada beigās – fundamentāla loma lieli valodu modeļi (LLM) ir kļuvuši arvien nozīmīgāki mākslīgā intelekta (AI) jomā, jo īpaši dabiskās valodas apstrāde (NLP). Šie LLM, kas izstrādāti, lai apstrādātu un ģenerētu cilvēkiem līdzīgu tekstu, mācās no plaša interneta tekstu klāsta, sākot no grāmatām līdz vietnēm. Šis mācību process ļauj viņiem uztvert cilvēku valodas būtību, liekot LLM izskatīties kā vispārējas nozīmes problēmu risinātājiem.

Lai gan LLM attīstība ir pavērusi jaunas durvis, metode šo modeļu pielāgošanai konkrētām lietojumprogrammām, kas pazīstama kā laba skaņa— rada savus izaicinājumus. Modeļa precizēšanai nepieciešama papildu apmācība par mērķtiecīgākām datu kopām, kas var radīt grūtības, piemēram, prasība pēc marķētiem datiem, modeļa dreifs un pārmērīga pielāgošana, un nepieciešamību pēc ievērojamiem resursiem.

Risinot šīs problēmas, Google pētnieki nesen ir pieņēmuši idejussociālā mācīšanāslai palīdzētu AI mācīties no AI. Galvenā ideja ir tāda, ka tad, kad LLM tiek pārveidoti par tērzēšanas robotiem, tie var mijiedarboties un mācīties viens no otra līdzīgi kā cilvēka sociālajā mācībā. Šī mijiedarbība ļauj viņiem mācīties vienam no otra, tādējādi uzlabojot savu efektivitāti.

Kas ir sociālā mācīšanās?

Sociālā mācīšanās nav jauna ideja. Tas ir balstīts uz 1970. gadu teoriju Alberts Bandura, kas liek cilvēkiem mācīties, vērojot citus. Šī koncepcija, ko piemēro AI, nozīmē, ka AI sistēmas var uzlaboties, savstarpēji mijiedarbojoties, mācoties ne tikai no tiešas pieredzes, bet arī no vienaudžu darbībām. Šī metode sola ātrāku prasmju apgūšanu un var pat ļaut AI sistēmām attīstīt savu "kultūru", daloties zināšanās.

Atšķirībā no citām AI mācīšanās metodēm, piemēram, izmēģinājumu un kļūdu pastiprināt mācīšanās or imitācijas mācības no tiešiem piemēriem sociālā mācīšanās uzsver mācīšanos caur mijiedarbību. Tas piedāvā praktiskāku un komunālāku veidu, kā AI apgūt jaunas prasmes.

Sociālā mācīšanās LLM

Svarīgs sociālās mācīšanās aspekts ir zināšanu apmaiņa, nedaloties ar oriģinālu un sensitīvu informāciju. Kā, pētnieki ir izmantojuši skolotāja un studenta dinamiku, kur skolotāju modeļi atvieglo studentu modeļu mācību procesu, neatklājot nekādas konfidenciālas detaļas. Lai sasniegtu šo mērķi, skolotāju modeļi ģenerē sintētiskus piemērus vai norādījumus, no kuriem studentu modeļi var mācīties, nedaloties ar faktiskajiem datiem. Piemēram, apsveriet skolotāja modeli, kas apmācīts atšķirt surogātpasta īsziņas un īsziņas, kas nav mēstules, izmantojot lietotāju atzīmētos datus. Ja vēlamies, lai cits modelis veiktu šo uzdevumu, nepieskaroties oriģinālajiem, privātajiem datiem, tiek izmantota sociālā mācīšanās. Skolotāja modelis radītu sintētiskus piemērus vai sniegtu ieskatus, pamatojoties uz savām zināšanām, ļaujot studenta modelim precīzi identificēt surogātpasta ziņojumus, nepakļaujoties tieši sensitīviem datiem. Šī stratēģija ne tikai uzlabo mācību efektivitāti, bet arī parāda LLM potenciālu mācīties dinamiskos, pielāgojamos veidos, potenciāli veidojot kolektīvu zināšanu kultūru. Šīs pieejas būtiska iezīme ir tās paļaušanās uz sintētiskiem piemēriem un izstrādātām instrukcijām. Ģenerējot jaunus, informatīvus piemērus, kas atšķiras no sākotnējās datu kopas, skolotāju modeļi var saglabāt privātumu, vienlaikus virzot skolēnu modeļus uz efektīvu mācīšanos. Šī pieeja ir bijusi efektīva, sasniedzot rezultātus, kas līdzvērtīgi tiem, kas iegūti, izmantojot faktiskos datus.

Kā sociālā mācīšanās risina precizēšanas problēmas?

Sociālā mācīšanās piedāvā jaunu veidu, kā uzlabot LLM konkrētiem uzdevumiem. Tas palīdz tikt galā ar precizēšanas izaicinājumiem šādos veidos:

  1. Mazāk nepieciešami marķēti dati: Mācoties no sintētiskiem piemēriem, ko kopīgi izmanto modeļi, sociālā mācīšanās samazina paļaušanos uz grūti iegūstamiem marķētiem datiem.
  2. Izvairīšanās no pārmērīgas specializācijas: Tas padara modeļus daudzpusīgus, pakļaujot tiem plašāku piemēru klāstu nekā nelielās, specifiskās datu kopās.
  3. Pārmērīgas komplektēšanas samazināšana: Sociālā mācīšanās paplašina mācīšanās pieredzi, palīdzot modeļiem labāk vispārināt un izvairīties no pārmērīgas atbilstības.
  4. Resursu taupīšana: Šī pieeja ļauj efektīvāk izmantot resursus, jo modeļi mācās viens no otra pieredzes, neprasot tiešu piekļuvi lielām datu kopām.

Turpmākie norādījumi

Sociālās mācīšanās potenciāls LLM piedāvā dažādus interesantus un jēgpilnus veidus turpmākajiem AI pētījumiem:

  1. Hibrīda AI kultūras: Tā kā LLM piedalās sociālajā mācībā, viņi var sākt veidot kopējas metodoloģijas. Varētu veikt pētījumus, lai izpētītu šo jauno AI “kultūru” ietekmi, pārbaudot to ietekmi uz cilvēku mijiedarbību un ar to saistītos ētiskos jautājumus.
  2. Cross-Modality mācīšanās: Sociālās mācīšanās paplašināšana ārpus teksta, iekļaujot attēlus, skaņas un daudz ko citu, varētu radīt AI sistēmas ar bagātāku izpratni par pasauli, līdzīgi kā cilvēki mācās, izmantojot vairākas sajūtas.
  3. Decentralizēta mācīšanās: ideja par AI modeļiem, kas mācās viens no otra decentralizētā tīklā, piedāvā jaunu veidu, kā paplašināt zināšanu apmaiņu. Tam būtu jārisina nozīmīgas problēmas koordinācijas, privātuma un drošības jomā.
  4. Cilvēka un AI mijiedarbība: Ir potenciāls izpētīt, kā cilvēki un AI var gūt savstarpēju labumu no sociālās mācīšanās, jo īpaši izglītības un sadarbības apstākļos. Tas varētu no jauna definēt, kā notiek zināšanu nodošana un inovācija.
  5. Ētiskā AI attīstība: AI mācīšana risināt ētiskas dilemmas, izmantojot sociālo mācīšanos, varētu būt solis ceļā uz atbildīgāku AI. Uzmanība būtu vērsta uz tādu AI sistēmu izstrādi, kuras var ētiski pamatot un atbilst sabiedrības vērtībām.
  6. Pašpilnveidojošās sistēmas: ekosistēma, kurā AI modeļi nepārtraukti mācās un uzlabojas viens no otra pieredzes, varētu paātrināt AI inovācijas. Tas liecina par nākotni, kurā AI var autonomāk pielāgoties jauniem izaicinājumiem.
  7. Privātums mācībās: AI modeļiem daloties zināšanās, ir ļoti svarīgi nodrošināt pamatā esošo datu privātumu. Turpmākajos centienos varētu izpētīt sarežģītākas metodes, lai nodrošinātu zināšanu nodošanu, neapdraudot datu drošību.

Bottom Line

Google pētnieki ir ieviesuši novatorisku pieeju, ko sauc par sociālo mācīšanos lielo valodu modeļos (LLM), ko iedvesmo cilvēka spēja mācīties, novērojot citus. Šī sistēma ļauj LLM dalīties zināšanās un uzlabot iespējas, nepiekļūstot vai neatklājot sensitīvus datus. Ģenerējot sintētiskos piemērus un instrukcijas, LLM var efektīvi mācīties, risinot galvenās AI izstrādes problēmas, piemēram, vajadzību pēc marķētiem datiem, pārmērīgu specializāciju, pārmērīgu aprīkošanu un resursu patēriņu. Sociālā mācīšanās ne tikai uzlabo mākslīgā intelekta efektivitāti un pielāgošanās spēju, bet arī paver AI iespējas attīstīt kopīgas “kultūras”, iesaistīties vairāku veidu mācībās, piedalīties decentralizētos tīklos, mijiedarboties ar cilvēkiem jaunos veidos, pārvarēt ētiskās dilemmas un nodrošināt privātumu. Tas iezīmē būtisku pāreju uz sadarbību veicinošākām, daudzpusīgākām un ētiskākām AI sistēmām, solot no jauna definēt mākslīgā intelekta pētniecības un pielietošanas ainavu.

Dr. Tehseen Zia ir Islamabadas COMSATS universitātes asociētais profesors, un viņam ir doktora grāds mākslīgā intelekta zinātnē Vīnes Tehnoloģiju universitātē, Austrijā. Specializējoties mākslīgajā intelektā, mašīnmācībā, datu zinātnē un datorredzībā, viņš ir devis nozīmīgu ieguldījumu ar publikācijām cienījamos zinātniskos žurnālos. Dr. Tehsēns ir arī vadījis dažādus rūpnieciskus projektus kā galvenais pētnieks un strādājis par AI konsultantu.