cung Lidhja e pikave: Zbërthimi i modelit të pretenduar Q-Star të OpenAI - Unite.AI
Lidhu me ne

Inteligjenca e Përgjithshme Artificiale

Lidhja e pikave: Zbërthimi i modelit të supozuar Q-Star të OpenAI

mm

Publikuar

 on

Kohët e fundit, ka pasur spekulime të konsiderueshme brenda komunitetit të AI rreth projektit të supozuar të OpenAI, Q-star. Pavarësisht informacionit të kufizuar të disponueshëm në lidhje me këtë iniciativë misterioze, thuhet se shënon një hap të rëndësishëm drejt arritjes së inteligjencës së përgjithshme artificiale - një nivel inteligjence që ose përputhet ose tejkalon aftësitë njerëzore. Ndërsa pjesa më e madhe e diskutimit është fokusuar në pasojat e mundshme negative të këtij zhvillimi për njerëzimin, ka pasur relativisht pak përpjekje kushtuar zbulimit të natyrës së yllit Q dhe avantazheve të mundshme teknologjike që mund të sjellë. Në këtë artikull, unë do të marr një qasje eksploruese, duke u përpjekur ta zbuloj këtë projekt kryesisht nga emri i tij, i cili besoj se ofron informacion të mjaftueshëm për të mbledhur njohuri rreth tij.

Sfondi i misterit

E gjitha filloi kur bordi i guvernatorëve në OpenAI papritmas rrëzoi Sam Altman, CEO dhe bashkëthemelues. Edhe pse Altman u rivendos më vonë, pyetjet vazhdojnë rreth ngjarjeve. Disa e shohin atë si një luftë për pushtet, ndërsa të tjerë ia atribuojnë përqendrimit të Altman në sipërmarrje të tjera si Worldcoin. Megjithatë, komploti trashet pasi Reuters raporton se një projekt i fshehtë i quajtur Q-star mund të jetë arsyeja kryesore e dramës. Sipas Reuters, Q-Star shënon një hap thelbësor drejt objektivit AGI të OpenAI, një çështje shqetësuese e përcjellë në bordin e guvernatorëve nga punëtorët e OpenAI. Dalja e këtij lajmi ka ndezur një lumë spekulimesh dhe shqetësimesh.

Blloqet ndërtuese të enigmës

Në këtë pjesë, unë kam prezantuar disa blloqe ndërtimi që do të na ndihmojnë të zbulojmë këtë mister.

  • Q Mësimi: Të mësuarit e përforcimit është një lloj mësimi makinerie ku kompjuterët mësojnë duke ndërvepruar me mjedisin e tyre, duke marrë reagime në formën e shpërblimeve ose ndëshkimeve. Q Learning është një metodë specifike brenda të mësuarit përforcues që i ndihmon kompjuterët të marrin vendime duke mësuar cilësinë (Q-vlera) e veprimeve të ndryshme në situata të ndryshme. Përdoret gjerësisht në skenarë si loja dhe robotika, duke i lejuar kompjuterët të mësojnë vendimmarrjen optimale përmes një procesi prove dhe gabimi.
  • Kërkimi me një yll: A-star është një algoritëm kërkimi që ndihmon kompjuterët të eksplorojnë mundësitë dhe të gjejnë zgjidhjen më të mirë për të zgjidhur një problem. Algoritmi është veçanërisht i dukshëm për efikasitetin e tij në gjetjen e shtegut më të shkurtër nga një pikënisje në një qëllim në një grafik ose rrjet. Fuqia e tij kryesore qëndron në peshimin e zgjuar të kostos së arritjes së një nyje kundrejt kostos së vlerësuar të arritjes së qëllimit të përgjithshëm. Si rezultat, A-star përdoret gjerësisht në adresimin e sfidave që lidhen me gjetjen e shtigjeve dhe optimizimin.
  • AlphaZero: alfazero, një sistem i avancuar i AI nga Deepmind, kombinon mësimin Q dhe kërkimin (d.m.th., Kërkimi i pemës në Monte Carlo) për planifikim strategjik në lojërat e tavolinës si shahu dhe Go. Ai mëson strategjitë optimale përmes vetë-lojës, i udhëhequr nga një rrjet nervor për vlerësimin e lëvizjeve dhe pozicionit. Algoritmi Monte Carlo Tree Search (MCTS) balancon eksplorimin dhe shfrytëzimin në eksplorimin e mundësive të lojës. Procesi i përsëritur i vetë-luajtjes, mësimit dhe kërkimit i AlphaZero çon në përmirësim të vazhdueshëm, duke mundësuar performancë mbinjerëzore dhe fitore mbi kampionët njerëzorë, duke demonstruar efektivitetin e tij në planifikimin strategjik dhe zgjidhjen e problemeve.
  • Modelet e gjuhës: Modele të mëdha gjuhësore (LLM), si GPT-3, janë një formë e AI e krijuar për të kuptuar dhe gjeneruar tekst të ngjashëm me njeriun. Ata i nënshtrohen trajnimit mbi të dhëna të gjera dhe të larmishme në internet, duke mbuluar një spektër të gjerë temash dhe stilesh shkrimi. Tipari i spikatur i LLM-ve është aftësia e tyre për të parashikuar fjalën tjetër në një sekuencë, e njohur si modelimi i gjuhës. Qëllimi është të jepet një kuptim se si fjalët dhe frazat ndërlidhen, duke i lejuar modelit të prodhojë tekst koherent dhe të përshtatshëm në kontekst. Trajnimi i gjerë i bën LLM-të të aftë për të kuptuar gramatikën, semantikën dhe madje edhe aspektet e nuancuara të përdorimit të gjuhës. Pasi të trajnohen, këto modele gjuhësore mund të rregullohen mirë për detyra ose aplikacione specifike, duke i bërë ato mjete të gjithanshme për përpunimi i gjuhës natyrore, chatbots, gjenerimi i përmbajtjes dhe më shumë.
  • Inteligjenca e Përgjithshme Artificiale: Inteligjenca e Përgjithshme Artificiale (AGI) është një lloj inteligjence artificiale me aftësinë për të kuptuar, mësuar dhe ekzekutuar detyra që përfshijnë fusha të ndryshme në një nivel që përputhet ose tejkalon aftësitë njohëse njerëzore. Në ndryshim nga AI i ngushtë ose i specializuar, AGI zotëron aftësinë për t'u përshtatur, arsyetuar dhe mësuar në mënyrë autonome pa u kufizuar në detyra specifike. AGI fuqizon sistemet e AI për të shfaqur vendimmarrje të pavarur, zgjidhjen e problemeve dhe të menduarit krijues, duke pasqyruar inteligjencën njerëzore. Në thelb, AGI mishëron idenë e një makinerie të aftë për të ndërmarrë çdo detyrë intelektuale të kryer nga njerëzit, duke theksuar shkathtësinë dhe përshtatshmërinë në fusha të ndryshme.

Kufizimet kryesore të LLM-ve në arritjen e AGI

Modelet e mëdha të gjuhës (LLM) kanë kufizime në arritjen e Inteligjencës së Përgjithshme Artificiale (AGI). Ndërsa janë të aftë në përpunimin dhe gjenerimin e tekstit bazuar në modele të mësuara nga të dhëna të gjera, ata luftojnë për të kuptuar botën reale, duke penguar përdorimin efektiv të njohurive. AGI kërkon aftësi arsyetimi dhe planifikimi me sens të përbashkët për trajtimin e situatave të përditshme, të cilat LLM-të i shohin sfiduese. Pavarësisht se prodhojnë përgjigje në dukje të sakta, atyre u mungon aftësia për të zgjidhur sistematikisht probleme komplekse, siç janë ato matematikore.

Studimet e reja tregojnë se LLM-të mund të imitojnë çdo llogaritje si një kompjuter universal, por janë të kufizuar nga nevoja për memorie të gjerë të jashtme. Rritja e të dhënave është thelbësore për përmirësimin e LLM-ve, por kërkon burime dhe energji të konsiderueshme llogaritëse, ndryshe nga truri i njeriut me efikasitet energjetik. Kjo paraqet sfida për t'i bërë LLM-të gjerësisht të disponueshme dhe të shkallëzueshme për AGI. Hulumtimet e fundit sugjerojnë se thjesht shtimi i më shumë të dhënave nuk përmirëson gjithmonë performancën, duke nxitur pyetjen se në çfarë tjetër duhet të përqendroheni në udhëtimin drejt AGI.

Lidh pikat

Shumë ekspertë të AI besojnë se sfidat me Modelet e Mëdha të Gjuhës (LLM) vijnë nga fokusi i tyre kryesor në parashikimin e fjalës tjetër. Kjo kufizon kuptimin e tyre për nuancat gjuhësore, arsyetimin dhe planifikimin. Për t'u marrë me këtë, studiuesit pëlqejnë Yann LeCun sugjeroni të provoni metoda të ndryshme trajnimi. Ata propozojnë që LLM-të duhet të planifikojnë në mënyrë aktive për parashikimin e fjalëve, jo vetëm shenjën tjetër.

Ideja e "Q-star", e ngjashme me strategjinë e AlphaZero, mund të përfshijë udhëzimin e LLM-ve që të planifikojnë në mënyrë aktive parashikimin e shenjave, jo vetëm të parashikojnë fjalën tjetër. Kjo sjell arsyetim dhe planifikim të strukturuar në modelin gjuhësor, duke shkuar përtej fokusit të zakonshëm në parashikimin e shenjës tjetër. Duke përdorur strategji planifikimi të frymëzuara nga AlphaZero, LLM-të mund të kuptojnë më mirë nuancat e gjuhës, të përmirësojnë arsyetimin dhe të përmirësojnë planifikimin, duke adresuar kufizimet e metodave të rregullta të trajnimit LLM.

Një integrim i tillë krijon një kornizë fleksibël për përfaqësimin dhe manipulimin e njohurive, duke ndihmuar sistemin të përshtatet me informacionin dhe detyrat e reja. Kjo përshtatshmëri mund të jetë vendimtare për Inteligjencën e Përgjithshme Artificiale (AGI), e cila duhet të trajtojë detyra dhe fusha të ndryshme me kërkesa të ndryshme.

AGI ka nevojë për sens të përbashkët dhe trajnimi i LLM-ve për të arsyetuar mund t'i pajisë ata me një kuptim gjithëpërfshirës të botës. Gjithashtu, trajnimi i LLM-ve si AlphaZero mund t'i ndihmojë ata të mësojnë njohuri abstrakte, duke përmirësuar të mësuarit e transferimit dhe përgjithësimin në situata të ndryshme, duke kontribuar në performancën e fortë të AGI.

Përveç emrit të projektit, mbështetja për këtë ide vjen nga një raport i Reuters, duke theksuar aftësinë e Q-star për të zgjidhur me sukses probleme specifike matematikore dhe të arsyetimit.

Bottom Line

Q-Star, projekti sekret i OpenAI, po bën valë në AI, duke synuar inteligjencën përtej njerëzve. Mes bisedave për rreziqet e tij të mundshme, ky artikull gërmon në enigmë, duke lidhur pika nga mësimi Q me AlphaZero dhe Modelet e Mëdha të Gjuhës (LLM).

Ne mendojmë se "Q-star" do të thotë një shkrirje e zgjuar e të mësuarit dhe kërkimit, duke u dhënë LLM-ve një nxitje në planifikim dhe arsyetim. Me Reuters që deklaron se mund të trajtojë probleme të ndërlikuara matematikore dhe të arsyetimit, ai sugjeron një përparim të madh. Kjo kërkon një vështrim më të afërt se ku mund të shkojë mësimi i AI në të ardhmen.

Dr. Tehseen Zia është një profesor i asociuar në Universitetin COMSATS të Islamabadit, me doktoraturë në AI nga Universiteti i Teknologjisë i Vjenës, Austri. I specializuar në Inteligjencën Artificiale, Mësimin e Makinerisë, Shkencën e të Dhënave dhe Vizionin Kompjuterik, ai ka dhënë kontribute të rëndësishme me botime në revista shkencore me reputacion. Dr. Tehseen ka udhëhequr gjithashtu projekte të ndryshme industriale si Hetues Kryesor dhe ka shërbyer si Konsulent i AI.