никулец Поврзување на точките: Откривање на наводниот модел Q-Star на OpenAI - Unite.AI
Поврзете се со нас

Вештачка општа интелигенција

Поврзување на точките: Откривање на наводниот модел Q-Star на OpenAI

mm

Објавено

 on

Неодамна, имаше значителни шпекулации во заедницата за вештачка интелигенција околу наводниот проект на OpenAI, Q-star. И покрај ограничените достапни информации за оваа мистериозна иницијатива, се вели дека означува значаен чекор кон постигнување на вештачка општа интелигенција - ниво на интелигенција што или одговара или ги надминува човечките способности. Додека голем дел од дискусијата се фокусираше на потенцијалните негативни последици од овој развој за човештвото, имаше релативно мал напор посветен на откривање на природата на Q-ѕвездата и потенцијалните технолошки предности што може да ги донесе. Во оваа статија, ќе преземам истражувачки пристап, обидувајќи се да го откријат овој проект првенствено од неговото име, кое верувам дека дава доволно информации за да се соберат сознанија за него.

Позадина на мистерија

Сè започна кога одборот на гувернери на OpenAI одеднаш го собори Сем Алтман, извршниот директор и ко-основач. Иако Алтман беше вратен подоцна, прашањата за настаните опстојуваат. Некои тоа го гледаат како борба за моќ, додека други го припишуваат на фокусот на Алтман на други потфати како Worldcoin. Сепак, заплетот се згуснува бидејќи Ројтерс известува дека таен проект наречен Q-star може да биде главната причина за драмата. Според Ројтерс, Q-Star означува значителен чекор кон целта на OpenAI AGI, прашање на загриженост пренесено до одборот на гувернери од работниците на OpenAI. Појавата на оваа вест предизвика поплава од шпекулации и загрижености.

Градежни блокови на загатката

Во овој дел, воведов некои градежни блокови кои ќе ни помогнат да ја откриеме оваа мистерија.

  • П учење: Засилување на учењето е вид на машинско учење каде компјутерите учат преку интеракција со нивната околина, добивајќи повратни информации во форма на награди или казни. Учењето Q е специфичен метод во рамките на зајакнувачкото учење што им помага на компјутерите да донесуваат одлуки преку учење на квалитетот (Q-вредноста) на различни дејства во различни ситуации. Широко се користи во сценарија како играње игри и роботика, овозможувајќи им на компјутерите да научат оптимално одлучување преку процес на обиди и грешки.
  • Пребарување со А-ѕвезда: A-star е алгоритам за пребарување кој им помага на компјутерите да ги истражуваат можностите и да го најдат најдоброто решение за решавање на проблемот. Алгоритмот е особено забележлив по неговата ефикасност во наоѓање на најкраткиот пат од почетна точка до цел во графикон или мрежа. Неговата клучна сила лежи во паметното одмерување на трошоците за постигнување јазол наспроти проценетите трошоци за постигнување на севкупната цел. Како резултат на тоа, A-star интензивно се користи за справување со предизвиците поврзани со пронаоѓање патеки и оптимизација.
  • АлфаЗеро: АлфаЗеро, напреден ВИ систем од Deepmind, комбинира Q-учење и пребарување (т.е. пребарување на дрвото во Монте Карло) за стратешко планирање во игри на табла како шах и Go. Ги учи оптималните стратегии преку само-игра, водени од невронска мрежа за потези и проценка на позицијата. Алгоритмот за пребарување на дрвото во Монте Карло (MCTS) ги балансира истражувањето и експлоатацијата во истражувањето на можностите на играта. Повторувачкиот процес на самоиграње, учење и пребарување на AlphaZero води до континуирано подобрување, овозможувајќи натчовечки перформанси и победи над човечките шампиони, покажувајќи ја својата ефикасност во стратешкото планирање и решавањето проблеми.
  • Јазични модели: Големи јазични модели (LLMs), како GPT-3, се форма на вештачка интелигенција дизајнирана за разбирање и генерирање текст сличен на човекот. Тие се подложени на обука за обемни и разновидни интернет податоци, покривајќи широк спектар на теми и стилови на пишување. Извонредната карактеристика на LLM е нивната способност да го предвидат следниот збор во низа, позната како моделирање на јазици. Целта е да се пренесе разбирање за тоа како меѓусебно се поврзуваат зборовите и фразите, овозможувајќи му на моделот да произведе кохерентен и контекстуално релевантен текст. Обемната обука ги прави LLM умешни во разбирањето на граматиката, семантиката, па дури и нијансираните аспекти на употребата на јазикот. Откако ќе се обучат, овие јазични модели може да се дотераат за специфични задачи или апликации, што ги прави разновидни алатки за обработка на природен јазик, чат-ботови, генерирање содржини и многу повеќе.
  • Вештачка општа интелигенција: Вештачка општа интелигенција (AGI) е вид на вештачка интелигенција со капацитет за разбирање, учење и извршување задачи кои опфаќаат различни домени на ниво што одговара или ги надминува човечките когнитивни способности. За разлика од тесната или специјализираната вештачка интелигенција, AGI поседува способност за автономно прилагодување, расудување и учење без да биде ограничено на специфични задачи. AGI ги овластува системите за вештачка интелигенција да покажат независно одлучување, решавање проблеми и креативно размислување, пресликувајќи ја човечката интелигенција. Во суштина, AGI ја отелотворува идејата за машина способна да преземе каква било интелектуална задача што ја извршуваат луѓето, истакнувајќи ја разновидноста и приспособливоста во различни домени.

Клучни ограничувања на LLM во постигнување на AGI

Големите јазични модели (LLMs) имаат ограничувања во постигнувањето на вештачка општа интелигенција (AGI). Иако се вешти во обработката и генерирањето текст врз основа на научени обрасци од огромни податоци, тие се борат да го разберат реалниот свет, попречувајќи ја ефективната употреба на знаењето. AGI бара здрав разум расудување и способности за планирање за справување со секојдневните ситуации, за кои LLM сметаат дека се предизвик. И покрај тоа што произведуваат навидум точни одговори, тие немаат способност систематски да решаваат сложени проблеми, како што се математичките.

Новите студии покажуваат дека LLM може да имитираат какви било пресметки како универзален компјутер, но се ограничени од потребата за обемна надворешна меморија. Зголемувањето на податоците е клучно за подобрување на LLM, но бара значителни пресметковни ресурси и енергија, за разлика од енергетски ефикасниот човечки мозок. Ова претставува предизвици за правење LLM широко достапни и скалабилни за AGI. Неодамнешното истражување сугерира дека едноставното додавање повеќе податоци не секогаш ги подобрува перформансите, што го наметнува прашањето на што друго да се фокусира при патувањето кон AGI.

Поврзувачки точки

Многу експерти за вештачка интелигенција веруваат дека предизвиците со големите јазични модели (LLM) доаѓаат од нивниот главен фокус на предвидување на следниот збор. Ова го ограничува нивното разбирање на јазичните нијанси, расудувањето и планирањето. За да се справат со ова, истражувачите сакаат Јан ЛеКун предложи да пробаш различни методи на обука. Тие предлагаат LLM активно да планираат за предвидување зборови, а не само за следниот знак.

Идејата за „Q-star“, слична на стратегијата на AlphaZero, може да вклучува инструкции на LLM активно да планираат за предвидување на знаци, а не само да го предвидат следниот збор. Ова носи структурирано расудување и планирање во јазичниот модел, надминувајќи го вообичаениот фокус на предвидување на следниот знак. Со користење на стратегии за планирање инспирирани од AlphaZero, LLM можат подобро да ги разберат јазичните нијанси, да го подобрат расудувањето и да го подобрат планирањето, решавајќи ги ограничувањата на редовните методи за обука за LLM.

Таквата интеграција поставува флексибилна рамка за претставување и манипулирање со знаењето, помагајќи му на системот да се прилагоди на новите информации и задачи. Оваа приспособливост може да биде клучна за вештачката општа интелигенција (AGI), која треба да се справи со различни задачи и домени со различни барања.

На AGI му треба здрав разум, а обуката на LLM за разум може да ги опреми со сеопфатно разбирање на светот. Исто така, обуката за LLM како AlphaZero може да им помогне да научат апстрактно знаење, да го подобрат учењето за пренос и генерализацијата низ различни ситуации, придонесувајќи за силните перформанси на AGI.

Покрај името на проектот, поддршката за оваа идеја доаѓа од извештајот на Ројтерс, кој ја истакнува способноста на Q-star успешно да решава конкретни математички и резонирани проблеми.

Во крајна линија

Q-Star, тајниот проект на OpenAI, создава бранови во вештачката интелигенција, со цел за интелигенција надвор од луѓето. Среде разговорите за неговите потенцијални ризици, овој напис копа во сложувалката, поврзувајќи точки од Q-учење со AlphaZero и големи јазични модели (LLMs).

Сметаме дека „Q-star“ значи паметна фузија на учење и пребарување, давајќи им на LLM поттик во планирањето и расудувањето. Бидејќи Ројтерс наведува дека може да се справи со незгодни математички и проблеми со расудувањето, тоа сугерира голем напредок. Ова бара внимателно да се погледне каде учењето со вештачка интелигенција би можело да се движи во иднина.

Д-р Техсен Зиа е вонреден професор на Универзитетот COMSATS во Исламабад, докторирајќи по вештачка интелигенција од Виенскиот универзитет за технологија, Австрија. Специјализиран за вештачка интелигенција, машинско учење, наука за податоци и компјутерска визија, тој има направено значителен придонес со публикации во реномирани научни списанија. Д-р Техсин, исто така, водеше различни индустриски проекти како главен истражувач и служеше како консултант за вештачка интелигенција.