Spojte se s námi

Robotika

Jak se roboti učí žádat o pomoc

Zveřejněno

 on

V rozvíjejícím se světě robotiky vyniká průlomová spolupráce mezi Princetonskou univerzitou a Googlem. Inženýři z těchto prestižních institucí vyvinuli inovativní metodu, která učí roboty klíčové dovednosti: rozpoznat, kdy potřebují pomoc a jak o ni požádat. Tento vývoj znamená významný skok vpřed v robotice, překlenuje propast mezi autonomním fungováním a interakcí mezi člověkem a robotem.

Cestě k inteligentnějším a nezávislejším robotům vždy bránila jedna významná výzva: složitost a nejednoznačnost lidského jazyka. Na rozdíl od binární srozumitelnosti počítačových kódů je lidský jazyk prošpikovaný nuancemi a jemnostmi, což z něj dělá labyrint pro roboty. Například tak jednoduchý příkaz jako „zvednout misku“ se může stát složitým úkolem, pokud je přítomno více misek. Roboti, kteří jsou vybaveni cítit své prostředí a reagovat na jazyk, se často ocitají na křižovatce, když čelí takovým jazykovým nejistotám.

Kvantifikace nejistoty

V reakci na tuto výzvu představil tým Princetonu a Google nový přístup, který kvantifikuje „rozmazanost“ lidského jazyka. Tato technika v podstatě měří úroveň nejistoty v jazykových příkazech a používá tuto metriku k řízení akcí robota. V situacích, kdy příkaz může vést k více interpretacím, může nyní robot změřit míru nejistoty a rozhodnout se, kdy hledat další objasnění. Například v prostředí s více miskami by vyšší stupeň nejistoty přiměl robota, aby se zeptal, kterou misku má zvednout, čímž se zabrání potenciálním chybám nebo neefektivitě.

Tento přístup nejen umožňuje robotům lépe rozumět jazyku, ale také zvyšuje jejich bezpečnost a efektivitu při provádění úkolů. Integrací velkých jazykových modelů (LLM), jako jsou modely ChatGPT, učinili vědci významný krok k tomu, aby robotické akce lépe sladily s lidskými očekáváními a potřebami.

Role velkých jazykových modelů

Integrace LLM hraje v tomto novém přístupu klíčovou roli. LLM jsou nástrojem pro zpracování a interpretaci lidského jazyka. V této souvislosti se používají k vyhodnocení a měření nejistoty přítomné v jazykových příkazech zadaných robotům.

Spolehlivost na LLM však není bez problémů. Jak upozornil výzkumný tým, výstupy z LLM mohou být někdy nespolehlivé.

Anirudha Majumdar, odborná asistentka na Princetonu, zdůrazňuje důležitost této rovnováhy:

„Slepé dodržování plánů vytvořených LLM by mohlo způsobit, že se roboti budou chovat nebezpečným nebo nedůvěryhodným způsobem, a proto potřebujeme, aby naši roboti na LLM věděli, když nevědí.“

To zdůrazňuje nezbytnost nuancovaného přístupu, kde jsou LLM používány spíše jako nástroje pro vedení než jako neomylní rozhodovatelé.

Praktická aplikace a testování

Praktičnost této metody byla testována v různých scénářích, což dokládá její všestrannost a účinnost. Jeden takový test zahrnoval robotické rameno, jehož úkolem bylo roztřídit potraviny do různých kategorií. Toto jednoduché nastavení demonstrovalo schopnost robota efektivně procházet úkoly s jasnými volbami.

Obrázek: Princetonská univerzita

Složitost se výrazně zvýšila v dalším experimentu s robotickým ramenem namontovaným na plošině s kolečky v kancelářské kuchyni. Robot zde čelil skutečným výzvám, jako je identifikace správného předmětu, který se má umístit do mikrovlnné trouby, když mu bylo předloženo více možností.

Prostřednictvím těchto testů roboti úspěšně prokázali svou schopnost využívat kvantifikovanou nejistotu k rozhodování nebo hledání vysvětlení, čímž potvrdili praktickou užitečnost této metody.

Budoucí implikace a výzkum

Při pohledu do budoucna sahají důsledky tohoto výzkumu daleko za hranice současných aplikací. Tým vedený Majumdarem a postgraduálním studentem Allenem Renem zkoumá, jak lze tento přístup aplikovat na složitější problémy ve vnímání robotů a AI. To zahrnuje scénáře, kdy roboti potřebují k rozhodování kombinovat vidění a jazykové informace, čímž se dále zmenšuje propast mezi robotickým chápáním a interakcí mezi lidmi.

Probíhající výzkum si klade za cíl nejen zlepšit schopnost robotů vykonávat úkoly s vyšší přesností, ale také navigovat světem s porozuměním podobným lidskému poznání. Tento výzkum by mohl připravit cestu pro roboty, které jsou nejen efektivnější a bezpečnější, ale také více v souladu s rozdílnými požadavky lidského prostředí.

Publikovaný výzkum najdete zde.

Alex McFarland je AI novinář a spisovatel, který zkoumá nejnovější vývoj v oblasti umělé inteligence. Spolupracoval s řadou AI startupů a publikací po celém světě.