výhonek Výzkumníci zjistili, že sluch může zlepšit vnímání robotů - Unite.AI
Spojte se s námi

Robotika

Vědci zjistili, že sluch může zlepšit vnímání robotů

Zveřejněno

 on

Dnešní roboti většinou spoléhají na vidění a dotek, aby fungovali ve svém prostředí, ale to by se mohlo změnit s novým výzkumem vycházejícím z Carnegie Mellon University (CMU). Skupina výzkumníků zjistila, že vnímání robotů se může zlepšit prostřednictvím sluchu. 

Výzkum byl podle výzkumníků z Institutu robotiky CMU první rozsáhlou studií interakcí mezi zvukem a robotickou akcí. Skupina zjistila, že zvuk může hrát roli při pomoci robotům rozlišovat mezi objekty. Pomocí sluchu by roboti mohli také určit, jaký typ akce způsobil zvuk, a zvuky by mohly pomoci předpovídat fyzikální vlastnosti nových objektů.

Lerrel Pinto je Ph.D v oboru robotiky na CMU a letos na podzim bude součástí fakulty New York University.

"Mnoho přípravných prací v jiných oblastech naznačilo, že zvuk by mohl být užitečný, ale nebylo jasné, jak užitečný by byl v robotice," řekl Pinto.

Pinto a skupina výzkumníků zjistili, že míra výkonu byla poměrně vysoká, konkrétně 76procentní míra přesnosti u robotů používajících zvuk k úspěšné klasifikaci objektů. 

Protože výsledky odpovídají tomu, co skupina hledala, budou nyní zkoumat další možnosti, jako je vybavení robotů přístrojovými holemi. To jim umožní identifikovat objekty klepnutím na ně.

Závěry skupiny byly prezentovány v červenci na virtuální konferenci Robotics Science and Systems. V týmu byli také Abhinav Gupta, asociační profesor robotiky, a Dhiraj Gandhi, vědecký pracovník z Pittsburgh Lab společnosti Facebook Artificial Intelligence Research.

Studie a datový soubor

Studie byla provedena s výzkumníky, kteří vytvořili velký soubor dat a současně zaznamenávali video a zvuk 60 běžných objektů. Některé z těchto předmětů byly kostky na hraní, ruční nářadí, jablka, boty a tenisové míčky. Nahrávky probíhaly tak, jak se předměty kutálely a narážely kolem tácu.

Soubor dat byl poté zveřejněn po katalogizaci interakcí za přibližně 15,000 XNUMX $. 

Tilt-Bot 

Interakce byly zachyceny tím, co tým nazývá Tilt-Bot, což je čtvercový podnos spojený s ramenem robota Sawyer. Sawyer byl také používán k tlačení objektů na povrch a shromažďování dalších typů dat.

Studie o tom, jak zvuk může ovlivnit inteligentní roboty, existuje již nějakou dobu, ale co je nové, je masivní soubor dat. 

Jedním z nových zjištění bylo, že robot mohl využít své zkušenosti a to, co se naučil o zvuku určité sady objektů, aby předpověděl fyzikální vlastnosti jiné sady neviditelných objektů.

"Myslím, že to, co bylo opravdu vzrušující, bylo, že když selhal, selhal ve věcech, u kterých očekáváte, že selže," řekl Pinto. Robot například nemohl použít zvuk k rozlišení mezi červeným a zeleným blokem. "Ale pokud by to byl jiný předmět, jako je blok versus šálek, mohlo by to zjistit."

Výzkum byl podpořen Agenturou pro pokročilé obranné výzkumné projekty a Úřadem pro námořní výzkum.

 

Alex McFarland je AI novinář a spisovatel, který zkoumá nejnovější vývoj v oblasti umělé inteligence. Spolupracoval s řadou AI startupů a publikací po celém světě.