Közzétéve az oldalon - Hozzászólás most!

EgoMimic: A Georgia Tech PhD hallgatója a Project Aria Research Glasses segítségével képez ki humanoid robotokat

Ma egy új kutatásra hívjuk fel a figyelmet. Georgia Tech amely segít robotokat betanítani az alapvető mindennapi feladatok elvégzésére a Meta's Aria projekt kutatási szemüveg. Nézze meg az alábbi videót, olvassa el a teljes cikket, vagy igényeljen saját Project Aria kutatási készletet.

Képzelje el, hogy a mindennapi feladatok elvégzéséhez, például a mosáshoz, mosogatáshoz és javításokhoz segítségre van szüksége. Már most is használunk eszközöket, amelyek segítenek ezekben a feladatokban, például mosógépeket, mosogatógépeket és elektromos fúrógépeket. De mi lenne, ha egy még erősebb és rugalmasabb eszköz állna rendelkezésedre egy humanoid robot formájában, amely képes tanulni tőled, és felgyorsítani a teendőid listáján szereplő fizikai projektek bármelyikét?

Még ha rendelkeznénk is a rendelkezésre álló hardverrendszerrel, egy robot megtanítása a mindennapi feladatok elvégzésére csak egy lassú és nehézkes adatgyűjtési módszerrel, az úgynevezett robot-teleoperációval érhető el. Egészen mostanáig. A Project Aria kutatási készletDanfei Xu professzor és a Robotikai tanulás és érvelés laboratórium a címen. Georgia Tech az Aria szemüveg egocentrikus érzékelőit arra használják, hogy az általuk "emberi adatoknak" nevezett adatokat hozzanak létre olyan feladatokhoz, amelyeket egy humanoid robotnak kell lemásolnia. Az emberi adatokat arra használják, hogy drámaian csökkentsék a robot teleoperációs adatainak mennyiségét, amelyek a robotok politikájának betanításához szükségesek - ez az áttörés egy nap képessé teheti a humanoid robotokat arra, hogy bármilyen számú feladatot megtanuljanak, amelyet egy ember be tud mutatni.

Kareer teleoperálja a robotot, hogy az EgoMimic számára társ-tréningadatokat rögzítsen. A távműködtetés nehezen méretezhető és jelentős emberi erőfeszítést igényel.

"Hagyományosan az adatgyűjtés a robotika számára demonstrációs adatok létrehozását jelenti" - mondja Simar Kareer, a Georgia Tech doktori hallgatója. Iskola Interaktív Számítástechnika. "A robot ízületeit egy vezérlővel működteted, hogy mozgasd a robotot, és elérd a kívánt feladatot, és ezt több százszor csinálod, miközben rögzíted az érzékelőadatokat, majd betanítod a modelleket. Ez lassú és nehézkes. Ezt a ciklust csak úgy lehet megtörni, ha az adatgyűjtést leválasztjuk magáról a robotról."

Ma a robotpolitikai modelleket nagy mennyiségű, az egyes szűk feladatokra specifikus, célzott demonstrációs adatokkal képzik ki, ami nagy költséggel jár. Kareer feltételezi, hogy a sok kutatótól passzívan gyűjtött adatok, mint például az Aria szemüveg által rögzített adatok, ehelyett arra használhatók, hogy lehetővé tegyék a feladatok sokkal szélesebb körére vonatkozó adatok létrehozását, hogy a jövőben általánosan hasznosabb robotokat hozzanak létre.

Inspirálta Aria projekt és Ego-Exo4D amely egy hatalmas, több mint 3K órányi, a mindennapi életben végzett tevékenységekről készült videofelvételekből álló egocentrikus adathalmazt tartalmaz, Kareer kifejlesztette a EgoMimic, egy új algoritmikus keretrendszer, amely emberi és robotadatokat használ fel a humanoid robotok fejlesztéséhez.

"Amikor ránéztem az Ego4D-re, egy olyan adathalmazt láttam, amely ugyanolyan, mint az összes nagy robotadathalmaz, amelyet megpróbálunk összegyűjteni, csak éppen emberekkel" - magyarázza Kareer. "Csak felveszel egy szemüveget, és mész, és csinálsz dolgokat. Nem kell, hogy a robotból származzon. Valami skálázhatóbb és passzívabban generált dologtól kell származnia, ami mi vagyunk." Kareer kutatásában az Aria szemüveget arra használták, hogy emberi adatokat hozzanak létre az EgoMimic keretrendszer társ-tréningjéhez.

Kareer az Aria szemüveggel történő felvételek készítésével, pólóhajtogatás közben, együttképző emberi adatokat hoz létre.

Az Aria szemüveget nem csak emberi adatgyűjtésre használják a Georgia Tech kutatásaiban. A robot valós idejű működési beállításának szerves részeként is használják. Az Aria-szemüveget a humanoid robotplatformjukra szerelik, akár egy szempárt, és integrált érzékelőcsomagként szolgál, amely lehetővé teszi a robot számára, hogy valós időben érzékelje a környezetét. Az Aria Client SDK-t arra használják, hogy az Aria szenzoradatait közvetlenül a robot szabályzatába áramoltassák, amely egy csatlakoztatott PC-n fut, és amely viszont a robot működtetését vezérli. Az Aria szemüveg használata mind az adatgyűjtéshez, mind a valós idejű érzékelési csővezetékhez minimalizálja az emberi demonstrátor és a robot közötti tartománybeli szakadékot, megnyitva az utat a jövőbeli robotikai feladatok képzéséhez szükséges méretezett emberi adatok előállításához.

A robot tetejére szerelt Aria szemüvegek érzékelő adatokat szolgáltatnak a rendszer számára, amelyek lehetővé teszik a robot számára a tér érzékelését és a térrel való interakciót.

Az EgoMimicnek köszönhetően Kareer 400% növekedést ért el robotja teljesítményében a különböző feladatokban a korábbi módszerekhez képest, mindössze 90 percnyi Aria-felvétellel. A robot ezeket a feladatokat korábban nem látott környezetben is képes volt sikeresen végrehajtani.

A jövőben a humanoid robotokat egocentrikus adatok felhasználásával méretarányosan lehetne betanítani arra, hogy az emberekhez hasonlóan különböző feladatokat hajtsanak végre.

"Úgy tekintünk az Ariára, mint a kutatóközösségbe való befektetésre" - mondja James Fort, a Meta Reality Labs kutatási termékmenedzsere. "Minél inkább szabványosítja az egocentrikus kutatóközösséget, annál több kutató lesz képes együttműködni. Valójában a közösséggel való ilyen jellegű skálázás révén kezdhetünk el nagyobb problémákat megoldani azzal kapcsolatban, hogy hogyan fognak működni a dolgok a jövőben."

Kareer az EgoMimic-ről szóló előadását a 2025 IEEE mérnökök nemzetközi konferenciája a robotikáról és automatizálásról (ICRA) Atlantában.

Vélemény, hozzászólás?

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük