Rozpoznávání gest zvládají i počítače/smatphony, co ale gesta vytvářet? Podle vědců z Vrije Universiteit Brussel by gestikulující roboti mohli s člověkem spolupracovat podstatně efektivněji, dosud ale chybí obecný framework.
Různé roboti jsou různě konstruovaní (a to i když přístroje určené pro spolupráci s lidmi jsou cca humanoidní), takže i obyčejné ukázání mohou realizovat různě, především v závislosti na svých kloubních systémech. Výzkumníci proto vytvářejí rozhraní, které by mělo požadavky na gesto upravit na míru konkrétní morfologii.
Jinak řečeno: dejme tomu chceme, aby robot tleskal, zadupal nebo podal ruku. Do systému nahrajeme nějakou reprezentaci morfologie a v závislosti na ní dostaneme vygenerovanou sekvenci příkazů/pohybů, které konkrétní robot bude realizovat. Naučíme-li jednoho robota třeba tančit, tato funkcionalita bude díky vysoké úrovni abstrakce přenositelná i dál, asi jako program ve vyšším programovacím jazyce kompilujeme pro různé procesory, aniž ho musíme měnit.
Základní model je odvozen od pohybového modelu člověka, hlavní jednotkou jsou klouby seskupované do řetězců a bloků. Rozlišuje se navíc režim „ukazovacích“ (blokových) gest, kdy jde především o obecnou polohu/pohyb. Na rozdíl od toho gesta spojená s manipulací s koncovým předmětem kladou hlavní důraz na přesnost v příslušném „rozhraní“ (koncový/efektorový režim). Výzkumníci na základě svých modelů předvedli i programování vlastního robota jménem Probo.
Greet Van de Perre et al. Studying Design Aspects for Social Robots Using a Generic Gesture Method, International Journal of Social Robotics (2019). DOI: 10.1007/s12369-019-00518-x
Zdroj: TechXplorer.com