Hned několik technologií půvabně zkombinovaných dohromady. Který z kultovních vědecko-fantastických filmů na toto téma se nakonec ukáže být nejblíže realitě?
Australští vědci spolupracující s vojenským sektorem popsali v Applied Nano Materials techniku, kdy člověk naváděl pozemního robota pouze prostřednictvím senzorů EEG a čoček Microsoft HoloLens, a to vše v polních podmínkách. Takže další postup týkající se využití rozhraní BMI (brain–machine interfaces).
I když je robot označován jako pes, samozřejmě jde o robohafana poněkud jiného typu (a jinak cíleného), než byl třeba Aibo – ostatně viz úvodní obrázek. Nakonec zde o koncové zařízení ani tolik nejde, protože příslušná komunikace může z lidského mozku směřovat k libovolnému robotovi, vozidlu nebo třeba i do senzoru zbraně apod. (Poznámka: nezmiňuje se kupodivu dron nebo jiné „letadélko“.)
Jak uvádí web DefenceOne, již v roce 2015 dokázala v projektu americké vojenské výzkumné agentury DARPA ochrnutá žena se speciálním čipem v mozku pilotovat letoun F-35 pouze pomocí mozkových signálů (vše se nakonec realizovalo jen ve virtuální realitě). Takové čipy však musí být chirurgicky implantovány. A senzory, které lze nosit na kůži, zase kvůli lepší elektrické vodivosti obvykle vyžadují gely/mokré prostředí. Vojáci ale k tomu nosí helmy, gel je třeba obnovovat, funkčnost senzorů se navíc může narušovat při pohybu (roste šum), čili to není příliš praktické mimo laboratorní prostředí.
Chin-Teng Lin z Technické univerzity v Sydney a jeden z autorů studie uvádí, že jejich nové senzory jsou „suché“ a fungují dobře i při pohybu a uvnitř helmy. Využívají grafen. Systém je pak propojen s brýlemi Microsoft Hololens. Když se uživatel pomocí HoloLens rozhlížel kolem sebe, jeho mozek vysílal signál (co se týče přesnější lokalizace v mozku, prý z týlního laloku). Tyto signály, nešlo o nic sofistikovanějšího než EEG, byly shromažďovány prostřednictvím senzoru a vedeny přes malý počítač Raspberry Pi 4B, který je převedl na pokyny o konkrétním bodu cesty odpovídajícímu danému místu (poznámka: čili dekódování vizuální informace z elektrického signálu je rutinní a nevyžaduje žádný vysoký výkon, nějakou umělou inteligenci apod.). Tyto pokyny byly předány robotu Q-UGV od společnosti Ghost Robotics, který pak k příslušnému bodu skutečně zamířil.
Přesné a spolehlivé suché senzory EEG by mohly mít jistě i řadu dalších využití, třeba pro lidi ochrnuté, pro aplikace virtuální rozšířené reality atd.
Video na YouTube kanálu australské armády
(i když člověka nutně napadne, že kdyby technologie byla až tak úžasná, proč informace o ní zveřejňovat)
Noninvasive Sensors for Brain–Machine Interfaces Based on Micropatterned Epitaxial Graphene
Shaikh Nayeem Faisal, Tien-Thong Nguyen Do, Tasauf Torzo, Daniel Leong, Aiswarya Pradeepkumar, Chin-Teng Lin, and Francesca Iacopi
ACS Applied Nano Materials Article ASAP
DOI: 10.1021/acsanm.2c05546
Zdroj: DefenceOne a další
Nemyslím si, že by se jednalo o dekódování vizuální informace z EEG. Brýle poskytují informaci o směru, kam se voják dívá, a z EEG asi jen odečtou rozhodnutí se tím směrem pohnout. Nějaké zpracování obrazu k tomu není zapotřebí. Ale to jen můj odhad, jak to může fungovat, nic o tom nevím.