Pixabay License. Volné pro komerční užití

Lidé v kooperativních hrách umělou inteligenci za partnera nechtějí

Dnešní umělá inteligence ve hrách typu šachy nebo go již člověka zcela deklasovala (u šachů k tomu tedy umělá inteligence ani nebyla potřeba). Jak si ale podobné systémy stojí v případě her, kdy mají s lidmi spolupracovat?
Na to se zaměřili vědci z MITu. Jako vzor kooperativní hry si vzali japonskou karetní hru Hanabi (základní charakteristika se uvádí tak, že hráči nevidí na svoje karty, ale vidí na karty spoluhráčů, mohou si kromě hraní kartami v omezené míře také radit, cílem je porazit neosobního „boha hry“, přičemž karty se společnými silami řadí podobně jako v Solitairu…). V experimentech, které probíhaly naslepo, hráli lidští účastníci dvě série hry: Jednu s agentem umělé inteligence jako spoluhráčem a druhou s agentem založeným na pravidlech, botem naprogramovaným ručně, aby hrál předem definovaným způsobem.
Výsledky autory výzkumu překvapily. Nejenže výsledky nebyly lepší při kooperaci s umělou inteligencí, ale lidé důsledně tohoto robota nesnášeli. Považovali ho za nepředvídatelného, nespolehlivého a nedůvěryhodného. Negativní pocity měli i tehdy, když s ním dosahovali dobrých výsledků (přitom člověka by hra samozřejmě měla v průměru bavit víc, je-li v ní úspěšný). Spoluautor článku Ross Allen uvádí, že objektivní výkony a subjektivní důvěryhodnost respektive obliba systému umělé inteligence jsou dvě různé věci (PH: to je samozřejmé, ale zde se tím nemyslí, že subjektivní důvěryhodnost ovlivňuje třeba volená slovní zásoba, uživatelské rozhraní, vnější vzhled systému apod.). Navíc lidé spolupracující s nedůvěryhodnou/nesympatickou/subjektivně nepředvídatelnou umělou inteligencí budou sami podávat asi objektivně horší výkony – představme si třeba součinnost při chirurgické operaci nebo záchranné akci.
Co se týče samotných programů, ty nebyly vyvinuty na MITu, ale jak systém AI (vzniklý na základě posilovaného učení), tak i systém založený na pravidlech mají patřit ke špičce v oboru. Model AI byl např. velmi úspěšný, když jeho spoluhráčem byl jiný program AI (odlišný/neznámý, tj. dva programy, které nebyly trénovány spolu). Ale i když dvě umělé inteligence si spolu porozuměly velmi dobře, s lidmi to bylo něco úplně jiného. Z 29 lidských hráčů 1 přímo uvedl, že ho z AI rozbolela hlava, jiný označil systém založeny na pravidlech za sice hloupý, ale aspoň nějak funkční a pochopitelný.
Tisková zpráva z MITu uvádí, že kreativita umělé inteligence může být člověku cizí – např. když AlphaGo porazil v roce 2016 jednoho z nejlepších lidských hráčů, 37. tah ve 2. partii pokládali lidští komentátoři za chybu a teprve až další složité analýzy ukázaly, že zvolený postup byl ve skutečnosti geniální. Ale teď si představme, že by člověk a program měli hrát kooperativně (za jednu stranu proti někomu jinému), třeba se při hře po tahu střídat.
S tím pak souvisí i další věc. U Hanabi AI nejvíce vadila těm, kdo se prohlašovali za experty na tuto hru, nejspíš tyto programy prostě hrály dle jiných vzorů (viz ona „nelidská kreativita“), než byly šablony, které si během praxe vytvořili lidští odborníci. Přitom expertní systémy pro danou oblast budou nejspíš používat zase experti (s chirurgickou AI bude spolupracovat chirurg atd.).
Shrnuto, umělá inteligence pro Hanabi byla vyvinuta tak, aby byla objektivně nejlepší, ne k tomu, aby s ní vůbec někdo chtěl spolupracovat. V některých případech by zřejmě pomohlo, kdyby umělá inteligence dokázala své kroky lidským spoluhráčům srozumitelně vysvětlovat. („Aha, takhle by mě nenapadlo se na to dívat, ale teď už to chápu“ – důvěra by se mohla dostavit bez toho, že by se samotný systém musel začít rozhodovat jinak.)

Evaluation of Human-AI Teams for Learned and Rule-Based Agents in Hanabi, arXiv:2107.07630v2 [cs.AI] arxiv.org/abs/2107.07630
Zdroj: Massachusetts Institute of Technology / TechXplore.com

Poznámka PH: Výsledek bude dán zřejmě i tím, že kompetitivních her je mnohem více a jsou mnohem populárnější. Logicky se umělá inteligence cvičila hlavně na šachy, go apod. Možná z fungování programů pro Hanabi zase netřeba dělat tak dalekosáhlé závěry?

Amyloidové plaky se mohou vyskytovat i v oční sítnici

Amyloidní plaky jsou bílkovinné usazeniny, které se hromadí mezi mozkovými buňkami, zřejmě různě komplikují jejich …

2 comments

  1. Klíčová zřejmě nebude „nelidskost“, ale prostě „intelekt“ jiné úrovně případně jinak naučený/jinak myslící. Mnoho lidských činností je přeci vyvíjeno kulturně, pospolitě, a členové takové kultury sdílí podobný přístup (paradigma). Jedinci, kteří se vymykají, jsou rovněž často hodnoceni jako takoví, se kterými se špatně spolupracuje, dokud neprokáží, že jejich přístup je lepší/výhodnější (viz stejnosměrný proud, střídavý proud). Zjevně pak může dojít ke změně, kdy ostatní přistoupí na původně odmítané.

  2. Pavel Houser

    souhlasim. ono by stacil sachista, ktery se uci z jinych ucebnic, take by treba hral „divne“. a zejmena pak, kdyby se clovek ucil ne z partii velmistru, ale z partii programu (at uz pocitajicich hrubou silou, nebo s umelou inteligenci).

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *

Používáme soubory cookies pro přizpůsobení obsahu webu a sledování návštěvnosti. Data o používání webu sdílíme s našimi partnery pro cílení reklamy a analýzu návštěvnosti. Více informací

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close