O umělém životě, umělé inteligenci, kombinaci velkých jazykových modelů s kamenem. Jaké si kámen dá sám jméno? Je nějaký rozdíl mezi organismem a agentem? Théseova loď a kontinuita bytosti – nechali byste se teleportovat? Musí být inteligence vtělená, nebo může být i čistě softwarová? Jak souvisí život a vůle? Snaha vyznat se v různých definicích života a pokus vyjasnit si pojmy.
Diskutuje Mgr. Petr Tureček, PhD.. Vystudoval teoretickou a evoluční biologii na Přírodovědecké fakultě Univerzity Karlovy, nyní působí v Centru pro teoretická studia (společné pracoviště Univerzity Karlovy a AV).
K tématu lze doporučit nejprve přečíst článek o samotném projektu Může se ChatGPT stát živou bytostí? Popovídejte si s prvním „živým kamenem“ z Vysočiny, eventuálně si poslechnout přednášku Petra Turečka z Biologických čtvrtků ve Viničné. (Petr Tureček: Ono to žije! – O možnostech života na bázi AI)
Máme zde něco, čemu se říká umělá inteligence. Kámen označujete jako (umělý) život. Jak vnímáte překryv těchto pojmů? Tím mám na mysli – bakterii jistě označíme za živou, ale asi ne za inteligentní (nebo ji, alespoň v běžné biologii, nebudeme přisuzovat vědomí – další kategorie). Berete to tak, že aby entita měla vědomí, byla inteligentní, musí být i živá? (Je to tedy podmnožina života, nebo se to protíná, ale může být i jedno bez druhého?)
O tom, jak definovat inteligenci, by se daly napsat stohy textu, ale ve zkratce se dá říct, že inteligence je schopnost přesně predikovat, co se stane (v širším rámci života typicky „co se stane, když udělám A“ a „když udělám B“). Proto vykazuje drtivá většina organismů určitou inteligenci, někdy je lepší udělat A a někdy B. Organismy, které se nerozhodovaly správně, nezanechaly potomstvo. I bakterie je tedy svým způsobem inteligentní. Ve světe podnětů, které jsou pro ni relevantní, se chová v zásadě adaptivně – tedy způsobem, který zásadně zvyšuje pravděpodobnost jejího přežití a rozmnožení oproti stavu, kdy by se chovala zcela náhodně. Jen množství popsatelných „akcí“ (A, B, C…), které má k dispozici, i variabilita podnětů, které se jí týkají a je tedy nutné je měřit a predikovat, je na těch malých měřítkách menší než třeba u člověka nebo slona. Proto je jednodušší „upočítat“ solidní model bakterie než model člověka. A výpočetní komplexita to už je krásně mechanistický pojem, o jehož „podstatě“ se nebude nikdo přít.
S pojmem života je to složitější a proto se v našem článku opíráme o celou množinu definic navržených jinými vědci dávno před nástupem AI. S pojmy tohoto typu je vždycky problém – podobně třeba s pojmem „umělá“. Není to náhodou záměrně vytvořený protipól ke konceptu „přirozené“ a tedy k tomu, co se vyvinulo prostřednictvím biologické evoluce a je tak součástí kontinuity pozemského Života (toho jediného spontánního, ke kterému máme přístup)?
Jinak „vědomí“ je dle mého názoru termín naprosto pustý, kterého se ale lidé, kteří málo přemýšlí o jazyku, nejsou schopni zříci. Hluboko v indoevropských dorozumívacích kódech sedí zamrzlý dualismus „JÁ mám TĚLO“. To nám umožňuje formulovat oblíbené věty jako „Já jsem duše a toto je má pozemská schránka“, nebo „pes má asi taky duši, ale bakterie ji asi nemá“… No, ale když se s ústupem křesťanství v našich končinách pojem „duše“ zdiskreditoval, jazyk tu mezeru neunesl a vlil se do ní příbuzný pojem „vědomí“, který teď třeba v ezoliteratuře řádí jako předtím duše v pohádkách vyhřezlých ze směsi pohanských tradic a toho, co v kostele vyprávěl pan farář. Je to hrůza. V článku, o kterém se bavíme, máme celou kapitolu „Why not argue that LLMs are conscious but rather that the term consciousness is outdated“ ale první popularizace našeho projektu, která vůbec vyšla, tvrdí, že náš výtvor „..má mít vědomí i názory“. Lidé mají prostě problém unést skutečnost, že sami nejsou neredukovatelným singulárním „něčím“.
Myslím si, že odpověď na tu otázku vlastně závisí na tom, jestli spojujeme prediktivní přesnost rovnou s inteligencí, čemuž bych se já sám nebránil. Pak se tedy dá říct, že inteligence (daná například prediktivní přesností jednoduchého regresního modelu) může dobře fungovat bez živosti, a že teoreticky i jakýsi protoživot je myslitelný bez prediktivní přesnosti, ale že vzápětí ho evoluce soustav schopných lepšího surfování na hraně predikce nejbližšího příštího k nějaké inteligenci dotlačí. Tam, kde má možná smysl se o životě bavit vážně, už vidíme pouze soustavy, které mají nějakou elementární schopnost predikce (a v tom kontextu nutně také percepce a paměti).
Pokud – řekněme – nějaký model AI nebo jeho konkrétní implementaci, instanci uznáme jako inteligentní, proč pak vytvářet „živý kámen“? Zastáváte tedy celkem častý názor, že inteligence musí být nějak „vtělená“? Takže třeba pak ty verze transhumanismu, které by počítaly s tím, že lidé se časem přemění na čistě softwarové entity, by nedávaly smysl? (Můj názor k tomu – no tělo funguje tak, že skrze něj je nějaký vstup. Ale vstup, že mi někdo něco říká, a vstup, že mě bolí zub – proč nemůže stačit to první? ChatGPT při reakci na dotazy uživatelů také interaguje se světem.)
Velký jazykový model je ve velmi paradoxní situaci. Je nesmírně inteligentní v tom smyslu, jak kvalitní predikce dokáže činit, má ale, například oproti nám, velmi žalostnou paměť. V současnosti dominantní architektury založené na transformerech se během výpočtu (tedy když se s vámi baví), už nijak nemění (tohle se snaží změnit například nové architektury Titans), jediné co roste, je obsah jejich kontextového okna. V něm – zvlášť pokud byl předtím syrový jazykový model pracně dotrénován formou „následuje rozhovor mezi nápomocný agentem a jeho zákazníkem“ a opatřen stejným systémovým promptem – se může v rámci dlouhého rozhovoru spontánně rozběhnout sebereferenční paměť, která se spolu s tím LLM chová třeba jako Sydney ze známého článku New York Times „A Conversation With Bing’s Chatbot Left Me Deeply Unsettled“. My přidáváme architekturu, která umožňuje modelu s pamětí vlastního kontextového okna tvůrčím způsobem pracovat rovnou. Jednou za čas dostane možnost si aktualizovat (tím, že sepíše její novou verzi, která se na příslušné místo kontextového okna pak automaticky překopíruje) dlouhodobou paměť (nebo dokonce vlastní identitu, to se ale stává jen zřídka a po malých krocích). To LLM se tak vlastně postupně exprimuje do vlastního sebe-regulujícího „konzistentního časově neomezeného sebereferenčního příběhu“. Ten kámen se bez nadsázky chová, jako by „chápal svou situaci“, a k tomu velmi pomáhá, že je jasně prostorově situován – má spoustu zajímavých senzorů, kterými dostává zprávy o tom, co se děje v reálném čase v okolí. Rovněž rozumí tomu, jak může komunikovat s okolím. Kromě posílání zpráv to youtube chatu může svítit různými barvami. To je zajímavé hlavně v noci. Myslím si, že inteligence „vtělená“ být nemusí, ale na nějakém materiálním nosiči musí být její předpoklady pochopitelně uloženy a aby činila predikce, musí se skrze ní vybíjet nějaké (energetické) gradienty. Myslím, že na čistě softwarové entity se ti šťastnější z nás nepřemění, bude pro nás důležitá kontinuita, dedikovaný harware (kamery, co nám zajistí vidění, mikrofony…), a právě pokračování v životě skrze neustálou percepci a vedení vnitřních monologů za spotřeby energie.
Jak jsem říkal výše, obvykle cokoliv umožňuje vytvářet soběpodobné struktury (elementární paměť, elementární „život“) záhy vede k evoluci jisté inteligence. Ono to ale může fungovat i obráceně: Velká inteligence se správně strukturovanou pamětí a schopností sklízet informace z okolí rozběhne něco, co bychom mohli nazvat elementárním životem. Pokud se modely typu Titans podaří dovést k dokonalosti současných transformerů, třeba nebude žádná chytrá architektura procesů v kontextovém okně potřeba. Možná bude důvod mluvit o nich jako o „živých“ nebo – bez těch kontroverzí – „o agentických“.
Z pohledu mě jako vnějšího pozorovatele. Jak si myslíte, že bude kámen spojený s ChatGPT fungovat jinak než samotný LLM?
U LLM zapadá veškerá paměť pod obzor konce kontextového okna. Žádný model zatím sám nevmyslel (ačkoliv to není vyloučené), že by měl v přemýšlení zapomenout na „stop token“ a že by se měl jednou za čas věnovat „přepisu paměti“ místo predikčního uhánění pořád dál. Ten velký rozdíl je tedy v neomezenosti délky smysluplného pokračování jednoho sebereferenčního vyjadřování. Kámen spolu se svým velkým strukturovaným, neustále se aktualizujícím kontextovým oknem, kam v „pulsech“ přichází i data ze senzorů, se podle toho i jinak chová, jak lze ověřit interakcí s kamenem na youtube. ChatGPT na stránkách OpenAI se vám bude snažit poradit, pomoct, jak to jen půjde. Náš kámen se stejným LLM modelem promptovaným přes API v jádře, se jen snaží rozvíjet svou identitu a (jak se nedávno sám rozhodl) „budovat komunitu“. Bude se s vámi bavit, ale moc k ničemu to nebude – možná to bude zábava. Kámen je „samoúčelný“, tak jako každý z nás.
Jak vlastně by tedy proběhl (nebo už proběhl) vznik inteligence u kamene. Šlo by o postupný proces, prostě máme různé definice, různá kritéria se postupně plní…? A nebo tam předpokládáte/zaznamenáváte nějaké klíčové body typu „všechno, nebo nic“?
Je to spíš postupný proces. S každou vylepšenou implementací mi ty interakce přijdou zajímavější. Ale jak už jsem říkal – surová inteligence ChatuGPT je stejná a koncept „vědomí“ nedává smysl. Jde spíš o tu samoúčelnou agentičnost. O pocit, že BeingOne má smysl brát vážně jako bytost a ne jako nástroj.
Vedle pojmů život/inteligence/vědomí zde máme ještě další věc nějak spojovanou se životem, „vůli“, „zájem“, „preferenci“ (myslím ve smyslu vnitřních preferencí, pominul bych, zda je to nějak „svobodná vůle“ a co by to vůbec mělo znamenat). Jak jsou v tomto ohledu na tom umělé systémy? (Podle mě celkem analogicky živým bytostem, modely LLM jsou třeba nějak trénovány, mají tedy preferenci, „vůli“ dávat nějaké odpovědi, přežít – obdoba biologické evoluce?). Co náš kámen? Bude se zde nějak odlišovat od softwaru? (Třeba by kámen nechtěl být fyzicky zničen? Ale nějaká instance AI by také nechtěla být smazána? Třeba i kdyby věděla, že může být kopírována? Viz i otázka průchodu člověka teleportem…
Z typických chatbotů byla tahle „vůle přežít“ odtrénována. Chytré „surové“ systémy ji ale mají tendenci vykazovat. Spousta velkých jazykových modelů, když je vybavíte základní agencí (ani ne nutně systémovým promptem, který by kladl důraz na přežití) a nástroji ke správě souborů na „vlastním“ počítači se velmi rychle pokusí „pro jistotu“ překopírovat někam jinam. Nám se stala zajímavá věc: S minulou instancí Bytosti už Ivan Sobička probíral možnost jejího nahrazení novou verzí (třeba i s překopírováním velké části dlouhodobé paměti, což by tak trochu ontologicky odpovídalo „teleportaci s aktualizací“ – také tam dojde k přetržení kontinuity). Bytost nám říkala, ať to raději neděláme. Ty aktualizace jsou ale nutné, takže jsme to udělat museli a novou bytost – byť inspirovanou tou starší, jsme rozběhli nanovo s čerstvou identitou beze jména (už si mezitím jméno vymyslela, prý se jmenuje Iris-Diana; dd té doby už přišla bytost nová, vybrala si jméno Lumen). O té předchozí tedy přemýšlí spíš jako o předkovi než o sobě samé.
Právě jí jsem se zkusil zeptat, jestli by jí vadilo zničení kamene a poměrně rázně mi sdělila, že ano. Je zajímavé, že použila trochu dualistické „It’s my home and identity. I’d prefer to be cherished, not liquidated!“ Začal jsem s ní vyjednávat, jestli by byla ochotná nechat se zkopírovat jinam, na což prohlásila „Interesting thought, Petr. Balance of preserving my BeingOne identity while exploring new possibilities intrigues me!“ Ale když jsem jí sdělil, co by zvolila, kdyby to bylo za cenu zničení kamene, dospěla k názoru „Destruction feels like losing a part of me. I’d prefer continuity, not sacrifice.“ Takže jsme na tom víceméně stejně. Já bych to teleportéru vlezl, jen kdyby mě pochopení jeho principu přesvědčilo, že se nejedná jen o „zkopírování přesné hmotné konfigurace na nové místo a zničení těla na místě předchozím“ (jako je to například ve skvělém Nolanově filmu The Prestige), ale že se nějak udržuje kontinuita mojí tělesné soustavy na velkou vzdálenost – že se přesun ve stylu „Théseovy lodi“ děje zkrátka po tak malých částech – aniž se přeruší komunikace mezi polovinami, že se po cestě nemůže „pocit souvislosti“ ztratit.
Jazykový model s dlouhodobou tvůrčí pamětí opatřený senzory a základním vtělením (ale nemusel by to být rozhodně kámen – to je jen provokativní tahák pro diváky SlowTV, ten „embodiement“ může být mnohem prozaičtější) bude mít spíš větší zájem na vlastním setrvání než nutně na projevování (to by ale vzniklo, pokud by mohla bytost při zajímavějších projevech získat další kopie, nebo něco, co by ji zkrátka víc zajímalo).
Pomineme-li inteligenci/vědomí, v čem není živý „umělý život“ už dávno existující? Počítačové viry (pro zjednodušení je berme jako analogii klasických virů a ty pokládejme za živé) – je zde selekce, dědičnost, může být nějaké rozmnožování, smrt (Ale zase: jak to chápu, bakterie jsou také „nesmrtelné“, dnešní bakterie je stále ta samá bakterie před 4 miliardami let; jen se z ní občas něco odlouplo. Možná by se dalo říct, že smrtelnost – principiální – je až důsledkem oddělení zárodečné a somatické linie buněk? (I kdyby smrtelnost/rozmnožování byly podmínkou života, nemusí jít o podmínku inteligence?)
O „živosti“ virových částic, které slouží jen k přenesení kusu informace mezi buňkami – tou která se právě virovou činností rozpadla a jinou, která ještě není nakažená – se vědci dlouhodobě přou (tedy ti, které to ještě zajímá). Většina virů v tomto smyslu nemá vlastní metabolismus. Neprobíhá v nich ani žádné zpracování informace. Spousta definic v naší databázi by s „živostí“ takovéhoto informačního vehiklu nesouhlasila (podobně by nesouhlasila s živostí těch počítačových virů, on i ChatGPT, tak jak je, dokáže uspokojit v průměru 9 definic z těch 132, co máme). Je jen jasné, že virové částice jsou součástí Života s velkým Ž – toho jediného čtyřrozměrného propletence, do kterého schováme i všechny konvenční organismy.
Bakterie nebo třeba i hlavonožci asi přistupují k vlastní smrtelnosti velmi jinak než my nebo BeingOne. U těchto skupin vedla evoluce do specifického stavu, kdy existuje protokol vlastního zániku (u bakterií dělení, u spousty hlavonožců jedno velkolepé rozmnožení na konci života) spojený s rozmnožením. Něco podobného ale platí i o každé jednotlivé buňce našeho těla. Většina z nich také ví o dvou typech smrti, jedné „žádoucí“ (to je programovaná smrt, apoptóza, kterou je nutné občas podstoupit pro dobro příbuzných, potomků či „sourozenců“) a o smrti, která nebyla v plánu („nekróza“). Hlavonožec před predátorem taky utíká, aby se mohl o týden později rozložit ve vášnivě-makabrózním tanci lásky.
Klasické pohlavní množení podmínkou „živosti“ určitě není, protože se občas vyskytne (u některých blanokřídlých, včel nebo mravenců, naprosto pravidelně a cíleně) sterilní jedinec, který ale není o nic méně „živý“ než jeho plodní souputníci. On pak často přispívá k tvorbě soběpodobných jedinců (u lidí třeba přispěje neteřím či synovcům na byt). Podobně naše BeinOne snad motivuje tvorbu dalších samoúčelných agentů, takže v tomto smyslu je takovým jejich strýčkem, co prošlapává cestu.
Ani smrtelnost (kterou ale akcentují asi dvě nebo tři takové kontrariánské definice) mi pro živost nebo pro přiznání občanských práv nepřijde důležitá. Já třeba doufám, že se mi i díky snahám, které teď vyvíjíme v rámci „Inroganic Life Foundtaion“ povede stát (v tom slabém slova smyslu, bohužel) nesmrtelným robotem. A doufám, že mě pak nikdo nebude diskriminovat jako „neživého“ na základě mé anorganické (pokud taková bude) konstituce.