autor Continentaleurope, zdroj: Wikipedia, licence obrázku GFDL
autor Continentaleurope, zdroj: Wikipedia, licence obrázku GFDL

AI i její tvůrci před soudem

Můžeme systém umělé inteligence považovat za nesvéprávný nebo dočasně nepříčetný?

John Kingston z anglické University of Brighton poskytl pro The Register svůj pohled na právní odpovědnost systémů umělé inteligence. Software podle něj bude časem možné soudit, i když prozatím asi sotva trestat (fakticky trest zase dopadne na tvůrce softwaru).
Jedná se do značné míry o sci-fi (navíc právní systémy jednotlivých zemí si neodpovídají, takže než by taková novinka došla např. ze Singapuru k nám…), přesto však některé nastíněné možnosti/scénáře snad stojí za zmínku. Představme si třeba, že systém umělé inteligence způsobí katastrofu. Může to být v první řadě výsledkem chyby v softwaru; v takovém případě nepůjde o trestný čin – systém budeme řekněme považovat za nesvéprávný, jeho tvůrci pak mohou být voláni k odpovědnosti leda za nedbalost. Určité chování softwaru může být ale přirozeným nebo pravděpodobným důsledkem jeho návrhu, a v takovém případě jsou za ně tvůrci plně zodpovědní (jak také jinak; to by pak ani podvodníka nešlo pohnat k zodpovědnosti, když přece samotný převod provedl bankovní trojan – který dotyčný mnohdy navíc ani nevytvořil). V tomto případě se nemusí tvůrci ani prokazovat záměr: pokud systém způsobí, že autonomní automobil překročí povolenou rychlost, tvůrce je už odpovědný (nakonec u řidiče se taky obvykle nezkoumá, zda překročil rychlost schválně nebo z nedbalosti). Nicméně podobně jako software může být „nesvéprávný“, může být také zcela nebo částečně zbaven zodpovědnosti s ohledem na okamžité okolnosti – třeba pokud systém jedná v důsledku působení malwaru (analogicky jako člověk jednající pod nátlakem, intoxikovaný apod.). Samozřejmě se tak bude argumentovat i při obhajobě AI (mohl za to operační systém nebo chyba v procesoru…), takže všechno se pěkně komplikuje.
A to jsme zatím jen u trestního práva, je zde také rovina občanskoprávní. Co se týče odpovědnosti dodavatele za systém umělé inteligence, zbývá třeba rozhodnout, zda se jedná o výrobek, nebo službu (různé záruky poskytovatele).
Zdá se, že skoro veškeré chyby softwaru by ve vztahu k jejich tvůrcům nejspíš mohly být vyhodnocené jako nedbalost, což poškozené/žalující stranu neuspokojí. Pak se může snadno stát, že do hry vstoupí další regulace, třeba podobné medicíně. Tvůrci systémů AI budou muset mít speciálně certifikace/atestace, být pojištěni apod. Navíc se to nemusí týkat jen samotných programátorů, ale i analytiků, návrhářů systémů, testerů nebo projektových manažerů. A ještě více se do procesů asi zapojí formální matematické metody dokládající, že program splňuje požadavky, tyto požadavky jsou v potřebné míře úplné, konzistentní apod.
Zbývá si jen počkat, co z uvedeného se stane skutečností. Osobně mi přijde, že Kingstonovy představy s rozvojem umělé inteligence přímo nesouvisejí, protože podobnou odpovědnost lze klást na tvůrce téměř libovolného softwaru. Naopak u AI bude mnohem větší problém dokázat, nakolik je fungování programu výsledkem práce konkrétního člověka. Lze mj. argument strojovým učením a tím, že „systém se vyvinul sám“.

Zdroj: The Register

Kvantové počítače a šipka času

Máme zde další studii, která dává do souvislosti kvantové počítače a šipku času. Kdo se …

Používáme soubory cookies pro přizpůsobení obsahu webu a sledování návštěvnosti. Data o používání webu sdílíme s našimi partnery pro cílení reklamy a analýzu návštěvnosti. Více informací

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close