Vaše jednička mezi nulami
ITBiz.cz

AI i její tvůrci před soudem

Pavel Houser , 22. duben 2018 09:30 2 komentářů

John Kingston z anglické University of Brighton poskytl pro The Register svůj pohled na právní odpovědnost systémů umělé inteligence. Software podle něj bude časem možné soudit, i když prozatím asi sotva trestat (fakticky trest zase dopadne na tvůrce softwaru).

Jedná se do značné míry o sci-fi (navíc právní systémy jednotlivých zemí si neodpovídají, takže než by taková novinka došla např. ze Singapuru k nám...), přesto však některé nastíněné možnosti/scénáře snad stojí za zmínku. Představme si třeba, že systém umělé inteligence způsobí katastrofu. Může to být v první řadě výsledkem chyby v softwaru; v takovém případě nepůjde o trestný čin – systém budeme řekněme považovat za nesvéprávný, jeho tvůrci pak mohou být voláni k odpovědnosti leda za nedbalost. Určité chování softwaru může být ale přirozeným nebo pravděpodobným důsledkem jeho návrhu, a v takovém případě jsou za ně tvůrci plně zodpovědní (jak také jinak; to by pak ani podvodníka nešlo pohnat k zodpovědnosti, když přece samotný převod provedl bankovní trojan – který dotyčný mnohdy navíc ani nevytvořil).

V tomto případě se nemusí tvůrci ani prokazovat záměr: pokud systém způsobí, že autonomní automobil překročí povolenou rychlost, tvůrce je už odpovědný (nakonec u řidiče se taky obvykle nezkoumá, zda překročil rychlost schválně nebo z nedbalosti). Nicméně podobně jako software může být „nesvéprávný“, může být také zcela nebo částečně zbaven zodpovědnosti s ohledem na okamžité okolnosti – třeba pokud systém jedná v důsledku působení malwaru (analogicky jako člověk jednající pod nátlakem, intoxikovaný apod.). Samozřejmě se tak bude argumentovat i při obhajobě AI (mohl za to operační systém nebo chyba v procesoru…), takže všechno se pěkně komplikuje.

A to jsme zatím jen u trestního práva, je zde také rovina občanskoprávní. Co se týče odpovědnosti dodavatele za systém umělé inteligence, zbývá třeba rozhodnout, zda se jedná o výrobek, nebo službu (různé záruky poskytovatele).

Zdá se, že skoro veškeré chyby softwaru by ve vztahu k jejich tvůrcům nejspíš mohly být vyhodnocené jako nedbalost, což poškozené/žalující stranu neuspokojí. Pak se může snadno stát, že do hry vstoupí další regulace, třeba podobné medicíně. Tvůrci systémů AI budou muset mít speciálně certifikace/atestace, být pojištěni apod. Navíc se to nemusí týkat jen samotných programátorů, ale i analytiků, návrhářů systémů, testerů nebo projektových manažerů. A ještě více se do procesů asi zapojí formální matematické metody dokládající, že program splňuje požadavky, tyto požadavky jsou v potřebné míře úplné, konzistentní apod.

Zbývá si jen počkat, co z uvedeného se stane skutečností. Osobně mi přijde, že Kingstonovy představy s rozvojem umělé inteligence přímo nesouvisejí, protože podobnou odpovědnost lze klást na tvůrce téměř libovolného softwaru. Naopak u AI bude mnohem větší problém dokázat, nakolik je fungování programu výsledkem práce konkrétního člověka. Lze mj. argument strojovým učením a tím, že „systém se vyvinul sám“.


Komentáře

Přidat komentář
adg #0
adg 23. duben 2018 07:57

prekroceni rychlosti svalne ci z nedbalosti je to same, spravny priklad by byl z nedbalosti ci nevedomosti, treba kdyz ridic venuje pozornost detem v okoli vozovky, aby je neprejel a prestane sledovat tachometr

Pavel Houser 24. duben 2018 22:25

no, mohli bychom se do toho ruzne zapletat. kdyby AI system obcas prekrocil rychlost schvalne, byla by to sabotaz (ale i to jen mozna - mohl mit rozumny duvod, stejne jako clovek). tezko skutecne predjimat, jak potom budou rozhodovat soudy. ale treba i ty budou nahrazeny AI :-)