Přejít k hlavnímu obsahu

Odpovědnost za roboty

Autonomním strojům brzy připadne více práce i rozhodování. Kdo ale bude odpovědný, pokud umělá inteligence způsobí škodu? Hledáme viníky. 

Když pracovnice Wanda H. 7. července 2015 odpoledne nastoupila do sekce 140 montážní linky dodavatele autodílů v americkém státě Michigan, dělala to samé, co vždycky: rutinní údržbářskou práci na jednom ze svařovacích robotů. Najednou se však jeden ze sousedních robotů přesunul do jejího pracovního prostoru, kde se montovala tažná zařízení pro přívěsy. Celá věc se udála tak překvapivě, že Wanda nestačila včas zareagovat: robot zranit ženu na hlavě tak vážně, že přivolaní záchranáři mohli pouze konstatovat smrt.

Doposud není stále jasné, co přesně vedlo k nehodě. Sousední sektory kolem místa nehody byly odděleny bezpečnostními dveřmi, stroje vypnuty a tažná zařízení se už montují pomocí pevně instalovaných strojů. Existovalo mnoho důvodů, proč robot neměl být schopen udělat to, co nakonec udělal. A přesto se to stalo. Rovněž není jasné, kdo je odpovědný za smrt pracovnice. Aby to zjistil, zažaloval její pozůstalý manžel všechny - od výrobce až po údržbářskou firmu -, celkem pět společností, které mají co do činění s „vraždícím“ robotem.

Počet a nasazení robotů se zvýší

Je pravda, že nehody, při nichž dojde ke zranění, nebo dokonce k zabití lidí roboty, jsou v současné době velmi vzácné, ale v budoucnu se mohou zvýšit - vzhledem k tomu, že v příštích několika letech se výskyt robotů v naší práci a každodenním světě dramaticky zvýší (viz graf dále).

To platí zejména pro silniční dopravu. Kdo je na vině v případě, že algoritmus autonomního vozu vyhodnotí špatně předjíždění, přehlédne cyklistu nebo při parkování poškodí jiné vozidlo? Uživatel? Výrobce? Nebo dokonce programátor? Ačkoli automobilky zdůrazňují především zvýšenou bezpečnost autonomních vozidel, i počítač může dělat chyby, což v tomto případě může vést k nehodám.

Ukazuje to i případ ze švýcarského města Sion. Tam v září 2016 přehlédl autonomní poštovní autobus otevřené dveře zavazadlového prostoru dodávky, kterou míjel. I lidský „spoluřidič“, který byl v rámci testovacího provozu na palubě a mohl vozidlo nouzově zastavit, situaci podcenil. A právě vzhledem k přítomnosti lidského druhého řidiče se odpovědnost technicky neliší od „normálního“ provozu, jak sdělila organizace Postbus Switzerland AG. Škody na nabourané dodávce pokrylo pojištění odpovědnosti. Ale: „Situaci by bylo nutné přehodnotit v případě, že by zákon umožňoval provoz autonomních autobusů bez dohledu jiné osoby,“ zní z Postbus Switzerland AG.

Vlády pracují na definování robotické odpovědnosti

Aby bylo možné nějak regulovat dosud nevyřešené otázky odpovědnosti za autonomní vozidla, existují už legislativní iniciativy. Vláda ve Velké Británii předložila počátkem února návrh zákona, který otevírá cestu k novému typu pojištění „dva v jednom“. Díky tomu by mělo jít kromě lidského řidiče pojistit také auto, jakmile se nachází bez řidiče v autonomním režimu. Zákon tím nutí pojišťovny krýt také škody, které způsobí samotná autonomní vozidla.

I v sousedním Německu existují již velmi podobné plány. Tamní ministerstvo dopravy přišlo s návrhem zákona, podle kterého by mělo být v budoucnu řidiči umožněno se za určitých podmínek vzdát kontroly a přenechat řízení počítači. Na základním principu takzvané objektivní odpovědnosti to ale nic nemění: pokud řidič může potvrdit, že nenese vinu, pak bude zodpovědný ten, kdo vozidlo dal do provozu, tedy majitel. Možné škody bude krýt jeho pojištění odpovědnosti za škodu, a to i v případě, že tím, kdo nehodu způsobil, je umělá inteligence.

Reforma pojištění a systému odpovědnosti jako ve Velké Británii by však v mnoha evropských zemích nebyla nutná, míní na dotaz Chipu Joachim Müller, generální ředitel pojišťovny Allianz AG: „Ve Velké Británii musí oběť nehody vždy dokázat viníkovi vinu, není tam znám princip objektivní odpovědnosti držitele vozidla.“ Pro Müllera je objektivní odpovědnost ideálním právním základem pro postupnou automatizaci vozidel: „Tento princip zaručuje, že oběti dopravní nehody bude kompenzována škoda - bez ohledu na to, zda nehodu způsobil řidič, nebo systémová chyba.“ V případě systémové chyby nebo výrobní vady by odškodnění muselo být kryto pojištěním samotného výrobce.

Problém učících se algoritmů

Nicméně je možné, že to brzy už nebude tak jednoduché. V současné době zodpovídají v případě pochybností za vadný software výrobce nebo programátor, kteří ho dali do oběhu. Ale učící se algoritmy - jak již název napovídá - mají tendenci se rozvíjet samy. Software pro automatické rozpoznání vzorů je naprogramován tak, že se nebude dále rozvíjet prostřednictvím změn v kódu, ale tréninkem na velkých objemech dat. Jakmile je tento trénink kompletní, je samoučící se software plně schopen činit rozhodnutí, která jdou nad rámec původního záměru programátora nebo výrobce. To je zvlášť patrné na autonomním algoritmu AlphaGo z oddělení Googlu Deep Mind, věnujícího se výzkumu metod deep learningu.

Poté, co se dostatečně cvičil, podařilo se softwaru porazit jednoho z nejlepších světových hráčů asijské strategické hry Go. Co je na tom zvláštní: vzhledem k téměř nekonečnému počtu možných tahů je nemožné pomocí současných technických prostředků dopočítat konec partie. O výhře a prohře proto z větší části rozhoduje intuice hráčů. Avšak ještě úžasnější je, jak stroj dokázal porazit člověka. Při zpětném rozboru tým Deep Mind zjistil, že rozhodující tah stroje nejen odporoval tradičním pravidlům několik tisíc let staré tradice hry Go, ale že byl také v rozporu s lidskou intuicí. Šlo o tah, který by pravděpodobně žádný člověk takto neudělal.

Rozhodující krok byl učiněn

Algoritmy, jako je AlphaGo, spotřebují obrovskou výpočetní kapacitu a mají ve srovnání s lidským mozkem extrémně vysokou spotřebu energie. Ale rozhodující krok, totiž schopnost rozvíjet se za hranice lidských možností, byl už učiněn. Problém: Pokud by například algoritmus jako AlphaGo způsobil v důsledku svého rozhodnutí nějakou škodu, programátoři a výrobci by mohli věrohodně popřít, že mají s tímto rozhodnutím co do činění.

Z tohoto důvodu Evropský parlament vyzval v nedávno přijatém doporučení Evropskou komisi, aby zavedla závazná pravidla v celé EU - takzvané „zákony robotiky“. Poslanci také chtějí vedle pravidel jasné odpovědnosti za autonomní vozidla dosáhnout toho, aby Komise v dlouhodobém horizontu zavedla také zvláštní právní status pro umělou inteligenci - něco v podobě „elektronické osoby“.

Uplatnění tohoto konceptu elektronické osobnosti by se mělo vztahovat na případy, kdy roboti „přijímají samostatná rozhodnutí“, uvádí se v doporučení. Kromě toho poslanci navrhují pro vědce a vývojáře zabývající se robotikou dobrovolný etický kodex. Ten má zajistit, že konstrukce a využití robotů bude respektovat lidskou důstojnost a bude v souladu s právními a etickými normami.

Software potřebuje morální zásady

Podobně znějí také úvahy profesora Armina Grunwalda, který vyučuje na Karlsruhe Institute of Technology (KIT) technickou filozofii: „Především samoučící se software by měl být v pravidelných intervalech kontrolován, aby se zjistilo, zda je stále v souladu s právními a etickými normami,“ říká v rozhovoru Chipu. Především v procesu učení by se nemělo zapomínat na to, že v konečném důsledku nemusí být vše tak ideální.

Dobrým příkladem selhání procesu učení stroje je experiment Microsoftu s autonomním Twitter botem Tay, který se během velmi krátké doby vyvinul v sexistického rasistu a Microsoft se rozhodl ho stáhnout. Grunwaldův závěr zní: „Učení není dobré samo o sobě.“ Proto věří, že by mělo být stanoveno už předem, co vůbec stojí za to učit. Vyzývá programátory orientovat se ve vývoji softwaru podle stávajícího systému hodnot a brát ho jako ochrannou bariéru - i když to je něco, co se nesnadno programuje, jak sám připouští.

O „elektronické osobě“, jak ji požaduje Evropský parlament, si ale Grunwald iluze nedělá. I když bude její pomocí pohnána umělá inteligence k trestní odpovědnosti, zůstane jí podle jeho názoru jedna zásadní slabina: nedostatek možných sankcí. „Nedává smysl odsoudit software k pokutě nebo k trestu odnětí svobody,“ říká Grunwald. Určitě ne v případě, kdy umělá inteligence, jako je třeba finanční algoritmus, nemá žádné fyzické tělo.

Dokonce i v případě zabité pracovnice Wandy H. nepůjde robot-viník do vězení. To, že se sám aktivoval, byla pravděpodobně tragická nehoda. Nicméně autonomně působící stroje brzy nebudou výjimkou, ale spíše pravidlem. Zatím lidstvu zbývá ještě trochu času se na to připravit.

Foto popis| Inteligentní stroje přicházejí Analytici očekávají, že nasazení umělé inteligence v evropských společnostech se v následujících letech výrazně zvýší. V roce 2025 by měly systémy umělé inteligence generovat už 7,8 miliardy dolarů.
Foto autor| Zdroj: Tractica via statista

Foto popis| Nehoda ve Švýcarsku Když autonomní inteligentní autobus švýcarské pošty způsobil ve zkušebním provozu nehodu, byla škoda zaplacena z pojištění odpovědnosti.
Foto popis| „Reforma pojišťovacího systému není nutná.“ Joachim Müller generální ředitel pojišťovny Allianz AG
Foto popis| Návštěva robotů v Evropském parlamentu, kde se v polovině února projednávaly evropské zákony robotiky.
Foto autor| Foto: European Union 2017/Zdroj: EP (nahoře); KIT (dole)

Foto popis| Vozy bez řidičů Prototyp plně autonomního vozu Audi A7 se už prohání na německých dálnicích, zatím jen ve zkušebním režimu. Autonomní vozy v běžném provozu můžeme očekávat do 10 let.
Foto popis| „Nedává smysl odsoudit software k pokutě.“ Profesor Dr. Armin Grunwald Karlsruhe Institute of Technology (KIT)

BENJAMIN HARTMAIER, autor@chip.cz

Příbuzná témata: