Deník N

Kdo nese odpovědnost, když něco provede robot

Humanoidní robot Pepper už leckde pracuje jako recepční. Foto: Alžběta Krausová
Humanoidní robot Pepper už leckde pracuje jako recepční. Foto: Alžběta Krausová

Rozhovor se specialistkou na robotické právo o umělé inteligenci, Evropské komisi, umělých občanech a o tom, jak vystrnadit nepohodlného nájemníka pomocí rozpoznávání obličejů. A jak se tomu bránit.

Alžběta Krausová z Ústavu státu a práva AV ČR patří mezi nemnoho právníků, kteří myslí na budoucnost nejméně o dva kroky dopředu. Snaží se předvídat budoucí právní problémy vyvstávající z autonomních technologií a navrhovat, jak je řešit, dokud je čas. Nezbývá ho příliš. Umělá inteligence již zasahuje do našich každodenních životů a často se tak děje v právním vakuu.

Před několika týdny jste pořádala mezinárodní konferenci SOLAIR, zaměřenou na otázky práva a etiky umělé inteligence (AI). Oč přesně jde?

Věnovali jsme se tam vznikající evropské regulaci umělé inteligence. Evropská komise (EK) letos vydala doporučení pro takzvanou důvěryhodnou umělou inteligenci a také sadu politických a investičních doporučení k témuž tématu. Na konferenci vystoupila například Irina Orssich jako zástupkyně Evropské komise, přesněji jejího Generálního ředitelství pro komunikační sítě, obsah a technologie. Apelovala na to, že by se k připravované regulaci měly vyjádřit všechny členské země EU a seznámit ostatní se svými prioritami v této oblasti.

Co ta doporučení EK říkají?

Hovoří se tam o třech pilířích, na nichž by měla stát důvěryhodná umělá inteligence. Jde o soulad s právem, respekt k etickým hodnotám a technologickou robustnost. Dále je tam sedm klíčových podmínek důvěryhodnosti AI: lidský dohled, technická spolehlivost, transparentnost, ochrana soukromí, vyvoditelnost odpovědnosti, ohled na sociální a životní prostředí a konečně také diverzita, nediskriminace a spravedlnost. Součástí doporučení je dotazník pro firmy a vědecká pracoviště, zaškrtávací seznam, kde si můžete ověřit, zda váš produkt splňuje etické a právní požadavky.

Z vyjmenovaných požadavků je klíčový lidský dohled. Člověk musí být součástí rozhodovacího procesu. Říká se tomu human in the loop. Je to nutné mimo jiné kvůli stanovení odpovědnosti. Robot ani počítačový program nemohou mít právní odpovědnost, robot je věc. Odpovědný je vždy člověk, případně právnická osoba.

Zní to trochu jako Asimovovy zákony robotiky.

Trochu. Ale nynější požadavky jsou přesnější a praktičtější.

Ano. Asimov na „human in the loop“ rozhodně netrval. Nesnižuje se tím ekonomická hodnota AI a robotů? Chceme přece, aby stroje dělaly práci za nás.

Některé činnosti můžete automatizovat úplně. Třeba obchodování na burze, rutinní výrobní činnosti…

To je už realita dneška.

Ano. Uživatelé takových systémů je akceptují, jak jsou, vědí, že se nemohou na osobě, která jim algoritmus poskytla, domáhat náhrady škody za případnou chybu. Když AI rozpoznává šroubky a třídí je, žádné nebezpečí nehrozí. Ale třeba v medicíně je situace úplně jiná. Počítač může navrhnout diagnózu, ale rozhoduje lékař.

Přejeti samořídicím autem

Jak je to se samořídicími auty? Plný užitek z nich se dostaví jen tehdy, budou-li zcela autonomní.

To je hodně sporná věc. Dnes to funguje tak, že systém předává v kritických situacích řízení zpátky člověku. Brzy může nastat situace, že budeme výslovně chtít, aby to nedělal, protože stroj dokáže reagovat mnohem rychleji

Tento článek je exkluzivní obsah pro předplatitele Deníku N.

V tomto okamžiku nejčtenější