Jak to bude s trestní odpovědností robotů?
Je zřejmé, že i roboti budou dělat chyby a bude docházet ke škodám, stejně jako tomu je v případě lidských operátorů. Kdo však ponese odpovědnost?
Aby to nebylo tak jednoduché, tak podle současného právního řádu odpovědnost za škodu způsobenou věcí nese její uživatel, a pokud jej nelze určit, tak vlastník věci. Zároveň však platí, že pokud je škoda způsobena vadou výrobku, tak pak za ni odpovídá její výrobce. Všichni ale víme, jak je tomu u SW, a jak v takových případech rozhoduje soud, že.
Těžko tak lze předjímat, jak tomu bude v okamžiku, když robot fungující na principu strojového učení, schválně se vyhýbám pojmu AI, udělá chybu, kdo pak ponese odpovědnost? Ten kdo naprogramoval mechanismus strojového učení, ten kdo robotovi předložil vzorky, na kterých si robot svou činnost natrénoval anebo ten, kdo mu přidělil pro něj možná nevhodný úkol a nepřijal vhodná bezpečnostní opatření?
V každém případě byste se měli poohlédnout po vhodném pojištění a implementovat něco jako červené tlačítko, aby oprávněná osoba měla možnost robota kdykoliv zastavit. A přijata by měla být i další bezpečnostní opatření organizační a technické povahy, aby se eliminovalo riziko napadení robota, vzniku chyb, anebo že se robot dostane do stavu, kdy nebude schopen reagovat na vzniklou situaci a způsobí škodu svou pouhou nečinností.
A stejně jako v případě lidských operátorů budeme muset řešit otázku, zda má robot vytvořeny optimální podmínky pro svoji práci. Zde vzniká otázka, zda je např. MS Windows dostatečně spolehlivé pracovní prostředí pro běh robotů a jak v takovém prostředí provádět aktualizace a nasazovat patche.
V takovém prostředí asi nepůjde patche nastavit hned po jejich uvolnění, protože riziko, že něco nebude fungovat tak jak má, bude příliš velké. Je třeba si uvědomit, že robot nikdy neudělá nic jiného, než co mu řekneme. A i to může být problém, protože robot nebude schopen reagovat na vzniklou situaci, se kterou by si lidský operátor normálně poradil.
Při posuzování trestní odpovědnosti by mělo být vzato v úvahu, zdali se výrobce, programátor či vlastník robota poučil a příslušný problém, který již někde jinde nebo jindy nastal, eliminoval anebo jinak zabránil jeho opakování a možnému vzniku škody.
V praxi to např. znamená, že provozovatel RPA by neměl problém řešit restartem softwarového robota, aplikace ba ani operačního systému, ve kterém robot pracuje, protože tím neodstraní skutečnou příčinu problému, jen vyřeší aktuální provozní incident, tedy že robot nepracuje, anebo že nepracuje správně.
Vždy je nutné vyřešit, zda je chyba způsobena robotem samotným, či chyba leží na straně jeho provozovatele, který mu zadává práci a zda se dala chyba robota předvídat a dalo se jí zabránit či nikoliv. Problém je, že to může být velice nákladné a příčina problému nemusí být přesto spolehlivě identifikována a zcela odstraněna.
ČERMÁK, Miroslav, 2019. Jak to bude s trestní odpovědností robotů?. Online. Clever and Smart. ISSN 2694-9830. Dostupné z: https://www.cleverandsmart.cz/jak-to-bude-s-trestni-odpovednosti-robotu/. [citováno 08.12.2024].
Štítky: robotizace
K článku “Jak to bude s trestní odpovědností robotů?” se zde nenachází žádný komentář - buďte první.
Diskuse na tomto webu je moderována. Pod článkem budou zobrazovány jen takové komentáře, které nebudou sloužit k propagaci konkrétní firmy, produktu nebo služby. V případě, že chcete, aby z těchto stránek vedl odkaz na váš web, kontaktujte nás, známe efektivnější způsoby propagace.