Má se lidstvo do budoucna bát robotů? Podle některých vědců je třeba, aby se upustilo od dnes už přežitých základních zákonů robotiky. Roboti by naopak měli být aktivnějšími pány situaci, zároveň by měli i nadále dbát o bezpečí lidských jedinců.
Znáte základní zákony robotiky podle Isaaca Azimova? Tento spisovatel a biochemik amerického původu stanovil tři základní teze, které by měly platit pro svět robotů už v roce 1942.
1) Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby bylo člověku ublíženo
2) Robot musí uposlechnout příkazů člověka, kromě případů, kdy jsou tyto příkazy v rozporu s prvním zákonem
3) Robot musí chránit sám sebe před poškozením, kromě případů, kdy je tato ochrana v rozporu s prvním nebo druhým zákonem
Lze účinně zabránit robotům, aby neublížili lidem? Je pravda, že většina robotů (třeba těch, kteří v automobilkách montují auta), kteří fungují dnes, se sami vypnou ve chvíli, kdy se k nim přiblíží člověk.
Jenže roboti neslouží a nebudou sloužit pouze pro montáž aut. Vědci a technici by rádi vyráběli multifunkční roboty, kteří by byli schopni i socializace. Měli by plnit čím dál více úkolů. Jakmile se roboti stanou skutečnými služebníky lidí, vědci se budou muset vypořádat s velkou komplexností situací, které mohou nastat a ve kterých budou hrát etické a bezpečnostní otázky velkou roli.
Christoph Salge je jedním ze strůjců umělých lidí. S kolegy nabízí opuštění konceptu, který stanovil tři robotické zákony. "Namísto zákonů, které omezují chování robotů, by roboti měli být posíleni na maximální možnou míru - tak, že by mohli volit to nejlepší řešení pro jakoukoliv situaci," vysvětluje v časopise The Conversation. Základní proměnnou v jejich uvažování by ale stále bylo pravidlo, že lidé mají zůstat v bezpečí, co nejvíc to jde.
Ačkoliv jsou podle těchto vědců zákony přijatelné, existuje spousta argumentů, proč už nejsou vhodné. Pro to, aby mohl takovýto návod pro roboty fungovat, je třeba projít velmi těžkým procesem jejich tvorby. Roboti musí mít naprogramované manuály, které umožní překlad informací do podoby, které porozumějí. "Porozumění celé škále lidského jazyka a zkušeností je pro robota velmi složitým úkolem," píše Salge.
Navíc výchovné cíle, které spočívají na uchování lidského života a také ochraně samotné robotí existence, mohou v různých kontextech znamenat různé věci. V některých situacích by se totiž mohl robot těžko rozhodovat, co když dojde k situaci, kdy si bude muset vybrat mezi životem člověka a životem robota?
"Náš alternativní koncept "posílení" stojí v protikladu k bezbrannosti. Být posílený znamená mít schopnost ovlivnit situaci a být si vědom toho, že ji můžeš ovlivnit," vysvětluje Salge. Jeho tým vyvíjí a překládá tento koncept do kvantifikovatelné podoby a technického jazyka. Pokud by se vědcům koncept podařilo "vynalézt", měli by roboti mnohem větší manévrovací prostor.
"Když jsme zkoušeli simulovat, jak robot se svým posílením v různých scénářích naloží, zjistili jsme, že často jedná překvapivě "přirozeně"," dodává vědec. Aby však lidé zůstali v bezpečí, roboti musí svou schopnost umět správně využít. Pohánět by je tak měla ochota a přirozená tendence chránit a podporovat lidi. Pokud by se roboti lidem více otevřeli, znamenalo by to automaticky i jejich posílení.
Pokud by lidi omezovali, to by naopak vyústilo v krátkodobou ztrátu posílení. Pokud by nějakého člověka hluboce ranili, ztratili by posílení zcela. V případě, že se tento princip ve světě robotiky prosadí, roboti budou schopni sami od sebe vyhodnotit i situace, které nikdy předtím nezažili. Ukažme si to na příkladu. Namísto neustálého následování pravidla "nestrkej do lidí", by robot sice sám od sebe do lidí nestrkal, ale v případě, kdy by hrozila srážka člověka a překážky, robot by vyhodnotil, že do člověka strčit smí. Lidé by tak mohli utrpět zranění, ale rozhodně menší, než kdyby do nich robot v dané chvíli nestrčil.
Christoph Salge a jeho tým věří, že koncept posílení povede k praktičtějšímu využití robotů a nasměruje cestu k etickému jednání těchto umělých jedinců.
Témata: Roboti
Související
3. prosince 2021 19:40
26. listopadu 2020 8:37
19. ledna 2019 17:06
13. ledna 2019 13:28
8. ledna 2019 9:37
7. prosince 2018 7:59