Roboti budoucnosti s morálkou a etikou člověka

Začal vývoj algoritmů a systému, který by měl budoucím inteligentním robotům s umělou inteligencí zlepšit jejich chování s lidmi. Potřebují se roboti chovat morálně?

Roboti budoucnosti budou vybaveni pokročilou umělou inteligencí, která jim umožní reagovat v reálném světě a vyvarovat se chyb a problémů.

I když jsou současné generace robotů velmi jednoduchou ukázkou umělé inteligence – dojdi sem, cestou se vyhni překážkám a tak podobně, do budoucna budou muset řešit složitější a složitější situace, které budou vyžadovat mnohem komplexnější rozhodovací proces, než jaký vyžaduje vyhnutí se překážce.

Ve víru statistiky

Rozhodování robotů, respektive umělé inteligence v kritických situacích je samozřejmě námětem mnoha vědeckofantastických příběhů. Vše se ale odvíjí od složitost dané umělé inteligence a kolik proměnných je schopná do rozhodování zapojit, stejně tak kolik kroků dopředu dokáže předpovědět, že se po daném rozhodnutí v budoucnu stane.

To je základ každé inteligence a lze to přirovnat k mnohem komplexnější formě výpočtů než jsou třeba šachy. Pokud si představíme jednoduchou situaci, kdy má třeba robot „hasič“ hasit oheň. Postupuje striktně dle statistiky a modelu - kde je nejefektivnější stříkat vodu pro hašení požáru, třeba dle statistických dat a technikám, které už jsou ověřené a funkční z minulosti.

irobot-sonny.jpg

Se zvyšující se kapacitou a výkonem umělé inteligence ale bude možné řešit složitější situace, které už lidský mozek ve většině případů zvládne. Naše pokročilá inteligence si ale kromě statistického pohledu postupně vyvinula i komplexnější, morální a etické sociální „algoritmy“, které jsou schopné přepsat logické a statistické rozhodování.

Otázka zní, chceme, aby budoucí roboti měli podobnou „lidskou“ vlastnost?

Robot záchranář

A právě na implementaci těchto vlastností se soustředí vědci z univerzity Tufts, Brown a polytechnického institutu Rensselaer ve spolupráci s námořnictvem Spojených států amerických (U.S. Navy).

Základní ukázkový model, který naznačuje co je nutné řešit, představuje imaginárního robotické záchranáře, který je nasazen ve válečné oblasti. Z tábora je vyslán s důležitými léky, se kterými musí co nejdříve dorazit do vzdáleného cíle, kde léky nutně potřebují. Cestou ale potká zraněného vojáka, který potřebuje okamžitou pomoc. Jak se zachová?

Člověk je schopen „přepsat“ původní cíl a rychle poskytnout alespoň základní pomoc zraněnému vojákovi. A podobná vlastnost je chtěná i u robota. Případný robot by tak měl plnit svůj hlavní úkol a cíl, ale pokud narazí na situaci, která má nějakou formu morálního hlediska, měl by se rozhodnout podobně jako člověk a být schopen přerušit původní hlavní program.

Cílem vědců je tak analyzovat jádro morálního chování a implementovat ho do rozhodovacích procesů v podobě algoritmů, které se v budoucnu zapracují do komplexnějšího systému umělé inteligence. Takový robot by pak měl mít schopnost morálky a etiky na podobné úrovni jako člověk, což by mělo zlepšit jeho schopnosti a úsudek řešit nenadále situace.

Problém totiž je, že nelze dopředu naprogramovat všechny situace, které se mohou v reálném světě stát a je nutné vycházet z morálního základu, který je schopen novou a neznámou situaci vyhodnotit co nejlépe.

Vědci počítají s tím, že robot bude pracovat i s vlastnostmi člověka – jakou bolest mu zraněný způsobuje, zda třeba zvolit bolestivější ale účinnější, nebo méně bolestivé a méně účinné ošetření a podobně.

Dobro a zlo

Evoluce postupem času v rámci naší společnosti vyvinula spoustu podobných morálních vlastností a rozdělení toho, co je špatné a dobré. Pokud si představíme složitější situaci, kdy by měl člověk nebo robot rozhodovat mezi přežitím dítěte a starce, je volba vzhledem k morálce jasná – dítě má v takovém rozhodování větší váhu. A takových nepsaných sociálních pravidel je spoustu, stejně jako že menšina se obětuje za přežití většiny a podobně.

Už i u zvířat s menší inteligencí lze pozorovat komplexnější chování, mezi které patří třeba i to, že matka sežere vlastní mládě pokud vycítí, že je slabé a nepřežilo by a raději tak podpoří mláďata, která přežila, jsou zdravá a mají větší šanci na přežití.

 

„Nepřidáš se k většině, když páchá zlo.“

ukázka morálky z náboženské Bible, Exodus 23,2
 

Bohužel v mnohých případech už jsou některé věci tak komplexní, že už ani sami nejsme schopni vyhodnotit, zda se jedná o dobro nebo zlo. Vše totiž záleží na tom, kolik o daném scénáři či situaci vím nejen informací z minulosti a současnosti, ale také jak jsme schopni předpovědět budoucí vývoj.

I když nám spoustu jednodušších situací pomáhají částečně řešit i zákony - třeba povinnost poskytnout první pomoc, i ty se ale liší dle místa na zemi a státu, protože celé lidstvo se ještě stále neřídí stejnými morálními zásadami, které se navíc mění v průběhu času a vývoje dané části civilizace.

Stroje řídící lidstvo

Se zmíněnými aspekty pochopitelně vyvstává otázka budoucnosti a situace, která nastane, pokud začnou více a více rozhodovat umělé inteligence v podobě datacenter, strojů, robotů a dalších forem, řídící stále větší část infrastruktury světa ale i našeho života.

Stejně jako my se na minulost díváme kriticky a odsuzujeme tehdejší jednání (zabíjení objevitelů a vědců, kteří měli jiný názor na cokoli a podobně), lze předpokládat, že stroje nakonec budou mít podobné vlastnosti. IBM Watson je schopen analyzovat zákony a počítá se s ním pro použití coby dokonalého právníka. Do budoucna se ale takové stroje mohou stát i „dokonalými“ soudci.

TIP: Zákony robotiky: když i bohové mají strach

Může se nakonec stát, že v budoucnu mnohem inteligentnější stroje „morálně“ rozhodnou, že příliš ničíme planetu a je nutné nás v rámci většího dobra všech organismů na planetě omezit v možnostech nebo počtu? Možná ano.

Stejně se totiž chováme i my k méně inteligentním organismům, které nejsou schopné posuzovat a vyhodnocovat lokální následky v komplexnějším měřítku (třeba přemnožení v daném místě a následky, které to má).

Diskuze (74) Další článek: Zprávy Živě: Máme právo být zapomenuti

Témata článku: , , , , , , , , , , , , , , , , , , , , , , , ,