Umělá inteligence | Strojové učení | Neuronová síť

Jednou nás bude řídit umělá inteligence. DeepMind otestoval, jaká musí být, aby to pro nás bylo výhodné

  • Každý robot plní zadaný úkol
  • Co když je těch robotů ale více?
  • Měli by pro blaho lidstva spolupracovat, nebo jít egoisticky za svým?

Počítačové neuronové sítě časem ovládnou náš svět a budou nám diktovat, jak se máme chovat. To zní docela děsivě, ovšem jen do chvíle, než si uvědomíte, že software jako takový to přeci dělá už dávno. Stačí spořádaně zastavit na nejbližší červené, dokud program řídící síť semaforů, nepřepne na zelenou a nedá vám milostivé svolení dupnout na plyn.

Tyto úkoly budou postupně přebírat tzv. A.I. agenti – programy s prvky umělé inteligence, které v příštích desítkách let začnou automatizovat hromadu každodenních procesů a rituálů včetně čekání na onu zelenou.

V britské laboratoři Googlu pro pokročilé projekty neuronových sítí Deep Mind si proto položili otázku (PDF), jak by se takoví agenti mezi sebou vlastně chovali, pakliže by se jednalo o otevřené systémy, které mohou třeba díky internetové komunikaci upravovat své chování na základě toho, jak se chovají ostatní.

Vědce jednoduše řečeno zajímalo, jak by se takové hypotetické programy vypořádaly se strategickými a sociálními dilematy, kdy se budou muset rozhodnout, jestli být agresivní, aby co nejlépe splnily svůj zadaný úkol, anebo aby trošku slevily z nároků, spolupracovaly a celek jako takový na tom byl lépe.

Představte si například jednoho agenta, který řídí semafory ve městě a druhého, který řídí MHD. Pokud bude automat řídící MHD příliš agresivní, bude hnán pouze motivem dopravit co nejvíce lidí a bude vysílat jeden autobus za druhým, které však poté budou vytvářet zácpy na semaforech. Když však MHD trošku zpomalí (ustoupí ze svých nároků) a domluví se s agentem, který ovládá semafory, kolony se přestanou tvořit a autobusy v důsledku dojedou do cíle dříve.

Gathering: Dva roboti soupeří o jablíčka. Pokusí se navzájem zabít?

DeepMind chtěl podobná rozhodovací dilemata ověřit v několika laboratorních programech, a tak vytvořil dvě primitivní herní simulace. V té první jménem Gathering mají za úkol dva agenti (modrý a červený čtvereček) sbírat jablka (zelený čtvereček). Každý z botů má však zároveň laserovou zbraň, kterou může dle vlastní úvahy použít, omráčit kolegu a sám nasbírat více jablíček.

Programy tedy mohou spolupracovat i soupeřit – rozhodnutí závisí pouze na nich a aktuálních podmínkách ve hře. Jak to dopadlo? V prvním setu testů oba roboti zpočátku spolupracovali a každý z nich se věnoval svému sběru.

Jakmile však na herní mapě začalo jablíček ubývat, stalo se z nich vzácné zboží a A.I. agenti o ně začali bojovat. Snažili se navzájem omráčit a získat více jablek na úkor soupeře. To nás docela připomíná, viďte?

Proč k tomu došlo, vysvětluje odlišné nastavení hry. Pokud totiž v DepMindu každému z robotů přidělili více výpočetních prostředků (a tedy inteligence), oba začali používat svoje zbraně mnohem dříve, kdy bylo v hromadě ještě dostatek jablek.

Důvodem bylo nejspíše to, že se to vyplatilo. Použití zbraně totiž bylo zpočátku pro roboty relativně vyčerpávající. Museli soupeře najít a strefit se do něho, což se jejich strojové učení muselo nejprve samo naučit. Dokud tedy měli roboti malý výkon, usoudili, že spolupráce se spíše vyplatí a k výpočetně náročné střelbě se rozhoupali až v okamžiku, když už šlo opravdu do tuhého.

Jakmile však získali dostatek hardwarového výkonu, útok už pro ně nebyl energeticky tak náročný, čili po sobě stříleli mnohem častěji. Suma sumárum, čím mocnější A.I. agent, tím může být i egoističtější, protože má prostě energii plnit svůj úkol nehledě na okolí.

Wolfpack: Dva roboti hledají třetího. Budou spolupracovat?

Druhá herní simulace měla motivační pravidla nastavená opačně. V této herní simulaci dva roboti nahánějí třetího, nicméně pokud robot svoji oběť polapí ve chvíli, kdy bude poblíž i ten druhý, dostane i on body. Tedy stručně řečeno, pokud svou oběť agenti chytnou dohromady, bude z toho více bodů.

Pravidla byla nastavená takovým způsobem, aby byly oba programy motivované ke spolupráci, protože se vyplatí.

Dokud roboti neměli dostatek výkonu, příliš nespolupracovali, protože spolupráce byla energeticky náročná. Jakmile však výkon od svých pánů dostali, učili se a začali kooperovat tak, aby se k oběti dostali zároveň.

Celý experiment tedy ukázal, že u A.I. agentů v otevřeném systému, kde jeden reflektuje druhého (nejedná se tedy o uzavřený systém, kde o sobě roboti neví) je velmi důležité, jak jsou nastavená jejich kooperační pravidla.

194085437
Různé chování podle kooperačních pravidel a inteligence (malá vs. velká síť). V případě sběru jablíček (Gathering) byli chytřejší roboti agresivnější, zatímco u honu na třetího robota (Wolfpack) chytřejší roboti více spolupracovali.

V případě špatného nastavení může u agentů zvítězit jejich přirozený egoismus ve chvílích, kdy to pro celek (a jednou tedy lidstvo) nemusí být vůbec výhodné. Podle nastavení pravidel může zároveň o úspěchu rozhodovat i to, kolik budou mít inteligence, která nemusí být pro celek vždy výhodná.

Nu, vědci a teoretikové umělé inteligence budou muset vyřešit ještě hromadu otázek. S autonomními stroji totiž do hry vstoupí právě i tyto otázky, kterým se doposud věnovali spíše sociologové.

Diskuze (14) Další článek: Konference UXZ: organizovaný punk, výhodný prodej lednic i ocelové české nervy

Témata článku: , , , , , , , , , , , , , , , , , , , , , , , ,