Rozhodnutí zabít bylo až doposud vždy ryze lidské. Každá zbraň byla jen nástrojem, který musel někdo použít, za každým úderem stál záměr. Umělá inteligence však postupuje mílovými kroky, a světu se tak dostává nových etických otázek, které nikdy předtím nemusel řešit: Kdo je zodpovědný, když se bitevní dron rozhodne někoho usmrtit? Na čích rukou je krev člověka, jehož nedopatřením zabije automatický chirurg? Kdo nese vinu, pokud vozidlo naváděné počítačem někoho srazí? Na podobné otázky se snaží najít odpovědi výzkumníci a filozofové z celého světa.
Vědci z MIT se však rozhodli přistupovat k problému z jiného úhlu: co když autonomní auto musí zabít, a není to v důsledku selhání techniky? Co když mu situace, do které se dostane, neumožní zachránit všechny zúčastněné, například když se mu ve vozovce najednou ocitne dítě a důchodce, a ono si musí vybrat, do koho z nich nabourá, protože prostě nemá jinou možnost?
Musí-li tedy učinit takovou volbu, jak by si mělo vybrat? Náhodně? Nebo podle nějakého předem ustanoveného klíče? Vyřešit takové morální dilema je velmi nesnadné, a tak se o to massachusettští vědci ani nepokoušeli. Namísto toho vytvořili internetovou hru, ve které je uživatel postaven před celou sérii takových krizových stavů. Může si vybrat tu mezi kriminálníkem a spořádaným občanem, tu mezi psem a kočkou, jindy zase mezi mužem a ženou či člověkem tlustým a hubeným.
Koho zachránit?
Výsledky tohoto experimentu, který běžel přes dva roky a zúčastnili se ho lidé z více než dvou set zemí světa, již dohromady vykonali na čtyřicet milionů podobných rozhodnutí, byly před nedávnem zveřejněny.
Vyniklo zde několik celosvětových preferencí – auto by mělo raději zachránit větší než menší množství lidí, mladé před starými, lidi před zvířaty. Poměrně překvapivě se neprokázala větší touha zachránit jedno či druhé pohlaví (ač byla vidět statisticky poměrně nevýznamná inklinace k přežití ženy vůči muži), ani jiné bigotní trendy, jejichž odhalení se mnozí báli.
Znát názor světové populace na takové morální problémy je zásadní, neboť vzestup umělé inteligence a přechod na primárně samořídící auta, k němuž bude muset jednoho dne nutně logicky dojít, se dotkne každého člověka na Zemi.
Rozhodnutí ovlivnily kultura i bydliště
Tento experiment, a další na podobné téma, jež budou nepochybně provedeny v budoucnu, mohou posloužit jako důležitý zdroj informací pro politiky, kteří budou muset připravit potřebnou legislativu. U současných modelů samořídících aut alespoň oficiálně žádné fixní preference zabudované nejsou, technologie navíc umožňuje stěží víc, než narazit do menšího z dvou možných objektů srážky, či se pokud možno vyhnout srážce s chodcem nebo cyklistou (bez ohledu na to, o koho jde), to se však postupně změní.
Je logické, že výrobci aut budou chtít, aby auta chránila především své pasažéry – nikdo by si nekoupil vůz, nad nímž nemá kontrolu a o kterém ví, že pokud mu to přijde jako potřebné, jeho život zahodí, jestliže by na trhu byla dostupná alternativa. Státní, či v ideálním případě nadnárodní legislativa má však moc podobné poptávkou diktované preference zvrátit, dokážeme-li se shodnout na tom, kde leží naše představy o etice.
I v tom poukazuje studie MIT na zajímavou skutečnost – rozhodnutí, kdo by měl přežít, a kdo by měl být obětován, se značně lišila podle místa i kultury. Základní trend, popsaný výše, zůstal zachován, avšak některé detaily se tak úplně neshodovaly. V asijských zemích a na Blízkém východě byla výrazně menší tendence favorizovat mládí nad stářím než jinde, což je logické, vzhledem k velmi dlouhé a silně zakořeněné tradiční úctě k moudrým stařešinům. Na druhou stranu jim tolik nezáleželo na záchraně člověka s vyšší společenskou prestiží, což už tak jednoduše vysvětlitelné není. V chudších zemích by méně lidí bylo pro obětování člověka, který jde na červenou, oproti člověku, jenž jde na zelenou.
Řada otazníků
Ač jsou výsledky tohoto experimentu zajímavé, musíme si uvědomit, že je ze své podstaty zjednodušující. Skutečný život je daleko komplikovanější než internetová „klikačka“, a do hry se tak dostává značné množství nových faktorů. Například následující pravděpodobnost: I pokud by auto vědělo, že v případě nutné srážky má raději zachránit dítě než starce, co kdyby mohlo narazit takovým způsobem, že by zasažené dítko mělo nějakou šanci na přežití, zatímco přejetý kmet by jistojistě zemřel? Nebo, co pokud může přejet jednoho člověka, a zajistit tak bezpečí většímu množství pasažérů, ale také by se mohlo pokusit o riskantní manévr, který by mohl zachránit všechny, či všechny zabít, podle toho, jak dopadne?
Další otázkou je, zda je vůbec správné zakódovávat do stroje nějakou pevnou preferenci – nedáváme tím v podstatě najevo, že některé životy jsou cennější než jiné, základním myšlenkám naší civilizace navzdory? Nebylo by tedy lepší do automobilu vložit algoritmus, který se rozhodne naprosto náhodně?
Je zřejmé, že čím více z našich schopností a vlastností přenášíme na stroje, tím více vychází najevo, že sami vlastně nevíme, kde leží naše hodnoty. Máme jistou představu, samozřejmě, ale to je tak všechno. Stěží tušení o směru. Někdy ani to.
Až doposud jsme si mohli užívat skutečnosti, že velkou část etiky za nás sama vyřešila evoluce, jež v nás vložila jisté více či méně fixní hodnoty. Teď je čas vyzkoušet, jestli obstojí.
Zdroje:
Nature.com
Moralmachine.mit.edu
Theverge.com
Venturebeat.com
Tagy: auto automat experiment výzkum
