Svět brojí proti autonomním robotickým zabijákům
- Svět brojí proti autonomním robotickým zabijákům
- Co vadí na robotických zabijácích a jaké se rýsuje řešení
Morální problém
Lidé, na rozdíl od strojů, jsou schopni vycítit, co to znamená, pokud někomu vezmou život. To je hlavně díky empatii, což je vcítění se do druhého člověka. Empatie v tomto případě může sloužit jako pojistka - pojistka na zabíjecím stroji. A právě roboti by tuto pojistku neměli..
Tyto lidské myšlenky a city nejde (zatím) napsat jako algoritmus. Jak se píše na stránkách Human Rights Watch, robotům chybí moralita a mortalita, tedy morálka a smrtelnost. Dále by se stroje podílely na rozhodování, kdo přežije a kdo zemře. To podle odpůrců robotických zabijáků ničí důstojnost a hodnotu lidského života, protože smrt člověka ztratí význam pro druhé. A tím ztratí část významu i jeho život.
Lidská práva
Dalším zásadním bodem, kterým odpůrci robotů argumentují, jsou lidská práva. Jistě víte, že v ústavě, nejvyšším zákonu, je zahrnuta i Listina základních lidských práv a svobod. Například mezinárodní listina práv a svobod v sobě má část, která říká, že zabíjení vyžaduje lidské kvality, které rozpoznají, zda se jedná nejen o "povolený", ale i o legitimní cíl.
Trochu si toto téma odlehčíme příkladem z Červeného trpaslíka. K posádce přiletí robot jako náhrada za robota z posádky Červeného trpaslíka. Tento nový robot má povolení k násilí jen za určitých okolností, ale nikdy nesmí ublížit člověku. Robot ale za dlouhé roky, kdy Trpaslíka pronásledoval, zdegeneroval, a tak jeho systém vyhodnotil všechny členy posádky jako "budižkničemy" a všichni se stali povolenými cíli.
Jinými slovy - robot samozřejmě s velkou přesností dokáže rozeznat nepřítele ve vojenské uniformě od obyčejného občana. Problém ale nastane třeba s legitimizací zabití. Člověk se rozhoduje, zda někoho zabije, třeba podle tónu hlasu nebo řeči těla. Například voják nezastřelí člověka, který na sobě má "maskáče", protože si je koupil v armádním výprodeji. Voják totiž hned pozná, že se jedná o "nepovolený cíl".
Dále nezabije člověka, který se vzdal nepříteli. To by bylo nedůstojné. V obou těchto smyšlených názorných příkladech by ale stroj zabíjel. Dále se v mezinárodních zákonech píše, že vojáci mají zůstat pod ochranou principů autority a lidskosti. To platí pro případy, které v těchto zákonech nejsou speciálně vymezeny – právě o autonomních robotických vojácích se ve vojenských zákonech nepíše.
Jak poznamenává HRW, například u Mezinárodního výboru Červeného kříže je lidskost popisována tak, že vyžaduje soucit k druhým a schopnost ochránit. Přitom se podle zákonů má principům lidskosti dostat vojákům v boji, dostane se jim ho od robotů? Současná umělá inteligence to nedokáže.
Problém nekontrolovatelnosti
Roboti nebudou po vypuštění do terénu kontrolováni ani řízeni. To je staví do podobné situace jako biologické a chemické zbraně a miny. Všechny tyto způsoby zabíjení jsou zakázány. Důvod je zřejmý, jakmile vypustíte biologickou zbraň, nemáte nad ní vůbec žádnou kontrolu. Jestli není odvážné porovnávat killer robots a biologické zbraně, to ukáže jen čas. Odpůrci robotických zabijáků každopádně říkají, že když jsou zakázány tyto nekontrolovatelné způsoby zabíjení, proč by se měli povolit roboti?
Zabijáčtí roboti mají eso v rukávu
Proč jsem teď mluvil o tom, co všem vadí na robotických vojácích? Ve skutečnosti je na všechny tyto problémy již připravováno řešení. V dokumentech The United Nations Office at Geneva se objevila i zajímavá informace z Izraele určená pro tamějšího prezidenta: "Lidské rozhodování je integrováno do několika vývojových fází robotických zabijáků, do testování, zhodnocování, schvalování a rozhodování, zda zapojit systém zbraní. Celkový cíl je, aby tito roboti byli dostatečně komplexní, aby splňovali předpoklady zákonů o ozbrojených konfliktech."
Obecně lze říct, že zákon o ozbrojených konfliktech omezuje použití biologických a chemických zbraní a min, tedy použití nekontrolovatelných hromadných prostředků pro zabíjení. Dále lze obecně říct, že tento zákon vyžaduje lidský podíl na rozhodování. Jinými slovy je potřeba odstranit problémy s morálními rozhodnutími, problémy s lidskými právy a nekontrolovatelností - vše bylo shrnuto výše. Z dokumentu je jasně patrné, že Izrael chce vyvinout takové robotické zabijáky, které vyhovují všem zákonům. Jinými slovy podle dnešních měřítek by měl takový robot uvažovat jako člověk, měl by mít empatii a soucit, zkrátka by měl být lidský.
Izrael je tedy již v pokročilé fázi testování integrace lidských vlastností do stroje. Jen doplním, že citovaný dokument je z konce roku 2014, takže je rok a půl starý. Za tu dobu jistě učinil pokrok. Pokroku bude třeba ještě hodně. Robotika je už na dobré úrovni, to dosvědčuje i Atlas od Googlu, který má velmi dobrou motoriku. Je tedy potřeba hlavně software, který dokáže simulovat lidské myšlení. Pokud by roboti uvažovali jako lidé, nebyl by velký problém, aby byli nasazeni v bojích.
Další možností je tzv. strojové nebo hluboké učení. Mohli by být naprogramováni, aby se naučili chovat jako lidé. Potom by už zůstala jen otázka, zda se nenaučí i ty špatné lidské vlastnosti a nakonec se neobrátí proti lidem, proti čemuž varuje například Elon Musk nebo HRW.
Zdroje: HRW, stopkillerrobots.org
Zdroje obrázků: Wikimedia