Galerie 3
Svět brojí proti autonomním robotickým zabijákům
Článek Ostatní Elon Musk Boston Dynamics

Svět brojí proti autonomním robotickým zabijákům | Kapitola 2

Jan Pánek

Jan Pánek

5

Seznam kapitol

1. Svět brojí proti autonomním robotickým zabijákům 2. Co vadí na robotických zabijácích a jaké se rýsuje řešení

Odvětví robotiky a umělé inteligence jde velmi rychle kupředu. Díky tomu se již za pár let máme dočkat robotických zabijáků, kteří nepotřebují přímé ovládání. Už dva roky vůči nim protestuje několik států a organizací, co bude dál?

Reklama

Morální problém

Lidé, na rozdíl od strojů, jsou schopni vycítit, co to znamená, pokud někomu vezmou život. To je hlavně díky empatii, což je vcítění se do druhého člověka. Empatie v tomto případě může sloužit jako pojistka - pojistka na zabíjecím stroji. A právě roboti by tuto pojistku neměli..

Tyto lidské myšlenky a city nejde (zatím) napsat jako algoritmus. Jak se píše na stránkách Human Rights Watch, robotům chybí moralita a mortalita, tedy morálka a smrtelnost. Dále by se stroje podílely na rozhodování, kdo přežije a kdo zemře. To podle odpůrců robotických zabijáků ničí důstojnost a hodnotu lidského života, protože smrt člověka ztratí význam pro druhé. A tím ztratí část významu i jeho život.

Lidská práva

Dalším zásadním bodem, kterým odpůrci robotů argumentují, jsou lidská práva. Jistě víte, že v ústavě, nejvyšším zákonu, je zahrnuta i Listina základních lidských práv a svobod. Například mezinárodní listina práv a svobod v sobě má část, která říká, že zabíjení vyžaduje lidské kvality, které rozpoznají, zda se jedná nejen o "povolený", ale i o legitimní cíl.

Trochu si toto téma odlehčíme příkladem z Červeného trpaslíka. K posádce přiletí robot jako náhrada za robota z posádky Červeného trpaslíka. Tento nový robot má povolení k násilí jen za určitých okolností, ale nikdy nesmí ublížit člověku. Robot ale za dlouhé roky, kdy Trpaslíka pronásledoval, zdegeneroval, a tak jeho systém vyhodnotil všechny členy posádky jako "budižkničemy" a všichni se stali povolenými cíli.

Svět brojí proti autonomním robotickým zabijákům

Jinými slovy - robot samozřejmě s velkou přesností dokáže rozeznat nepřítele ve vojenské uniformě od obyčejného občana. Problém ale nastane třeba s legitimizací zabití. Člověk se rozhoduje, zda někoho zabije, třeba podle tónu hlasu nebo řeči těla. Například voják nezastřelí člověka, který na sobě má "maskáče", protože si je koupil v armádním výprodeji. Voják totiž hned pozná, že se jedná o "nepovolený cíl".

Dále nezabije člověka, který se vzdal nepříteli. To by bylo nedůstojné. V obou těchto smyšlených názorných příkladech by ale stroj zabíjel. Dále se v mezinárodních zákonech píše, že vojáci mají zůstat pod ochranou principů autority a lidskosti. To platí pro případy, které v těchto zákonech nejsou speciálně vymezeny – právě o autonomních robotických vojácích se ve vojenských zákonech nepíše.

Jak poznamenává HRW, například u Mezinárodního výboru Červeného kříže je lidskost popisována tak, že vyžaduje soucit k druhým a schopnost ochránit. Přitom se podle zákonů má principům lidskosti dostat vojákům v boji, dostane se jim ho od robotů? Současná umělá inteligence to nedokáže.

Problém nekontrolovatelnosti

Roboti nebudou po vypuštění do terénu kontrolováni ani řízeni. To je staví do podobné situace jako biologické a chemické zbraně a miny. Všechny tyto způsoby zabíjení jsou zakázány. Důvod je zřejmý, jakmile vypustíte biologickou zbraň, nemáte nad ní vůbec žádnou kontrolu. Jestli není odvážné porovnávat killer robots a biologické zbraně, to ukáže jen čas. Odpůrci robotických zabijáků každopádně říkají, že když jsou zakázány tyto nekontrolovatelné způsoby zabíjení, proč by se měli povolit roboti?

Zabijáčtí roboti mají eso v rukávu

Proč jsem teď mluvil o tom, co všem vadí na robotických vojácích? Ve skutečnosti je na všechny tyto problémy již připravováno řešení. V dokumentech

The United Nations Office at Geneva

se objevila i zajímavá informace z Izraele určená pro tamějšího prezidenta: "

Lidské rozhodování je integrováno do několika vývojových fází robotických zabijáků, do testování, zhodnocování, schvalování a rozhodování, zda zapojit systém zbraní. Celkový cíl je, aby tito roboti byli dostatečně komplexní, aby splňovali předpoklady zákonů o ozbrojených konfliktech.

"

Obecně lze říct, že zákon o ozbrojených konfliktech omezuje použití biologických a chemických zbraní a min, tedy použití nekontrolovatelných hromadných prostředků pro zabíjení. Dále lze obecně říct, že tento zákon vyžaduje lidský podíl na rozhodování. Jinými slovy je potřeba odstranit problémy s morálními rozhodnutími, problémy s lidskými právy a nekontrolovatelností - vše bylo shrnuto výše. Z dokumentu je jasně patrné, že Izrael chce vyvinout takové robotické zabijáky, které vyhovují všem zákonům. Jinými slovy podle dnešních měřítek by měl takový robot uvažovat jako člověk, měl by mít empatii a soucit, zkrátka by měl být lidský.


Izrael je tedy již v pokročilé fázi testování integrace lidských vlastností do stroje. Jen doplním, že citovaný dokument je z konce roku 2014, takže je rok a půl starý. Za tu dobu jistě učinil pokrok. Pokroku bude třeba ještě hodně. Robotika je už na dobré úrovni, to dosvědčuje i Atlas od Googlu, který má velmi dobrou motoriku. Je tedy potřeba hlavně software, který dokáže simulovat lidské myšlení. Pokud by roboti uvažovali jako lidé, nebyl by velký problém, aby byli nasazeni v bojích.

Další možností je tzv. strojové nebo hluboké učení. Mohli by být naprogramováni, aby se naučili chovat jako lidé. Potom by už zůstala jen otázka, zda se nenaučí i ty špatné lidské vlastnosti a nakonec se neobrátí proti lidem, proti čemuž varuje například Elon Musk nebo HRW.

Zdroje: HRW, stopkillerrobots.org

Zdroje obrázků: Wikimedia


První
Poslední
Reklama
Reklama

Komentáře

Nejsi přihlášený(á)

Pro psaní a hodnocení komentářů se prosím přihlas ke svému účtu nebo si jej vytvoř.

Reklama
Reklama