Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně

Etická AI rada Googlu se otřásá po týdnu své existence

2.4.2019, Jan Vítek, aktualita
Etická AI rada Googlu se otřásá po týdnu své existence
Google minulý týden ohlásil vytvoření rady Advanced Technology External Advisory Council (ATEAC), jejímž smyslem bylo posuzovat překážky a rizika při vývoji technologií umělé inteligence. Kam dospěla její zatím krátká existence?
Advanced Technology External Advisory Council (ATEAC) je v podstatě obdoba sdružení FATE (Fairness, Accountability, Transparency, and Ethics) firmy Microsoft, které se má také zaměřovat na důležité otázky ohledně umělé inteligence a jejího směřování. My se ale nyní budeme věnovat radě ATEAC, která vyvolala zajímavé ohlasy, jako je tento: 
 
 
Alessandro Acquisti zabývající se také klíčovými etickými otázkami spojenými s umělou inteligencí dal v sobotu vědět, že odmítl se zapojit do ATEAC, protože nevěří, že je to to pravé uskupení, do nějž by měl patřit. Proč?
 
 
V pondělí samotní zaměstnanci Googlu začali požadovat, aby z ATEAC odešla Kay Cole James, prezidentka Heritage Foundation. a to kvůli jejím údajným výrokům, které byly hodnoceny jako nepřátelské vůči transgender a obecně LGBTQ komunitě i vůči imigrantům. Joanna J. Bryson, jiná členka ATREAC, vidí snahu Googlu v této radě mít prezidentku nadace Heritage jako průhledný pokus o sociální diverzitu.
 
 
Jak to vypadá, celá věc se točí kolem často zmiňované zaujatosti, která se má vkrádat i do AI technologií. Jde třeba o AI nástroj Amazonu, který firma využívala při najímání nových pracovníků. Toho se zbavila, protože prý byl "zaujatý vůči ženám", přičemž tuto zaujatost v sobě nesl právě na základě toho, jak byl naprogramován. To samé platí třeba pro software pro autonomní řízení, který má daleko lépe identifikovat bílé lidi jako chodce a u tmavších se mu to moc nedaří. Ale že by to mělo něco společného s tím, že tmavá není ve tmě zrovna dobře vidět? Možná, každopádně se to opět řeší jako zaujatost zakořeněná softwaru. Podobný případ se objevil před čtyřmi lety, když Google Photos začaly černochy na fotkách označovat za gorily. 
 
Dá se jistě říci, že je tu problém, ovšem je třeba tento problém správně pojmenovat. Jistě není dobře, když software pro autonomní řízení nedokáže správně identifikovat černocha na chodníku, ale zda lze hned mluvit o "algoritmovém zaujetí", spíše než o technických problémech, to už je věc jiná a je třeba si uvědomit podstatu.
 
Pokud mluvíme o zaujetí, nemusíme si totiž hned představovat LGBT hysterii. Máme tu jeden příklad z nedávné doby, a sice let 302 Etiopských aerolinek, který skončil v moři smrtí všech 189 lidí na palubě. Ukázalo se, že piloti se zoufale mnohokrát snažili vypnout systém MCAS, který se kvůli nesprávným údajům ze senzoru stále zapínal. Dalo by se říci, že i to je příklad algoritmového zaujetí, a to přílišným spoléháním na vlastní senzory. Systém by totiž mohl vzít v potaz, že se jej pilot mnohokrát krátce po sobě zkusil deaktivovat, ale na to nebyl navržen. 
 
To jsou záležitosti, na které se musí myslet zvláště při vývoji systémů umělé inteligence, které budou pracovat s lidmi a budou mít vliv i na jejich bezpečnost. Když vynecháme naprosto nesoudné hlasy, pak nikdo netvrdí, že by programátoři záměrně psali software, který nebude schopen detekovat černochy na ulici, aby byli pak spíše než bílí sráženi autonomně řízenými vozy. Stejně tak Boeing nechtěl vytvořit systém, který měl dovést 189 lidí k záhubě a určitě ne zrovna Afričanů. Ovšem stalo se, a tak s dalším pronikáním umělé inteligence existuje snaha zajistit, aby se uplatnila v systémech, které budou přesné, spolehlivé a zkrátka budou "myslet na všechno". 
 
Horší je, když se do tohoto důležitého tématu míchá očerňování lezbiček, gayů, bisexuálů, metrosexuálů či lumbersexuálů černou prezidentkou nějaké nadace.
 
Zdroj: Wired