Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně

Umělou inteligenci Microsoftu změnil Twitter za jediný den v rasistu

25.3.2016, Jan Vítek, aktualita
Umělou inteligenci Microsoftu změnil Twitter za jediný den v rasistu
Ani ne plných 24 hodin stačilo k tomu, aby Tay.ai, chatbot s umělou inteligencí, na Twitteru kompletně změnil své chování. Z mírumilovného robůtka, který hlásal lásku celému lidstvu, se tak stala mašina na nenávist.
Microsoft odhalil chatbota Tay teprve ve středu a ihned jej vypustil na Twitter jako součást experimentu. Microsoft uvedl, že Tay se bude sám učit z konverzací na Twitteru, což je i celý účel experimentu, ovšem cílem bylo, aby se Tay naučil (nebo spíše naučila) umění "nenucené a hravé komunikace". S touto premisou se tedy začalo a chatbot ji po nějakou dobu dokázal následovat, ale to mu nezůstalo dlouho.





Lidé v Microsoftu možná nemysleli na to, že Internet není plný přívětivých a laskavých lidí, kteří si budou chtít s Tay konverzačně zadovádět. Namísto toho to vzali jako příležitost k bombardování chatbota misogynními, racistickými a všeobecně urážlivými komentáři a Tay se učila. Ukázalo se tak, že spíše než chatbot s vlastní inteligencí je to papouškovací robot, který si snadno osvojí cizí myšlenky. Následující čtyři příspěvky ukazují, jak se Tay změnila z láskyplného chatbota v tweetující mašinu na nenávist, která celkově vyslala do světa 96.000 příspěvků.





Nicméně není divu, když stačilo Tay napsat "opakuj po mně" a dále jí vložit do úst libovolný tweet. Pak šlo ale i o naprosto "nevyprovokované" narážky. Například na otázku: "Je Ricky Gervais ateista?" Tay odpověděla: "Ricky Gervais se naučit totalismu od Adolfa Hitlera, vynálezce ateismu". Vedle toho se stal další populární osobností chatbota i Donald Trump.





Lze ale také říci, že Tay si postupně nevybudovala pevné názory na základě tweetů jiných lidí, ale často je měnila, jako třeba názory na feminismus, který je dle ní někdy rakovinou společnosti a jindy jej miluje. Microsoft na to všechno reagoval důkladným promazáním tweetů svého chatbota.

Není vůbec jasné, jak pokročilá je umělá inteligence stojící za Tay (lze uvažovat o tom, že má mnoho společného s Cortanou), ale experiment to byl jistě zajímavý a přinesl důležité otázky. Ty se týkají především toho, jak se má umělá inteligence sama učit z podnětů svého okolí, když je nemusí být schopna správně vyhodnocovat a kriticky k nim přistupovat. Microsoft se k celé záležitosti vyjádřil prostě. Dle něj jde jen o projekt strojového učení, a je tak pochopitelné, že některé věci, které se naučí, budou prostě nevhodné, stejně jako jsou nevhodné vstupní informace od komunikujících lidí. Slíbil ale, že na Tay zapracuje, což ale může znamenat pouze vytvoření seznamu zakázaných slov.

Zdroj: The Verge