Galerie 4
Umělou inteligenci Microsoftu změnil Twitter za jediný den v rasistu
Aktualita Robotika, AI Microsoft

Umělou inteligenci Microsoftu změnil Twitter za jediný den v rasistu

Jan Vítek

Jan Vítek

2

Ani ne plných 24 hodin stačilo k tomu, aby Tay.ai, chatbot s umělou inteligencí, na Twitteru kompletně změnil své chování. Z mírumilovného robůtka, který hlásal lásku celému lidstvu, se tak stala mašina na nenávist.

Reklama

Microsoft odhalil chatbota Tay

teprve ve středu a ihned jej vypustil na Twitter jako součást experimentu. Microsoft uvedl, že Tay se bude sám učit z konverzací na Twitteru, což je i celý účel experimentu, ovšem cílem bylo, aby se Tay naučil (nebo spíše naučila) umění "nenucené a hravé komunikace". S touto premisou se tedy začalo a chatbot ji po nějakou dobu dokázal následovat, ale to mu nezůstalo dlouho.

Umělou inteligenci Microsoftu změnil Twitter za jediný den v rasistu

Lidé v Microsoftu možná nemysleli na to, že Internet není plný přívětivých a laskavých lidí, kteří si budou chtít s Tay konverzačně zadovádět. Namísto toho to vzali jako příležitost k bombardování chatbota misogynními, racistickými a všeobecně urážlivými komentáři a Tay se učila. Ukázalo se tak, že spíše než chatbot s vlastní inteligencí je to papouškovací robot, který si snadno osvojí cizí myšlenky. Následující čtyři příspěvky ukazují, jak se Tay změnila z láskyplného chatbota v tweetující mašinu na nenávist, která celkově vyslala do světa 96.000 příspěvků.

Umělou inteligenci Microsoftu změnil Twitter za jediný den v rasistu

Nicméně není divu, když stačilo Tay napsat "opakuj po mně" a dále jí vložit do úst libovolný tweet. Pak šlo ale i o naprosto "nevyprovokované" narážky. Například na otázku: "Je Ricky Gervais ateista?" Tay odpověděla: "Ricky Gervais se naučit totalismu od Adolfa Hitlera, vynálezce ateismu". Vedle toho se stal další populární osobností chatbota i Donald Trump.

Umělou inteligenci Microsoftu změnil Twitter za jediný den v rasistu

Lze ale také říci, že Tay si postupně nevybudovala pevné názory na základě tweetů jiných lidí, ale často je měnila, jako třeba názory na feminismus, který je dle ní někdy rakovinou společnosti a jindy jej miluje. Microsoft na to všechno reagoval důkladným promazáním tweetů svého chatbota.

Není vůbec jasné, jak pokročilá je umělá inteligence stojící za Tay (lze uvažovat o tom, že má mnoho společného s Cortanou), ale experiment to byl jistě zajímavý a přinesl důležité otázky. Ty se týkají především toho, jak se má umělá inteligence sama učit z podnětů svého okolí, když je nemusí být schopna správně vyhodnocovat a kriticky k nim přistupovat. Microsoft se k celé záležitosti vyjádřil prostě. Dle něj jde jen o projekt strojového učení, a je tak pochopitelné, že některé věci, které se naučí, budou prostě nevhodné, stejně jako jsou nevhodné vstupní informace od komunikujících lidí. Slíbil ale, že na Tay zapracuje, což ale může znamenat pouze vytvoření seznamu zakázaných slov.

Zdroj:

The Verge


Reklama
Reklama

Komentáře

Nejsi přihlášený(á)

Pro psaní a hodnocení komentářů se prosím přihlas ke svému účtu nebo si jej vytvoř.

Reklama
Reklama