Kolik rasismu si dnes dáte? Intel umí filtrovat nadávky hráčů pomocí AI
8.4.2021, Jáchym Šlik, aktualita
Intel pracuje na technologii Bleep, která slouží k filtrování nadávek v hlasovém chatu v online hrách. K tomu využívá umělou inteligenci. Vůbec nejzajímavější je ovšem nastavení filtrování v jednotlivých kategoriích, jako je rasismus nebo LBGTQ+.
Na březnové online prezentaci v rámci programu Intel Developer Zone byla představena novinka, která prakticky unikla pozornosti médií. Jedná se o projekt Bleep, na kterém Intel pracuje nejméně od roku 2019, a jeho cílem je snížit toxicitu v online hrách. Zatímco zprávy v textovém chatu mohou být poměrně snadno filtrovány, složitější je to v případě hlasového chatu. Pokud se některý z hráčů vyjadřuje vulgárně, může být sice zablokován, ale to až v reakci na vyřčené nadávky. Technologie od Intelu by měla dopomoct k tomu, aby ostatní hráči tyto nadávky vůbec neslyšeli. A je jasné, že technologie vzbudí jisté kontroverze v hráčské komunitě.
Technologie Bleep, která vzniká ve spolupráci s firmou Spirit AI, používá umělou inteligenci k detekci a redigování zvuku v hlasovém chatu. Pro rychlejší běh využívá akceleraci AI na mobilních a desktopových platformách od Intelu. Cílem je filtrovat nenávistné projevy podle preferencí jednotlivých hráčů. Jinak řečeno, cílem není plošná cenzura nadávek – proto Intel během prezentace zdůraznil, že se jedná o volbu každého hráče. Intel pouze poskytuje nástroj, který dali hráčům možnost kontrolovat jejich zážitek během online hraní. Roger Chandler během prezentace uvedl, že společnost chce pomocí technologií jako Bleep „umožnit komukoliv, kdo chce být součástí herní komunity, mít bezpečný, pozitivní a příjemný zážitek“.
Příchozí hlasová zpráva tedy bude filtrována pouze v případě, kdy si to hráč bude přát. A tady se dostáváme k nejbizarnějšímu aspektu této technologie. Uživatel bude mít k dispozici nadstavení, kde lze vybrat míru filtrování podle jednotlivých kategorií. K dispozici jsou nastavení pro jednotlivé kategorie toxického obsahu, jako je agrese, rasismus a xenofobie, nenávist vůči komunitě LBGTQ+, nenávist vůči ženám, agresivita nebo „bílý nacionalismus“. U většiny kategorií je k dispozici posuvník, který umožňuje nastavit sílu filtru tak, aby technologie „vypípla“ část, většinu nebo veškerý nenávistný obsah.
Intel zatím nástroj Bleep testoval pouze interně, ale nyní chystá veřejnou beta verzi. Nástroj by měl být dostupný během letošního roku. Kompatibilní bude s libovolnými hrami a herními aplikacemi. Automatizované systémy k detekci nenávistného obsahu používají i další technologické společnosti, jako jsou Facebook nebo YouTube. Proto víme, že k dokonalosti mají zatím velmi daleko. Dokážou sice rozpoznat jednotlivá slova, ale nechápou kontext, proto filtry proklouzne řada důmyslných nadávek a mnohdy jsou naopak zachyceny nevinné konverzace.
Ačkoliv Bleep vcelku oprávněně vzbudí obavy a rozhodně nebude dokonalým nástrojem, neznamená to, že by toxicita mezi hráči neměla být řešena jako závažný problém. Podle výzkumu 22 % hráčů opustilo určité hry kvůli obtěžování.