Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně

Hlavní výzkumníci varují před hrozbou umělé inteligence

22.2.2018, Jan Vítek, aktualita
Hlavní výzkumníci varují před hrozbou umělé inteligence
Před nekontrolovaným rozvojem umělé inteligence varoval třeba už Elon Musk nebo Stephen Hawking. Nyní se ale ozvalo i 26 vedoucích výzkumníků v oblasti AI, kteří vyplodili 100stránkovou zprávu o tom, jak může být AI nebezpečná. 
Umělá inteligence se potichu vkrádá do mnoha oborů, ať jde o ty známé jako detekce tváří, autonomní řízení a jiné, nebo do zdravotnictví, finančnictví a ekonomie. Je to právě tento postupný rozvoj, který dělá starosti předním výzkumníkům z oblasti AI, kteří se minulý týden sešli v Oxfordu a diskutovali o tom, jak by lidstvo mohla ohrozit superinteligentní AI v nesprávných rukou. 
 
 
V Oxfordu vznikla stostránková zpráva, která si všímá nejen rizik, ale také navrhuje strategie, jež by je měly zmírnit. Jde především o čtyři hlavní otázky či doporučení pro vývojáře a výzkumníky v oboru umělé inteligence, z nichž první se týká toho, aby bylo při vývoji AI přihlíženo k možnosti jejího zneužití a nejlépe už se přímo zaváděla opatření, která by tomu měla zabránit.
 
Pro příklad nemusíme chodit daleko, jde třeba o známé deepfakes, čili tvorba videí (a především porna), kde se využije AI pro vytvoření falešného snímku, kde hraje nějaká oblíbená celebrita. Právě v tomto případě byla zneužita knihovna TensorFlow pro strojové učení vyvinutá inženýry firmy Google. Deepfakes tak ukazují na možnost zneužití a vystává tak otázka toho, kdo by měl mít a nemít k takovým nástrojům přístup. 
 
Od toho je samozřejmě pouze krok k dalšímu zneužití AI pro tvorbu falešných videí, jejichž účelem bude manipulace s veřejností a ovlivňování politických záležitostí. Pak tu je ale také druhá otázka využití AI pro bezprecedentní masové sledování lidí a jejich pohybu, což by se dalo využít pro šíření cílené propagandy. 
 
Zbylé dvě otázky se týkají rizik ze strany "zlomyslné AI" pro digitální i fyzickou bezpečnost lidí. V případě té digitální jde o AI stojící za masivními kybernetickými útoky, přičemž ta může zrušit existující kompromisy mezi rozsahem a efektivitou útoků. Představit si můžeme i velice sofistikované phishingové útoky, při nichž může AI simulovat i hlas někoho blízkého, kdo nás přesvědčí k poskytnutí citlivých informací. 
 
A co se týče fyzické bezpečnosti, zde jde především o rostoucí závislost na automatizovaných systémech, jako jsou autonomní vozy, chytré domácnosti, atd. Pokud by se něčeho z toho zmocnila AI, mohla by za krátkou dobu způsobit obrovské škody na majetku i životech. A to nepočítáme autonomní zbraně nebo roje mikrodronů. 
 
Jde tak o hrozby, které jsou už dnes velice reálné i o ty vzdálené, ale co by se proti nim mělo dělat? Krom již uvedených doporučení pro vývojáře bylo doporučeno vytvořit nová pravidla pro užití AI a prozkoumat možnost tvorby otevřených, a tedy průhledných modelů AI.
 
Nakone můžeme zmínit finální varování: "Aktuální trendy vyzdvihují široký a otevřený přístup k nejnovějšímu výzkumu a jeho výsledkům. Pokud tyto trendy budou pokračovat nezměněny po dobu příštích pěti let, očekáváme, že schopnost útočníků škodit pomocí digitálních a robotických systémů významně vzroste"