Hlavní výzkumníci varují před hrozbou umělé inteligence
22.2.2018, Jan Vítek, aktualita
Před nekontrolovaným rozvojem umělé inteligence varoval třeba už Elon Musk nebo Stephen Hawking. Nyní se ale ozvalo i 26 vedoucích výzkumníků v oblasti AI, kteří vyplodili 100stránkovou zprávu o tom, jak může být AI nebezpečná.
Umělá inteligence se potichu vkrádá do mnoha oborů, ať jde o ty známé jako detekce tváří, autonomní řízení a jiné, nebo do zdravotnictví, finančnictví a ekonomie. Je to právě tento postupný rozvoj, který dělá starosti předním výzkumníkům z oblasti AI, kteří se minulý týden sešli v Oxfordu a diskutovali o tom, jak by lidstvo mohla ohrozit superinteligentní AI v nesprávných rukou.
V Oxfordu vznikla stostránková zpráva, která si všímá nejen rizik, ale také navrhuje strategie, jež by je měly zmírnit. Jde především o čtyři hlavní otázky či doporučení pro vývojáře a výzkumníky v oboru umělé inteligence, z nichž první se týká toho, aby bylo při vývoji AI přihlíženo k možnosti jejího zneužití a nejlépe už se přímo zaváděla opatření, která by tomu měla zabránit.
Pro příklad nemusíme chodit daleko, jde třeba o známé deepfakes, čili tvorba videí (a především porna), kde se využije AI pro vytvoření falešného snímku, kde hraje nějaká oblíbená celebrita. Právě v tomto případě byla zneužita knihovna TensorFlow pro strojové učení vyvinutá inženýry firmy Google. Deepfakes tak ukazují na možnost zneužití a vystává tak otázka toho, kdo by měl mít a nemít k takovým nástrojům přístup.
Od toho je samozřejmě pouze krok k dalšímu zneužití AI pro tvorbu falešných videí, jejichž účelem bude manipulace s veřejností a ovlivňování politických záležitostí. Pak tu je ale také druhá otázka využití AI pro bezprecedentní masové sledování lidí a jejich pohybu, což by se dalo využít pro šíření cílené propagandy.
Zbylé dvě otázky se týkají rizik ze strany "zlomyslné AI" pro digitální i fyzickou bezpečnost lidí. V případě té digitální jde o AI stojící za masivními kybernetickými útoky, přičemž ta může zrušit existující kompromisy mezi rozsahem a efektivitou útoků. Představit si můžeme i velice sofistikované phishingové útoky, při nichž může AI simulovat i hlas někoho blízkého, kdo nás přesvědčí k poskytnutí citlivých informací.
A co se týče fyzické bezpečnosti, zde jde především o rostoucí závislost na automatizovaných systémech, jako jsou autonomní vozy, chytré domácnosti, atd. Pokud by se něčeho z toho zmocnila AI, mohla by za krátkou dobu způsobit obrovské škody na majetku i životech. A to nepočítáme autonomní zbraně nebo roje mikrodronů.
Jde tak o hrozby, které jsou už dnes velice reálné i o ty vzdálené, ale co by se proti nim mělo dělat? Krom již uvedených doporučení pro vývojáře bylo doporučeno vytvořit nová pravidla pro užití AI a prozkoumat možnost tvorby otevřených, a tedy průhledných modelů AI.
Nakone můžeme zmínit finální varování: "Aktuální trendy vyzdvihují široký a otevřený přístup k nejnovějšímu výzkumu a jeho výsledkům. Pokud tyto trendy budou pokračovat nezměněny po dobu příštích pěti let, očekáváme, že schopnost útočníků škodit pomocí digitálních a robotických systémů významně vzroste".
Zdroj: Motherboard