Jak zabráníme „zlaté éře fake news“ poháněných AI? Jen těžko, říká odborník

Bezpečnost | |

Jak zabráníme „zlaté éře fake news“ poháněných AI? Jen těžko, říká odborník

Nejnovější vývoj v oblasti umělé inteligence poukazuje na začátek doby, kdy vytváření falešných videí, zvukových nahrávek či padělání online identity a různých úředních dokumentů bude jednodušší než když dříve.


Vysoká kvalita těchto falešných materiálů – včetně textových, jak prokázal nedávný výzkum – je už v jádru nebezpečná a může vést k potenciálním problémům pro celou společnost; ale řešení může existovat, jak píše vědec Oren Etzioni pro Harvard Business Review.

Odkazuje se mimo jiné právě na GPT-2, pokročilý textový generátor schopný vytvářet jednoduché smyšlené texty, na určitá témata dokonce poměrně věrohodné; stačí jen vložit základní premisu, od níž se text už sám rozvíjí.

Bohužel, varuje Etzioni, další, ještě silnější nástroje budou bezpochyby následovat.

 

Falešná videa, zavádějící fakta, profesionální phishing

Automatizované šíření fake news není ničím novým, jak ukázaly volby ve Spojených státech v roce 2016, kdy se Twitterem šířily desítky tisíc účtů určených výhradně pro šíření smyšlených nebo zavádějících informací.

Deepfake videa, která umožňují vzít z existujících materiálů obličej nejen třeba amerického prezidenta, ale i různých celebrit, a superimponovat jej např. na pornografické materiály nebo jiné zdroje, jsou ještě nebezpečnější. Něco podobného dokáži i videa generovaná AI, opětovně využívající existující dostupné materiály. Představte si, že na vás z internetu promluví Miloš Zeman s tím, že do České republiky přichází příval tisíců uprchlíků ze Sýrie, nebo že podepsal dohodu o spolupráci se Severní Koreou; využitím současných technologií je toto teoreticky možné zfalšovat, přestože prozatím nikoli jednoduché a ani zcela věrohodné.

Prokazatelně to však funguje: virální video o tom, jak Barack Obama varuje před šířením deepfake videí, bylo samo o sobě falešné.

Jak rozpoznat, že je materiál skutečný? Těžko. Zdrojová webová adresa, telefonní číslo nebo e-mail, to vše jde rovněž zfalšovat. To je problematické hlavně u cíleného phishingu: rozpoznat jej v dnešní době je docela jednoduché, ale v budoucnu být nemusí.

Podpisy, a hlavně digitální podpisy, nejsou zdaleka jistotou; nejsou totiž běžně užívány pro podepisovaná e-mailů, příspěvku na sociálních médiích, obrázků, videí a tak dále. Bez širšího rozšíření jsou nám k rozpoznání falsifikátů k ničemu.

Ale právě ty jsou podle Etzioniho krokem kupředu; bezpečnostní certifikáty a digitální podpisy musí fungovat lépe, jednodušeji a zcela bez zranitelností.

Prozatím se ale budeme muset smířit s tím, že manipulovat s pravdou bude – a už často je – velice snadné. Kritický pohled na věc, zdravý rozum a kontextuální myšlení se tak stávají ještě mnohem důležitějšími součástmi našeho zpracovávání informací.



Články z rubriky

AI v bezpečnostních technologiích: Kamery a alarmy se spojí do platforem, říká CEO AngelCam Petr Ocásek"

Kamery a alarmy se spojí do platforem s umělou inteligencí, pulty centrální ochrany to však nenahradí – budou žít v symbióze, říká Petr Ocásek
více »


Avast a ČVUT společně otevírají cybersecurity & AI laboratoř"

FEL ČVUT otevře ve spolupráci s antivirovým gigantem Avast novou výzkumnou laboratoř, zaměřenou na umělou inteligenci a strojové učení v kyberbezpečnosti.
více »


Antivir na drony"

Kaspersky spustil nový typ zabezpečení, který organizacím a majitelům nemovitostí pomáhá s ochranou před neoprávněným vniknutím civilních dronů na jejich pozemek. Díky kombinaci senzorů, které využívají...
více »


Deepfake na vzestupu, rizikem je hlavně pro ženy"

Nový průzkum ukazuje alarmující nárůst deepfake videí. Jejich množství se za uplynulých devět měsíců skoro zdvojnásobilo. A navíc, jak se zdá, jejich výroba představuje lukrativní byznys, jehož oběťmi...
více »


Nebezpečný francouzský spambot nahrává oběti při sledování stránek pro dospělé"

Zatímco v České republice útočníci uživatele pouze vydírali, ve Francii navrhli malware, který skutečně natáčí inkriminující video svých obětí a krade citlivé údaje, zjistil Eset.
více »


Související články


Tagy

analýza bezpečnost certifikáty digitální podpis blockchain phishing rhybařní AI umělá inteligence strojové učení

Komentáře