4 Budoucnost falešných zpráv?

Budoucnost dezinformací děsí i experty. „Deepfake“ nerozeznáte od reality

VIDEO UVNITŘ

Témata: , , ,

Zatímco se celý svět snaží všemožnými prostředky bojovat s falešnými zprávami a upravenými fotografiemi, na obzoru se rýsuje mnohem komplexnější hrozba. Ve velmi blízké době se k dezinformačním textům a obrázkům přidají i videomontáže. Přestože je metoda „deepfake“ pro tvorbu falešných videí stále v plenkách, výsledky z amatérských dílen už nyní ukazují děsivě povedené audiovizuální montáže celebrit, politiků či pornohereček. Podle odborníků půjde o nový nástroj informační války, se kterým bude velmi obtížně bojovat.

Metoda „deepfake“ využívá postupů takzvaného hlubokého učení (deep learning). Můžeme o ní mluvit také jako o formě umělé inteligence. Ta se na základě podkladových materiálů ve formě obrázků, videí či zvuků „učí“ hlavní rysy cílové osoby. S jejich využitím pak uměle vytváří výrazy její tváře, pohyby těla, způsob a intonaci řeči. 

Úloha umělé inteligence či virtuální neuronové sítě v tomto procesu spočívá v tom, že se na základě každého obrázku či jiného referenčního souboru snaží zapamatovat co nejvíce klíčových vlastností dané osoby. S každým dostupným materiálem si ukládá více a více informací, až si sama podle nich dokáže vytvořit virtuální identitu. První výsledky bývají povětšinou nedokonalé a plné deformací, při každém dalším pokusu o vytvoření falešné osoby se ale zdokonaluje a opravuje chyby z předchozích experimentů. A některé výtvory jsou již nyní děsivě důvěryhodné.

Ve zkratce, deepfake dokáže zrekonstruovat cizí identitu se vším všudy, a to i zcela fiktivní postavy z filmů či seriálů. Vše, co umělá inteligence potřebuje, je dostatek podkladů, ze kterých se může „učit“ a následně vytvořit video s vyobrazením osoby hovořící prakticky o čemkoli a chovající se jakkoli. Pro téměř dokonalý výsledek potřebují programy tohoto typu stovky až tisíce fotek a desítky hodin na učení, podle odborníků se ale budou požadavky na deepfake video nejspíše postupně snižovat.

Nástrojů je na internetu hned několik, nejpopulárnější je ovšem aplikace Fake App, která vychází z veřejně dostupné open-sourcové knihovny pro strojové učení. V části A si aplikace procvičuje rozpoznávání rysů referenční osoby a její následnou rekonstrukci či opravu chyb, v části B analyzuje „cílovou osobu“, na níž má pak nalepit obličej či chování první osoby. Pakliže jde o video, snaží se zachovat zároveň mimiku a gestikulaci, aby byl výsledek co nejdůvěryhodnější. Zrekonstruovaná osoba ve falešném videu pak umí vyjádřit třeba strach, smích, údiv a řadu dalších emocí.

 

Vše začalo u porna

Celý problém s falešnými videomontáži odstartoval poněkud nevinně. Předloni se na populárním internetovém komunitním fóru Reddit objevil příspěvek od uživatele s přezdívkou Deepfakes, po němž metoda následně získala své jméno. Autor se pochlubil pornografickým klipem, na němž „vystupovala“ izraelská herečka Gal Gadotová (zahrála si například v nejnovějším snímku s Wonder Woman).

Následovala masivní smršť dalších pornografických montáží s ženskými celebritami. Ušetřeny nebyly ani herečky jako Emma Watsonová (Hermiona z Harryho Pottera), Daisy Ridleyová (Rey ze Star Wars, níže můžete vidět její tvář „na těle“ pornoherečky) či zpěvačka Taylor Swiftová. Během krátké chvilky vlákno věnující se deepfake získalo přes 100 tisíc sledujících a lechtivé videomontáže se postupně dostávaly i na populární pornografické stránky.

 

Sexuální fantazie internetových uživatelů ovšem netrvaly dlouho – na základě četných stížností i samotného porušení pravidel Redditu byla celá část fóra s podobnými montážemi zakázána a smazána, a to včetně účtu původního autora. K podobnému kroku přistoupil i Twitter. Podle právníků totiž šlo o vytvoření choulostivého obsahu bez povolení „zúčastněných osob“, ačkoliv přesnější právní klasifikace tohoto materiálu dosud stále chybí.

Aplikace se ovšem začala šířit po celém internetu a postupně se začaly objevovat nejen erotické montáže. Vznikla řada vtipných výtvorů, v jednu chvíli se třeba uživatelé snažili napasovat tváře herců Nicolase Cagea či Rowana Atkinsona do všemožných seriálů, filmů, videoher či videoklipů. Některé výsledky si můžete prohlédnout níže – zatímco na jednom z videí Nicolas Cage zpívá hlasem Amy Adamsové známou skladbu „I Will Survive“, ve druhém výtvoru si Atkinson zahrál ve filmovém Supermanovi, a to jak za ikonického superhrdinu, tak i ženskou postavu.

Budoucí nástroj informační války

Ačkoliv mohou předchozí řádky vyznít spíše úsměvně, deepfake podle celé řady odborníků představuje zásadní hrozbu, ne-li větší, než jsou aktuálně textové fake news. Stačí k těmto videím třeba přidat hlas. V krátkém klipu níže promlouvá bývalý americký prezident Barrack Obama k divákům na Youtube a nešetří na vulgárních výrazech ani kritice Donalda Trumpa. Jde ovšem o deepfake montáž populárního amerického komika Jordana Peeleho, který Obamovi „vložil do úst“ vše, co si usmyslel.

Videem chtěl Peele upozornit na fenomén deepfake videí a upozornit je na fakt, že člověk už nemůže věřit všemu, co se na internetu objeví. Přestože video obsahovalo několik nedokonalostí, od podivné intonace po občas dřevnatou mimiku, šlo o velmi zdařilou simulaci, kterou ovšem už stihli dezinformátoři krátce využít. Jednoduše ustřihli část, v níž se objevuje i komik Peele, a začali video se samotným falešným Obamou šířit na Twitteru.

Podobných videí s politiky zatím není tolik, jak se někteří odborníci původně báli, už tak se ale na internet dostala videa s falešnou Theresou Mayovou či Vladimirem Putinem. A to se dosud bavíme pouze o amatérské a poloamatérské tvorbě, co když se ale nástroje chopí experti s podporou státu? Podle amerických bezpečnostních expertů budou vyspělé nástroje využívající umělou inteligenci a takzvané mapování tváře nejnovější zbraní v informační válce a apelují na vládu, aby se problému zvaném deepfake začala aktivně věnovat.

Američtí poslanci a senátoři se už otázkou falešných videomontáží zabývali vloni, podle nich je snadné si představit, že se této techniky zmocní cizí státy s cílem poškodit USA. „Může se objevit video amerických vojáků masakrujících civilisty, záznam projevu amerického politika spřádajícího spiklenecké plány, obrázek íránského nebo severokorejského vůdce oznamujícího okamžitý útok na USA,“ uvedl jako příklad senátor Mark Rubio. Dále dodává, že šířením obzvlášť povedeného deepfake videa může vzniknout chaos a nestabilita před důležitými volbami nebo klíčovým rozhodnutím vlády.

 

Hrozba, na kterou ověřování zdrojů nestačí

Jak rozpoznat deepfake videa? V současnosti jsou videomontáže tohoto typu stále nedokonalé, podvod jde odhalit díky detailům, které umělá inteligence ještě nedokáže uspokojivě nasimulovat. Jde zejména o nepřirozené mrkání, deformace při prudkém pohybu tváře, nepřesné odezírání ze rtů či občasné deformace obrazu jako takového. Je ale jen otázkou času, kdy se programátoři naučí odbourat nedostatky v algoritmech a aplikacích tak, že i novináři či analytici budou mít co dělat, aby dokázali video označit za falešné.

„Za rok či dva bude prakticky nemožné rozeznat podvod od skutečnosti,“ předpověděl vloni odborník na mezinárodní bezpečnost Andrew Grotto ze Stanfordovy univerzity. „Státy nedokážou odolat, aby této techniky nevyužily k manipulaci veřejným míněním, ke zmatení veřejnosti a podkopání důvěry v demokratické instituce,“ uvedl pro agenturu AP.  Podle něj lidé berou videa jako důkaz ve chvíli, kdy nevěří textové zprávě nebo fotografii, o to víc je pak fenomén nebezpečnější.

 

Výzkumné agentury amerického ministerstva obrany se už dva roky zabývají vývojem nástrojů, které deepfake videa rozpoznají. Zatím je k jejich identifikaci nutná rozsáhlá analýza. Jistou cestu vidí odborníci v programech, které dokážou prozkoumat jednotlivé pixely videa a vyhodnotit, ve kterou dobu byla vytvořena. Tím tak mohou odhalit dodatečně přidané vrstvy videa.

Není ovšem jasné, zda vývoj obranných prostředků nebude za vývojem manipulativních technik zaostávat. Stejně tak visí ve vzduchu otázka, nakolik budou analytické nástroje pro odhalování deepfake dostupné i pro novináře, firmy či veřejnost, případně zda půjde jen o pomůcku bezpečnostních složek a soudních dvorů.

Grotto dodává, že nás v nejbližších letech čeká závod mezi potenciálními dezinformátory a „zloději tváří“ s bezpečnostními experty. Boj o to, kdo se lépe připraví na novou éru informační války, kde budou deepfake hrát hlavní roli.

V Týdeníku Echo a na EchoPrime se dozvíte více, získáte je zde.

Čtěte také: Facebook chce zavést platformu pro „vysoce kvalitní zpravodajství“. Vydavatelům by platil

České děti pohltila nová sociální síť. Hlavní hvězda má přes půl milionu fanoušků


Vážení diskutující,
Echo24.cz chce umožnit svobodnou diskuzi, ale vyhrazuje si právo neukládat či mazat příspěvky urážlivé, vulgární, xenofobní, odkazy na jiné internetové stránky či takové příspěvky, které odporují obecné lidské slušnosti. Před vložením vašeho příspěvku prosím zkontrolujte, zda jste opravdu přihlášeni. V opačném případě se váš příspěvek ukáže jen na vašem monitoru, ale do diskuze se nezanese.