S umělou inteligencí ke ztrátě důvěryhodnosti
KOMENTÁŘ
KOMENTÁŘ
PÁD LETADLA
Nákladní letoun společnosti DHL, který startoval v německém Lipsku, se dnes brzy ráno zřítil nedaleko letiště litevského hlavního města Vilnius. Podle agentury ...
Neočekávaně rychlý rozvoj umělé inteligence je rozhodně jednou z hlavních zpráv tohoto roku a nejspíše i tohoto století. Jedna z obav, které panují, je její zneužití při vytváření falešných zpráv neboli tolik obávaných fake news. Video či fotografie byly dlouho považovány za důvěryhodnější než pouhý psaný popis události. Jistě, byl tu Photoshop a další aplikace na úpravu fotek či selektivně sestříhané video, ty šly ale s trochou umu odhalit. Obrazové potvrzení události tak zůstávalo definitivním štemplem pravdy. Tedy až do letošního roku, kdy umělá inteligence dospěla do stadia, kdy dokáže generovat přesvědčivé fotografie, které nemají žádný základ v realitě.
Nejde ještě o zcela dokonalé výrobky, takže je lze s trochou práce odhalit. Někdy stačí selský rozum. Například je velmi nepravděpodobné, že papež by se oblékl do obří péřové bundy ve stylu amerických gangsterů. Jindy je potřeba jít po detailech. Umělá inteligence má například problém s odhadováním, kolik prstů má člověk na ruce. Proto je překvapivé, že organizace, které potřebují být naprosto bezúhonné, jsou ochotny pomocí uměle vytvořených fotografií spálit svoji důvěryhodnost.
Jedním takovým příkladem je webová stránka Lidé Bajkalu. Jedná se o menší regionální ruské médium. Ta často dávají možnost nahlédnout na válečnou situaci nezkresleně z ruské strany. Přinášejí příběhy místních, kteří se účastnili války na Ukrajině. A i když si nelze udělat celkový obrázek o stavu války, ukazují, že ne vždy se pro Kreml vyvíjí zcela pozitivně. Lidé Bajkalu tak popsali příběh člověka, jenž vystupuje pod pseudonymem Jegor Lebeděv. Dobrovolně se přihlásil do armády separatistické Doněcké lidové republiky, jelikož „nemohl jsem snést, aby umíraly děti. Pochopil jsem, že tato fašistická ohavnost, která otravuje Ukrajinu, musí být poražena a zničena“. Jeho jednotka byla opakovaně poslána do sebevražedných útoků. Lebeděv byl 21. ledna těžce zraněn. Byl evakuován do Rostova na Donu, do nemocnice, která údajně přijímala 400 zraněných denně. Pak byl přesunut do moskevského špitálu. Zatímco se zotavoval ze svých zranění, kdosi mu ukradl batoh, dokumenty, kreditní kartu a mobil. Následně mu vybílil bankovní účet. Když si stěžoval armádě, tak ta ho informovala, že byl propuštěn 27. ledna, a nemá tedy s ním již nic společného. Lebeděv si tak z války odnesl pouze pochroumané zdraví, jinak je naprosto na mizině.
Lidé Bajkalu článek doprovodili fotografií zhruba čtyřicetiletého muže, jak leží v nemocniční posteli s obvázanou hlavou. Při bližším ohledání ale je jasné, že na obrázku cosi nesedí. Lampička v pozadí prorůstá skrze stolek, kabel lnoucí se ke stěně v půlce končí a podobně. Prostě snímek je vygenerovaný umělou inteligencí.
V anglickém překladu článek sdílel twitterový účet ChrisO_wiki. Pod článkem se tam ihned vyrojila celá řada uživatelů upozorňujících, že doprovodná fotografie je falešná. Netrvalo dlouho a začali zpochybňovat samotný článek. Tvrdili, že vše bylo vymyšleno umělou inteligencí, nic v článku není pravda. Evidentně proruské účty se příběhu vysmívaly jako špatné ukrajinské propagandě.
Lidé Bajkalu pak vydali vysvětlení. Chtějí chránit pravou identitu Lebeděva, proto zvolili variantu s fotografií vygenerovanou umělou inteligencí. Tou dobou však již důvěryhodnost článku byla v trapu. Na Twitteru je u něj zavěšeno varování, že fotografie je vytvořená umělou inteligencí.
Je článek pravdivý? Jak se říká, „informaci nešlo nezávisle ověřit“. Lhát mohl Lebeděv, lhát mohla redakce Lidí Bajkalu. Ale nepůsobí jako sepsaný počítačem, přesto si tento cejch již navždy ponese.
Že si malá redakce chce zjednodušit práci, nepřekvapí. Prohlídka jejích webových stránek odhalí, že Lidé Bajkalu používají vygenerované obrázky jako ilustrační fotografie celkem rádi. Nejspíše se jedná o levnější alternativu k fotobance, což byl dosud jejich obvyklý zdroj.
Svou důvěryhodnost stejným způsobem však zpochybnila nedávno ještě jedna, mnohem významnější organizace, totiž Amnesty International. Ta doprovodila svoji nejnovější kampaň fotkami policejního násilí v Kolumbii v roce 2021. Jenže ani jedna fotografie nebyla pravá, jak sama Amnesty malým písmem přiznávala, všechny je vygenerovala umělá inteligence. Organizace tvrdí, že použila falešné fotky, jelikož chtěla chránit aktivisty před policejní odplatou. Dosáhla však pouze toho, že zpochybnila svou důvěryhodnost a dodala munici konspiračním teoretikům, kteří nyní budou moci na kauzu upozorňovat.
Je to znovu potvrzení síly vizuálních médií. Policejní brutalita v Kolumbii je celkem dobře zdokumentovaná. Taktéž příběh Jegora Lebeděva, i když je neověřitelný, je uvěřitelný a odpovídá tomu, co víme o situaci v ruské armádě. Pár umělou inteligencí vygenerovaných fotografií – a kredibilita příběhu je v troskách.
S umělou inteligencí nás čekají zajímavé časy.