Doba dezinformační: Jak poznat, čemu věřit? Těžko, ale šance je

...

... Zdroj: Jonathan Ford on Unsplash

Karel Sokol
Společnost

Povodně nejsou tak hrozné, vláda zastírá jiné problémy, chce z nás mít vystrašnené ovce, mohou za to chemtrails... Také jste takové názory tváří v tvář katastrofě zaznamenali? Jak v době dezinformací, fake news a umělé inteligence poznat, co je pravda a co lež? Těžko. Technologie jsou totiž rychlejší než my a doslova platí, že někdy prostě nemůžete věřit vlastním očím. Pokud je budete mít doširoka otevřené a zapojíte kritické myšlení, nějakou šanci máte, jistotu ovšem skoro nikdy.

Před čtyřmi lety vyšla dlouho očekávaná počítačová hra Cyberpunk 2077. Její děj se odehrává v nedaleké budoucnosti, ve které západní svět ovládají nadnárodní korporace a technologie jsou tak daleko, že je možné nahrazovat části lidského těla vysoce funkčními kybernetickými implantáty nebo třeba nahrát svoji duši na technologický střep, díky němuž budete tak nějak žít věčně, pokud na to tedy máte dost peněz. Hra skvělá a její svět vymyšlený bezmála dokonale.

Jen člověka v roce 2024 zamrazí při pomyšlení na to, jestli se v roce 2077 opravdu do podobného světa nedostaneme. Hra totiž dost jasně ukazuje, jak je pomocí technologií snadné ovládat společnost, nahrazovat jedna data druhými, využívat deepfake nahrávky v politickém boji, diskreditovat oponenty, ničit konkurenci, nebo ji dokonce ovládat právě přes technologické střepy, které mají lidé nainstalované v hlavě. Děsivé a ne tak vzdálené. Část z toho se totiž děje už dnes.

Zelený Klaus

Pojmem deepfake, pro který zatím stále nemáme český ekvivalent, označujeme videa, která jsou upravená nebo vytvořená umělou inteligencí. Co mají společné? Jde o falešné audiovizuální záznamy. Přestože to vypadá jako kachna, plave to jako kachna a kváká to jako kachna, tak to tentokrát kachna není. Technologie deepfake je schopna vytvořit audiovizuální nahrávky natolik věrohodně, že působí jako skutečné. Včetně mimiky, sladění pohybu rtů s tím, co osoba na videu říká, a dokonce hlasu, dikce a způsobu, jakými se vyjadřuje. Je tak jednoduché využít ji k tomu, abyste lidem vložili do úst něco, co by nikdy neřekli, a aby udělali něco, co by nikdy neudělali. Děsivé? Ano. Rozeznatelné? Obtížně. Používané? Poměrně běžně.

Dřív bylo vytvoření takového videa otázkou mnoha hodin, velké sumy peněz a jistých znalostí a schopností. Dnes to dokáže každý, kdo má k dispozici počítač s internetem, doslova pár dolarů na programy umělé inteligence a zhruba půl hodiny času. Přesně tak dlouho totiž trvalo datovému analytikovi a vedoucímu oboru Studia nových médií na FF UK Josefu Šlerkovi vytvořit video, na kterém prezident Václav Klaus v šedém saku před českou vlajkou apeluje na veřejnost, že je potřeba aktivně bojovat s globálním oteplováním, než bude pozdě. Cože? Vždyť Václav Klaus naopak roky prohlašuje, že globální oteplování je mýtus a že naše planeta je modrá, nikoli zelená. Kdo by tomu věřil? Ve skutečnosti spousta lidí, a to i přesto, že v popisku videa, které Šlerka vytvořil v rámci projektu Testování hranic AI pro server investigace.cz, bylo jasně uvedeno, že se jedná o video vytvořené pomocí umělé inteligence. A aby toho nebylo málo, běhal ve videu po celou dobu zcela jasně viditelný a nemalým fontem napsaný nápis DEEP FAKE.

Viděl jsem to na vlastní oči

Jak je tedy možné, že navzdory všem upozorněním, že se jedná o falešné video, mu mnoho lidí uvěřilo? „Je to dané tím, že rozvoj technologie je vždy o trošičku rychlejší než naše adaptace na ni. Deepfake videa se navíc špatně identifikují nejen nám, ale i z pohledu platforem sociálních sítí, na kterých se objevují. Je jich totiž ohromné množství, jejich kvalita se neustále zlepšuje, a navíc se stávají standardním komunikačním prostředkem, protože je využívají i politické strany v předvolebních kampaních. A žádná z platforem sociálních sítí nechce zasahovat do politických soubojů, takže se z toho stává horký brambor, který nikdo nechce řešit,“ říká Josef Šlerka v podcastu Odposlech a dodává: „Druhým velkým problémem je způsob, jakým dnes my jako uživatelé zpracováváme informace ze sociálních sítí. Velkou část obsahu totiž konzumujeme na mobilním telefonu. Ve značném množství jde pak o videoobsah, který je navíc velmi krátký, v zásadě dvacet až třicet sekund, a hned po něm následuje další video. Doba, kterou mu tak věnujeme, se zkracuje, zmenšuje se také naše pozornost, často se na něj díváme třeba v tramvaji, bez zvuku, jen si čteme titulky. Tím pádem si nevšimneme těch drobných detailů, které by nám třeba odhalily, že jde o falešné video.“ 

Svou roli také hraje to, čemu my osobně věříme. Pokud byste si přečetli článek v novinách nebo na webu, ve kterém se píše, že Václav Klaus burcuje k boji s globálním oteplováním, pravděpodobně si řeknete, že jde o nějakou blbost. To by přece Klaus vzhledem k postojům, které hlásá už roky, nikdy neřekl. Když ho ale vidíte na vlastní oči a slyšíte na vlastní uši? Audiovizuálním záznamům máme tendenci věřit mnohem víc než psanému textu, otázka ale je, na jak dlouho. Velmi pravděpodobně totiž již brzy budeme videa, která denně konzumujeme, podřizovat stejně kritickému a pochybovačnému postoji.

Real, nebo fake?

Způsoby, jak poznat deepfake video, naštěstí zatím ještě jsou. Koukat byste měli například na nepřirozené pohyby a výrazy člověka na videu, nepřesně sedící pohyby rtů k tomu, co daná osoba říká, nebo také nekonzistenci ve zvuku, osvětlení či pozadí videa. Prvním krokem by ale vždy mělo být zapojení vaší vlastní logiky a kritického myšlení. Říká osoba ve videu něco, co je v naprostém rozporu s jejími dosavadními tvrzeními? Mluví na téma, do kterého by se pravděpodobně nepustila? Pak je potřeba to ověřit z dalšího zdroje. Pokud vám tedy prezident Petr Pavel nebo bývalý premiér Andrej Babiš ve videu na Facebooku doporučují výhodnou investici, díky které zázračně zbohatnete, mělo by vám být jasné, že jde o podvod.

Problém je v tom, že podvodníci využívají kromě AI také postupy mnohem méně náročné na technologie, které zato silně útočí na naši důvěřivost. Konkrétní deepfake videa Andreje Babiše, Petra Pavla nebo Michaela Žantovského doplnili podvodníci o vizuál televizní stanice CNN Prima News. Celé video tak působí jako reportáž, a je ještě snadnější mu uvěřit. Mnohý by si mohl říct, že je přece bizarní, aby tito lidé lákali české občany na investice, a že tomu může uvěřit člověk jen opravdu velmi naivní, na druhou stranu Andrej Babiš nedávno na svých sítích zveřejnil video, ve kterém mluví s kohoutem. Čemuž se také věří jen těžko. Potřeba generovat čím dál bizarnější obsah, aby ho algoritmy sociálních sítí šířily mezi co nejvíce uživatelů, nás tedy pomalu dostává do fáze, kdy bude obtížné na první dobrou poznat, co je pravda a co podvrh. Vítejte v krizi autenticity.

Čemu tedy věřit

Zneužívání vizuálu médií v podvodných videích, článcích nebo mailech prohlubuje celosvětově čím dál rostoucí nedůvěru společnosti ve zpravodajská a publicistická média. Podle loňské studie Digital News Report od Reuters Institutes věří médiím jen třicet procent české populace. Nejvyšší důvěře se přitom z těch zkoumaných, kde nebyla zastoupena všechna, těší média veřejnoprávní, tedy Český rozhlas (59 %) a Česká televize (57 %). Nad padesátiprocentní hranicí důvěry jsou podle výzkumu i Hospodářské noviny, Seznam Zprávy, CNN Prima News a Aktuálně.cz. Jenže každé zneužití podvodníky důvěru veřejnosti nabourává ještě víc. Přitom média, u kterých znáte majitele, novináře i jejich práci, jsou často právě těmi, kdo podvody pomáhají odhalovat.

O tom, jak poznat, jestli zprávy, které čtete, jsou důvěryhodné, nebo by se mohlo jednat o dezinformace, vytvořil před pěti lety youtuber Karel „Kovy“ Kovář videoseriál, ve kterém spolu s odborníky vysvětluje, jak fungují sociální sítě, jak si ověřovat informace, proč je důležité vědět, kde zprávu čtete a kdo je pod ní podepsaný, a podobně. Je to skvělý základ, kterým bychom se měli řídit, problém je v tom, že umělou inteligenci, deepfake a naši důvěřivost už nevyužívají jen podvodníci, ale i politické strany a vlády celých států. Aby dosáhly svého, uklidnily obyvatelstvo nebo třeba vyhrály volby.

Náraz do zdi se blíží

„Víme, že Rusko vedlo poměrně agresivní kampaň proti generálu Zalužnému, bývalému veliteli ukrajinských vojsk, jejíž součástí byla deepfake videa, ve kterých třeba vyzýval k různým nekalostem vůči prezidentovi Zelenskému, a vlastně nikdo tomu nebyl schopen zabránit,“ popisuje Josef Šlerka a konstatuje: „Máme před americkými prezidentskými volbami a už teď víme, že falešná videa budou součástí kampaně, protože umožňují natočit například jen jedno jediné video s prezidentským kandidátem, kdy jedna jeho část může být pravá a ve druhé prostě jen vyměníte obsah podle potřeby.“

Jak tedy poznat, komu a čemu věřit? Těžko. Moderní technologie umožňují vládnoucím společnostem i politikům manipulovat s veřejným míněním, navíc zatím poměrně beztrestně. Je tedy na každém, aby zpochybňoval informace, které se k němu dostávají, ověřoval si zdroje, ze kterých pocházejí, a obracel se spíš na ty důvěryhodné než na ty, které hlásají, že vám konečně říkají pravdu, kterou vám ostatní tají. Nicméně jsme jako lidé v nevýhodě, protože technologie, bez kterých už se neobejdeme, jsou čím dál dokonalejší. „Myslím si, že až když narazíme do zdi, pokud dvakrát třikrát zažijeme nějakou velkou mediální manipulaci, například razantní zneužití deepfake videa třeba těsně před volbami, a uvidíme její masové šíření, tak teprve potom se začneme věnovat tomu, co s tím problémem vlastně udělat. Je to sice nehezké, ale stane se to,“ uzavírá Josef Šlerka.

"Článek vyšel v časopise Moje psychologie 5/2024"