Umělá inteligence ve filmech pro dospělé
Není překvapením, že za vznikem deepfaku, tedy technologie, která nám dává možnost nahradit tvář ve videu obličejem kohokoli jiného, stojí pornografický průmysl. V roce 2017 se na Redditu a Twitteru začala masově objevovat pornografická videa se známými osobnostmi. Mezi oběti se řadí například Emma Watson, Ariana Grande či Taylor Swift. Žádná ze jmenovaných však ve videích skutečně nevystupovala. Jejich tváře byly zneužity pomocí techniky hlubokých neuronových sítí, která kombinuje fotografie a videa, a to s překvapivě realistickými výsledky. Sociální sítě brzy šíření těchto videí zakázaly, jejich tvůrci si však našli alternativní cesty.
Od Holywoodu po vaše smartphony
Nedlouho poté, co první deepfake spatřil světlo světa, rozmohl se tento trend i do dalších oblastí. Široké využití nachází ve filmovém průmyslu, jehož možnosti by mohl v budoucnu zásadně rozšířit. Co takhle přivést již nežijícího herce zpět na filmová plátna? Pro natolik realistický efekt je třeba schopný programátor a desítky, možná stovky hodin. Ať už méně, či více realistická „zfalšovaná” videa si však může vytvořit každý, kdo má počítač nebo smartphone a přístup k internetu. Mnoho z nás, ač nevědomě, tomu tak již učinilo prostřednictvím aplikace FaceApp, která se v letošním roce stala hitem, nebo dokonce za pomoci Instagramu, který na svých stories nabízí efekt výměny obličejů dvou lidí.
Zbraň v rukou grafika
Jaké nebezpečí tedy tkví ve zdánlivě zábavné a užitečné technologii? Je třeba si uvědomit, že do libovolného videa lze dosadit naprosto kohokoli a je na volbě tvůrce, co bude daný člověk říkat a dělat. Může to být vaše kolegyně, expartner, učitel, zpěvačka, novinář nebo v nejhorším případě politik. Ve světě, kde jsou jednou z největších hrozeb fake news, které šíří dezinformace, poplašné zprávy a masově tak ovlivňují mínění lidí, dokáže jediné takové video způsobit skutečný chaos. Je až děsivé, jak jednoduché nyní může být vytvořit kupříkladu předvolební anti-kampaň. Zveřejnění dobře provedeného několikasekundového videa s vrcholným politikem, jemuž budou do úst vložena libovolná slova, může způsobit ztrátu důvěry voličů nebo v extrémním případě mezistátní konflikt.
Vše co vidíte, nemusí být pravda
Nezbývá, než se sžít s tím, že každé video, na které při scrollování zdi narazíme, nemusí být reálné. Samozřejmě existují programy schopné rozeznat takto upravené video, ani pro lidské oko by to ale v současnosti neměl být problém. Jen málokterý deepfake je dokonalý, a tak při bližším zkoumání zle najít několik nedostatků. Zpravidla jde o tváře, které jen zřídkakdy mrkají, vyvolávají dojem jakési masky na obličeji nebo mají nepřirozené kontury. Je třeba dávka pozornosti a kritického myšlení, alespoň tak můžeme potlačit současné raketové šíření této hrozby.