Sú deepfake len zábavou alebo nástroj na krádež identity, manipuláciu či pomstu? (VIDEO)

Sú deepfake len zábavou alebo nástroj na krádež identity, manipuláciu či pomstu?  (VIDEO)

Slovenský vývojár žijúci v ČR vyvolal vo svete pozornosť svojimi deepfake videami, v ktorých vymieňa tváre rôznym celebritám.

Jeho video, v ktorom sa komik Bill Hader v jednom momente mení na známeho herca Toma Cruisa, videlo za prvý mesiac od zverejnenia už takmer 6 miliónov ľudí. Komik mal nielen tvár, ale aj mimiku, gestá herca Cruisa.

Slovenský vývojár, ktorý nechce prezradiť svoju identitu a vystupuje ako Tom, na svojom kanály youtube s názvom Ctrl Shift Face neobjavil nič nové. Využíva program DeepFaceLab, ktorý funguje na báze otvoreného zdrojového kódu a pomocou ktorého tváre známych ľudí pridáva do rôznych vídeí.

Nedávno zverejnil ďalšie video, v ktorom sa tvár herca Rami Maleka z filmu Bohemian Rhapsody mení na skutočného Freddieho Mercuryho.

V ďalšom videu ukázal, ako deepfake vzniká.

V obehu sú aj mnohé videá, ktoré zmiatli divákov, vyzerali natoľko realisticky, že im mnoho ľudí uverilo.

Čo je deepfake?

Využíva techniku digitálnej syntézy ľudského obrazu založenej na umelej inteligencii, kde sa prekrývajú existujúce snímky. Vytvárajú sa tým falošné videá, na ktorých v skutočnosti nie sú osoby, ktoré divák vidí, ale boli tam dodatočne pridané.

Jedno z najznámejších je video z roku 2017 s Barackom Obamom, na ktorom je upravená mimika tváre bývalého amerického prezidenta tak, aby bola zhodná s doplnenou zvukovou stopou. Autormi videa sú vedci z Washingtonskej univerzity, ktorí chceli cez „synthetics Obama“ ukázať, že sa politikovi dajú vložiť do úst akékoľvek slová, ktoré nikdy nepovedal.

Názov deepfake sa začal častejšie používať v roku 2017 hlavne na označenie erotických videí, do ktorých boli vkladané tváre známych celebrít.

Jednou z najčastejších obetí bola herečka Scarlett Johansson. Ďalšie rozšírené a nie vždy vydarené deepfake si zas obľúbili tvár herca Nicolasa Cage, ktorú zasadili do rôznych filmov.

Deepfakes sa s obľubou využíva aj v rôznych satirických videách zosmiešňujúcich politikov. Napríklad, keď tvár Angely Merkelovej nahradili tvárou Donalda Trumpa.

To, že deepfake vie poslúžiť aj na manipuláciu, ukázalo video z mája tohto roku, na ktorom prejav Nancy Pelosi zo Snemovne reprezentantov Spojených štátov vyzerá, akokeby bola politička opitá. V skutočnosti tento dojem sa docielil len spomalením videa o 75 percent.

Vážne obavy zo zneužívania tohto internetového hitu vyslovila herečka Scarlett Johansson, ktorá už rezignovala na boj s autormi vídeí, v ktorých je doplnená jej tvár. Vo vyjadrení pre The Washington Post povedala, že si myslí, že deepfake jej verejný imidž neohrozia, lebo ako celebrita je dostatočne známa. No sú podľa nej vážnou hrozbou pre ženy, ktoré žijú bežný život, a také videá, vyrobené napríklad z pomsty, im môžu veľmi poškodiť.

Deepfake si už pritom môže vyrobiť ktokoľvek. Nová aplikácia s názvom Zao, ktorá prišla nedávno z Číny, umožňuje vytvoriť takéto video za pár sekúnd.

Podobne ako pri aplikácii FaceApp, aj v prípade Zao sa šíria pochybnosti o jej bezpečnosti. V pravidlách na používanie sa píše, že užívateľ poskytuje tvorcom „voľné, nemenné a permanentné“ práva na použitie v ďalších odvetviach. Spoločnosť Changsha Shenduronghe Network Technology, ktorá aplikáciu vyvinula, ale tvrdí, že všetky užívateľské fotografie a videá bude využívať výlučne na vylepšenie umelej inteligencie.

Slovák Tom, ktorého sme v úvode spomínali, si myslí, že deepfake nie sú ďalšou hrozbou pre svet dezinformácií. Oveľa horšie sú podľa neho vymyslené články. „Keď niekto napíše vymyslený článok, ktorý je neoveriteľný, a teda sa dá len ťažko vyvrátiť, je to podľa mňa nebezpečnejšie. Hlavne preto, že takýto článok sa dá napísať veľmi ľahko. Zato vytvoriť kvalitný deepfake je oveľa náročnejšie,“ povedal Tom pre denikn.cz.

Podľa nemeckého IT odborníka Alexa Champandarda manipulácia s obrázkami a videami pomocou umelej inteligencie by sa mohla stať nebezpečným masovým javom, preto je podľa neho dôležité, aby sa upevňovala dôvera v žurnalistiku, povedal pre Auergauer Zeitung.

Kybernetik Michael Šebek upozorňuje, že mnoho ľudí ani po odhalení podvrhu nemusí veriť, že video bolo upravené. Riešenie je podľa neho inde: „Rozvíjať kritické a logické myslenie a vychovávať ľudí, aby hneď neverili všetkému, čo uvidia. Aby si všetko overovali, o všetkom premýšľali. Čo vedie k mojej obľúbenej téme: nutnej zmene vzdelávania a škôl.“ povedal Šebek pre denikn.cz.

Článok vznikol v spolupráci s Férovou nadáciou O2.