nlc-logo

Engedélyezi, hogy az nlcafe.hu értesítéseket
küldjön Önnek a kiemelt hírekről?
Az értesítések bármikor kikapcsolhatók
a böngésző beállításaiban.

Szabadidő
Pornózó hírességekkel érkezik el a média ijesztő korszaka

Pornózó hírességekkel érkezik el a média ijesztő korszaka

A technológia fejlődése elérte azt a pontot, hogy mostantól nem feltétlenül bízhatunk meg abban, ha mozgóképen látunk valamit, ugyanis ma már komolyabb képzettség sem szükséges hozzá, hogy többé-kevésbé valódinak tűnő videókat hozzunk létre.
Andersen Dávid
Andersen Dávid
f Ajánlom

Amikor néhány hete megjelentek az első hírek arról, hogy a Reddit közösségi fórum egyik aloldalán pornófelvételek terjednek ismert színésznők arcával, kevesek ingerküszöbét vitte át az információ. Leszámítva persze azokat, akik azonnal beütötték a keresőkbe Gal Gadot, Daisy Ridley, Emma Watson vagy épp Taylor Swift nevét, hogy rákeressenek a hírességeket ábrázoló pornókra.

A képen nem Gal Gadot látható, csupán arcának digitális másolata, egy pornószínésznő testére helyezve (Fotó: Reddit)

A felvételek – mert lássuk be, ezen a ponton valószínűleg sokan kíváncsiak erre – nem sokban különböznek a hasonló műfajt képviselő fotóktól, amikor aktmodellek testére ismert emberek arcát retusálják. Van, amelyik első blikkre hihetőnek tűnik, de nem kell hozzá grafikusnak lenni, hogy feltűnjön: valami nem oké. Mégis, elsőre akár el is lehet képzelni, hogy az adott celebritás eleddig titkolt fotójáról vagy videójáról van szó.

Amiért mégis fontosak ezek a képsorok, azok az etikai, szerzői jogi és nem utolsósorban társadalmi hatások, amelyek a technológia ilyen jellegű fejlődésének következményei lesznek. Elsőként beszéljünk az etikai kérdésről, főleg, mivel a Reddit fórumán megjelent videók gyakorlatilag kizárólag nőket ábrázolnak. Nőket, akiket senki sem kérdezett meg róla, hogy szeretnének-e pornóban „szerepelni”. Ne felejtsük el, hogy a technológia tökéletesen alkalmas lehet olyan felvételek létrehozására is, amelyen nem világszerte ismert sztárok, hanem akár teljesen hétköznapi emberek is szerepelhetnek. Ehhez tegyük hozzá, hogy napjainkban sajnos nem ritkaság az úgynevezett bosszúpornó műfaja, amikor egy csúnya szakítást követően a pár valamelyik tagja (túlnyomó többségben az önmagukat sértve érző férfiak) osztja meg a kapcsolat során készített szexvideóikat országgal-világgal. Az alábbiakban részletezett technológia segítségével azonban erre már akkor is lehetőségük nyílhat, ha egyébként nem is forgattak házi szexvideót, de szeretnék az exüket kellemetlen és megalázó helyzetbe hozni.

Hogyan készül a hírességek pornója?

A deepfake-nek nevezett videók alapja egy úgynevezett neurális hálózat, amelybe hatalmas mennyiségű fotót töltöttek fel ismert színésznőkről. Az algoritmus elemzi a különféle szögekből készült képeket, majd – kellő mennyiségű adat megléte esetén – képes létrehozni az adott híresség arcának digitális mását, akár mozgóképen is. Innentől pedig már nem túl nehéz a digitálisan rekonstruált arcot a mozgóképre helyezni. Természetesen a színésznők hangját nem tudja utánozni az algoritmus, de az eredeti felvételen látható arcmozdulatokat ha nem is tökéletesen, de viszonylag hihetően le tudja követni.

Az algoritmus forráskódját a Reddit érdeklődő fehasználói addig követelték a Deepfakes nevű felhasználótól, amíg közzé nem tette a kódsorokat, így ma már bárki létrehozhatja a saját neurális hálózatát, amelybe olyan fotókat tölt fel, amilyeneket nem szégyell.

Mi történik a szerzői és a személyiségi jogokkal, ha egy gép hozza létre valakinek az arcát? (Fotó: Getty Images)

Itt jön a képbe a következő tényező, a szerzői, na meg a személyiségi jogoké. Felmerül ugyanis a kérdés, hogy az ismert emberek, a közszereplők, akikről évente több száz vagy több ezer fotó is készül, hogyan védekezhetnek ez ellen a jövőben. Hiszen az arcukat – egyelőre – nem védi a szerzői jog , legfeljebb az illetéktelenül felhasznált fotók készítője emelhetné fel a szavát, de jogi szempontból még az is kérdéses, hogy ebben az esetben mit ítélne egy technikai szempontból rendkívül felkészült bíróság. Hiszen a fotók nem jelennek meg a végeredménynek számító felvételen, az algoritmus csupán elemzi a képeket és azok alapján állapítja meg, hogy a hírességek arcvonásait milyen vonalakból és árnyékokból lehet „felépíteni”. Felmerül tehát a kérdés, hogy mihez kezdhet egy hollywoodi sztár, ha már nem csak egy teljesen nyilvánvalóan hamisított pornóban, hanem tegyük fel, egy a tudta nélkül készült mozifilmben jelenik meg szereplőként.

Felelősségre lehet-e vonni az algoritmust elkészítő felhasználót? Elképzelhető, hogy igen, más kérdés, hogy ennek mennyi értelme lenne. A Vice Motherboard nevű melléklete még tavaly decemberben készített interjút a Deepfakes nevű Reddit-felhasználóval, aki elmondta, hogy a neurális hálózatot népszerű, ingyenesen hozzáférhető, nyílt forráskódú eszközök felhasználásával fejlesztette ki, a hírességek arcának digitális másait pedig az interneten nyilvánosan elérhető hatalmas mennyiségű fotó feldolgozásával készítette el. Vagyis az eszközök adottak, így gyakorlatilag bárki, bármikor létrehozhat hasonló videókat.

Az objektív valóság vége

Szerzői jogi problémákon felül az is lényeges tehát, hogy az efféle algoritmusok, neurális hálózatok, illetve a közeli jövőbe tekintve a mesterséges intelligenciák szabályozása jelenleg még nem, hogy gyerekcipőben nem jár, de jószerivel nem is létezik. Erre a szabályozásra viszont rendkívül hamar szükség lenne, mielőtt a hasonló módszerekkel hamisított videók nagyobb bajt okozhatnának. A betiltás nem sokra vezetne, lévén, hogy nagy nyilvánosság számára ingyenesen hozzáférhető, nyílt forráskódú eszközökről van szó, gyakorlatilag nem is lenne lehetséges eltüntetni ezeket az internetről, de értelme sem lenne, ugyanis a hasonló képfeldolgozó algoritmusokat széles körben használják, az arcfelismerő biztonsági megoldásoktól az életünket megkönnyítő vagy színesítő szoftverekig vagy a videocsetelés közben az arcunkra cicás vagy bohócos maszkot varázsoló okostelefonos alkalmazásokig bezárólag

A pornóvideók manipulációja már így is elég aggasztó, főleg, ha belegondolunk, hogy a technológia segítségével már most bárkiről készülhetnének hasonló felvételek. Igen, az ismerőseinkről, kiskorú gyerekekről és persze saját magunkról is. Ami azonban még ennél is messzebbre vezet, az a mozgóképes tartalmak manipulációja.

A deepfake-pornókhoz hasonló módszerrel mutattak be pár hátborzongató videót a University of Washington kutatói a számítógépes grafikával foglalkozó SIGGRAPH szakkonferencián 2017-ben, amelyen Barack Obama amerikai elnök látható. A kép bal oldalán a valódi Obama beszél, míg a jobb oldalon egy, az algoritmus segítségével létrehozott digitális másolata. A két képet egymás mellett nézve feltűnhet, hogy a jobb oldali, „mű-Obama” fogsora nem teljesen olyan, mint hús-vér kollégájáé. Azonban képzeljük el, hogy a jobb oldali képet látjuk a tévében, összehasonlítási alap nélkül. Az illúzió itt már bőven van olyan tökéletes – főleg a hanggal kiegészítve – hogy tízből kilenc ember még csak nem is gyanakodna, hogy nem az USA 44. elnökét, hanem digitális mását látja csupán.

Az amerikai kutatók következő videója azt is megmutatja, hogyan gyűjti össze az algoritmus a feldolgozott képekről az ott látható hírességek jellegzetese mimikai mozdulatait. Ez azonban csak a tökéletes hasonlósághoz szükséges, a beszédhez, illetve a száj mozgásához még csak ennyi sem kell. Érdemes megnézni, hogyan „beszél” Daniel Craig hangján Sir Ian McKellen arcának digitális másolata, nagyjából 0:54 környékén.

Német kutatók is kaptak a lehetőségen, az ő videójukon pedig már tökéletesen szemléltetni lehet, hogy mikortól válik veszélyessé ez a fajta technológia. A felvétel első képkockáin ugyanis egy fiatalember szerepel, a mellette olvasható angol mondat pedig így szól: „ez a srác rá tudja venni Donald Trumpot, hogy bármit elmondjon”. A következő képeken pedig az látható, ahogy Vlagyimir Putyin orosz elnök áll a Vörös téren, szájának, illetve arcizmainak a mozgása pedig tökéletesen és valós időben követi a kép jobb oldalán látható fiatalemberét. Az illúzióhoz a német kutatóknak ráadásul csupán a YouTube-ra és egy webkamerára volt szükségük.

Nem nehéz arra gondolni, hogy ezen a videón már szándékosan választották ezt a két politikust. Míg Trump ugyanis megismertette a világot a fake news, valamint az „alternatív tények” fogalmával, gyakorlatilag elfogadott tény, hogy Oroszország többek között álhírek terjesztésével manipulálta a 2016-os amerikai választási kampányt. Ezek után képzeljük el azt a szép jövőt, amikor egy kiélezett kampányhelyzetben egyszer csak megjelenik egy videó, amelyen az egyik jelölt valami olyasmit mond, amellyel gyakorlatilag lenullázza az esélyeit. Bár a cikk elején megemlítettük, hogy a deepfake-pornók esetében nem a színésznők hangja hallható a manipulált felvételeken, egy politikus esetében azonban korábbi interjúkból összeollózható a kérdéses mondanivaló, de egy tehetséges parodista is elmondhatja a szükséges mondatokat, a mozgóképpel együtt az illúzió így már csaknem tökéletes. Érdemes megnézni, milyen eredményt hozott, amikor Alec Baldwin paródiájára „ráhúzták” a valódi Donald Trump arcát. A képernyő jobb oldalán Trump arcát, de Baldwin arcjátékát látjuk és szintén az amerikai színész hangját halljuk. A képernyő bal oldalának letakarásával azonban gyakorlatilag teljesen olyan, mintha a jelenlegi amerikai elnök beszélne.

„Ez rendkívül destabilizáló hatású lehet” – mondta Deborah Johnson a University of Virginia alkalmazott etikával foglalkozó professzora a Vice-nak, a pornóvideókkal kapcsolatban. „Ezek a dolgok alapjaiban fogják megrengetni szavahihetőséget és a hitelességet.”

Cathy O’Neill matematikust szintén megkeresték a témával kapcsolatban. A gépi tanulással és a „Big Data”-val szemben szkeptikus szakember szerint „addig jó, amíg csak pornóvideókhoz használják ezt a technológiát, nem pedig valamilyen politikai botrányt robbantanak ki vele, ami háborúba is torkollhat”. Kemény szavak ezek, de gondoljunk bele, hogy a napjaink feszült nemzetközi légkörében milyen hatása lenne, ha például egy olyan videó látna napvilágot, amelyen Donald Trump sértegeti Putyint vagy esetleg atomtámadással fenyegeti meg Észak-Koreát. Hiába derül ki a videóról néhány nap vagy hét múlva, hogy hamisítvány, ha az addig is feszült diplomáciai helyzetből komolyabb probléma is kialakulhat.

O’Neill szerint fordulóponthoz érkeztünk, amikor fontos levonni a tanulságokat és pedagógiai szemlélettel nézni a technológiai fejlődésre.

„Amíg társadalmi szinten meg nem értjük, hogy ma már egy videót is ugyanúgy lehet manipulálni, mint egy képet, addig újra és újra sokkoló meglepetések érnek majd minket” – hangsúlyozta az algoritmusokkal foglakozó szakember. „Ha azonban hozzászokunk, megszűnik a probléma.”

O’Neill maga is elismeri, hogy valóban destabilizáló ereje lehet az ilyen videóknak, amivel a bizonyítékok és a hitelesség fogalmai mostantól bonyolultabbá válnak. Az egyetlen lehetőségnek azt látja, ha az elvárásainkat mindezek ismeretében módosítjuk.

„Jobb, ha most tanuljuk meg, hogyan legyünk szkeptikusak azzal kapcsolatban, amit látunk, vagy olvasunk, illetve azzal kapcsolatban is, amit hallunk, hiszen a hangokat ugyanúgy lehet manipulálni” – mondta, hozzátéve, hogy rövidesen megjelenhetnek a manipulált videók leleplezésére szakosodott szakemberek.

Amíg ez megtörténik, addig azonban érdemes gyanakodni, különösen, ha az interneten olyasmit látunk vagy hallunk, ami első ránézésre hihetetlennek, de legalábbis szokatlannak tűnik. Ilyen esetekben több, hitelesnek tekinthető forrás segítségével kell megbizonyosodni róla, hogy a valóságot láttuk vagy csak bárki számára hozzáférhető eszközökkel manipulált kreálmánnyal van dolgunk.

Megosztás Facebookon