Skip to main content

Mózes Gergely: Használható-e etikusan a deepfake-technológia a dokumentumfilmben?

- 2025. 09. 03.

Bevezető

A deepfake, azaz ,,mélyhamisítás”-technológia olyan eszköz a digitális világban, amely hozzáértő alkotók kezében a céljaiktól függően egyaránt használható fegyverként vagy akár építőanyagként is. Manapság az előbbire jóval több példa akad, hiszen a deepfake eszköz lehet az identitásunk, képmásunk, hangunk elrablására, s ami erre alkalmat ad, azzal élnek is a találékony felhasználók.

Az egyik legfrissebb ilyen rablási kísérlet egy évvel a 2024-es párizsi olimpia előtt született. Az Olympics Has Fallen (2023) című ál-dokumentumfilmben a narrátor, Tom Cruise a Nemzetközi Olimpiai Bizottság (NOB) kétes ügyeit taglalja, és lerántja a leplet a szervezet korrupt vezetőiről. Valójában Cruise sosem szerepelt ebben a filmben, amelynek forrásai és állításai is hamisak. A deepfake-technológiát bevető ál-dokumentumfilmet a Storm-1679 nevű, Oroszországhoz köthető hekkercsoport készítette. Céljuk a dezinformációk terjesztésén túl az volt, hogy az olimpia leendő nézőinek kedvét elvegyék a játékok látogatásától. Írásomban erre a filmes kísérletetre hivatkozva tekintem át a deepfake-problémát, ám a jelenséget pozitív filmes példával is ellensúlyozni kívánom. A károkozásra irányuló digitális kísérleteket napestig sorolhatnám, de jobban érdekel a technológiában rejlő kreatív, teremtő erejű lehetőségek felkutatása, vagyis a lehetőség, hogy a létező hangok, képmások, személyiségek, tehát lényegében a valóság el- és kirablása helyett elképzelhető-e etikus, építő jellegű együttműködés alkotó és AI között? Mit tehetnek a kortárs filmkészítők annak érdekében, hogy ne sérüljenek a dokumentumfilm-alkotói alapelvek, amennyiben élnek az új technológia vívmányaival?

Az Európai Unió egy mindent átfogni szándékozó komplex törvénycsomagot hozott a deepfake jelenségek visszaszorítása érdekében (EU AI Act 2024), míg ezzel egyidőben az Egyesült Államokban a filmipari dolgozók fogtak össze és keresik együtt az AI etikus filmes felhasználásának lehetőségeit (APA – Archival Producer Alliance). Írásomban egy lehetséges pozitív aspektusú dokumentumfilmes választ mutatok be a két kontinens közötti zónából, a brit szigetekről, ahol az egyik első komplex deepfake-technológiát alkalmazó egész estés alkotás készült: A Gerry Anderson: Life Uncharted (2023) című dokumentumfilmben nem csupán a hang vonatkozásában, de vizuális értelemben is újraalkották a címszereplő karakterét az AI segítségével, etikus keretek között.

A dezinformáció és a félelemkeltés művészete: Olympics Has Fallen

Nem sokkal a 2024-es párizsi olimpia előtt a Microsoft jelentést tett közzé, amelyben összefoglalta az egyik Oroszországhoz kötődő hacker csoport, a Storm-1679 befolyásolási kampányait, amelyeket a csoport Franciaország, valamint a Nemzetközi Olimpiai Bizottság (NOB) és a párizsi játékok ellen folytatott (MTAC 2024:1). A Storm-1679 “legnépszerűbb alkotása” az orosz Telegram közösségi oldalon felbukkanó áldokumentumfilm, az Olympics Has Fallen (2023) volt. A film felfogható egyfajta válaszcsapásként, hiszen Oroszország 2022-es Ukrajnai inváziója miatt a NOB eltiltotta a támadó ország sportolóit a játékokon való részvételtől, így az orosz sportolók csak bizonyos létszám alatt és semleges színekben vehettek részt a versenyeken (IOC 2024). „Az Olimpics Has Fallen –ben a filmsztár, Tom Cruise mesterséges intelligencia által generált hangján megszólaló, némileg csapongó narráció becsmérli a NOB-ot, különböző álforrásokra támaszkodó információk alapján. ,,A tartalom készítői jelentős időt fordítottak a projektre, és nagyobb ügyességről tettek tanúbizonyságot, mint a legtöbb általunk megfigyelt befolyásoló kampány esetében.” – írta Clint Watts az MTAC (Microsoft Threat Analysis Center) elemzője (Watts 2024).

1. ábra helye, cím: Az Olympics Has Fallen című áldokumentumfilm online posztere

Mára nem csak magát a filmet tiltották be Európa szerte, de már az orosz Telegram oldalon sem elérhető az előzetes, ami szerint ráadásul Netflix-produkcióról van szó, amely a New York Times és a BBC öt csillagos értékeléseivel is parádézik. Watts arra is rámutat elemzésében, hogy az olimpia előtt az ál-dokumentumfilmen túl a Storm-1679 folyamatosan készített és terjesztett rövidebb megtévesztő tartalmakat a közösségi oldalakra, amelyek szerint megbízható és legitim nyugat-európai sajtóforrások is közvetítik a párizsi játékok körüli, várható erőszakkal kapcsolatos információkat. Egy rövid videóban, amely a brüsszeli székhelyű Euro News Média-ként álcázza magát, a Storm-1679 hamisan állította, hogy a párizsi lakosok ingatlanbiztosítást vásárolnak a játékok ideje alatti terrorizmusra felkészülendő. Egy másik álcázott hírklipben – amely ezúttal a France24 közszolgálati csatornát utánozta – a hackercsoport azt a hamis információt közvetítette, hogy az olimpiai eseményekre vásárolt jegyek 24%-át a nézők terrortámadásoktól tartva visszaváltották (MTAC 2024:4). Dan Milmo, a The Guardian technológiai rovatának szerkesztője szerint a hackercsoportnak az alapvető és megszokott dezinformáció-terjesztésen kívül két további fő célja is volt: rontani a NOB hírnevét a világ színpadán, valamint azt a várakozást kelteni, hogy erőszakos cselekmények történhetnek Párizsban a 2024-es nyári olimpiai játékok alatt (Milmo 2024). Persze a Storm-1679 dezinformációi túlmutatnak a NOB rossz hírbe hozásán és a pánikkeltésen: a készítők főleg arra törekedtek, hogy eltántorítsák a nézőket a játékok látogatásától. Az “alkotók” valóban nem válogattak az eszközökben, még olyan hamis videó- sajtóközleményeket is készítettek, amelyek az Amerikai Központi Hírszerző Ügynökség (CIA) és a Francia Belbiztonsági Igazgatóság (DGSI) nevében figyelmeztették a potenciális résztvevőket, hogy maradjanak távol a párizsi olimpiától egy feltételezett terrorcselekmény kockázata miatt (Watts 2024).

Azóta maga az olimpia biztonsági kockázatok nélkül lezajlott, viszonylagos békében, valamint 15 orosz sportoló is indult a semleges zászló alatt (Ellingworth 2024). Persze Clint Watts és a fentebb említett Microsoft-jelentés arra is rámutatnak, hogy a valóság elrablására tett kísérletek nem szorítkoztak kizárólagosan a 2024-es olimpiára. A leginkább orosz kapcsolatú hackercsoportok deepfake és dezinformációs erőfeszítései a főbb nyugati országok világnyelvein kívül a kisebb országok nyelvein is intenzíven terjednek, és a készítők automatikus fiókok révén próbálják elárasztani a közösségi médiát – a generatív mesterséges intelligencia segítségével – olyan tartalmakkal, amelyekben rendkívül meggyőzően valósághűnek tűnő szöveget, videót, képet és hangot állítanak elő (Watts, MTAC 2024; Arató—Balázs 2023, 2024, 2025).

A valóság védelme reakciók a deepfake-re

Nemzetközi szinten nem csupán a Microsoft foglalkozik globális adat- és kibervédelemmel, azaz a digitális fenyegetések észlelésével és kivédésével. E probléma kezelésére született meg az Európai Unió Mesterséges Intelligencia Törvénye (AI Act) amelyet a Európai Parlament hivatalosan 2024. március 13-án hagyott jóvá (Yakimova, Ojavo 2024). Ez az első, világszintű átfogó jogi keretrendszer a mesterséges intelligencia szabályozására. A szabályok célja, hogy elősegítsék a megbízható és etikus használatú mesterséges intelligencia fejlődését Európában. A törvénycsomag az AI-rendszereket potenciális kockázatuk alapján kategorizálja, szigorúbb szabályozásokat alkalmazva a magasabb kockázatú esetekre. A deepfake technológiát is pontosan meghatározza, mint szintetikus vagy manipulált képi, audiovizuális tartalmat, amely megtévesztően igaznak vagy hitelesnek tűnhet és hasonlíthat meglévő személyekre, helyekre, objektumokra vagy éppen egyéb eseményekre, entitásokra (EUC 2024). ​​A deepfake-ek kezelésére a törvény 50. cikkelye az átláthatóságot célozza, amikor előírja, hogy az általános célú mesterséges intelligencia-eszközök szolgáltatói címkézzék meg az AI által generált tartalmakat és azonosítsák a manipulációkat, így téve lehetővé a felhasználók számára az adott információk jobb megértését. Művészeti szinten azonban ez nem vonatkozik az alapvető szerkesztési, alkotói feladatokra, például amikor animációs filmnél az adott szereplő szájmozgásán csiszolnak, vagy éppen hangot kreálnak egy karakternek. Ugyanígy nem vonatkozik a bűnüldöző szervek jog- és életvédelmi tevékenységeihez köthető mozgóképekre, amelyek bűncselekmények felderítéséhez kapcsolódnak vagy éppen vádemeléshez szükséges bizonyítékok (EUR-LEX 2024/1689: 50). A bekezdés azt is előírja, hogy azoknak, akik mesterséges intelligenciát használnak deepfake-ek létrehozására, legyenek akár alkotók, művészek vagy bárki más, tájékoztatniuk kell a nyilvánosságot erről a tényről. Emellett 134-es bekezdésben is hangsúlyozzák a transzparenciára való igényt, ti. hogy a deepfake-et használók egyértelmű címkékkel és az AI származásának említésével is lássák el az adott tartalmat (EUR-LEX 2024/1689:134).

2. ábra helye, cím: Az AI törvény piramisa, amely négy egymásra épülő kockázati szintet határoz meg a mesterséges intelligencia rendszerek számára

A teljes törvénycsomag két kulcsfontosságú kivételt ismer el. Ahogyan fentebb említettem, bűncselekmények nyomozásánál vagy bizonyítékgyűjtésnél a hatóságok mentesülnek a deepfake-ek használatának nyilvánosságra hozatala alól, prioritást adva a jogi céloknak a közvetlen transzparenciával szemben. Ez a gyakorlatban alapvetően paradox helyzeteket is teremthet, hiszen akár egy bizonyítási eljárás során is lehet csalásra használni a deepfake technikát, de persze ez függ az adott ügytől és magától a bizonyíték milyenségétől is. Szintén korlátozott közzétételi kötelezettséggel bírnak a szólásszabadság és a művészi kifejezés szabadságának védelmében (amelyet az EU Alapjogi Chartájának 11. és 12. illetve 13. cikkejében is garantálnak)(Charta 2000: 11) a nyilvánvalóan kreatív, fiktív, szatirikus vagy művészi deepfake-ek, mint például filmek vagy művészeti kiállítások. Ilyen esetekeben az AI megjelölésének diszkrétnek kell lennie, hogy ne zavarja meg a művészi önkifejezést. A mindennapi online gyakorlatban azonban a rendelkezések gyenge pontja éppen a humor vagy a paródia területe, amelyek pedig a mindennapi életünk részei (az online térben is), ahogy a társadalmi kommentárok is éppen a közösségi oldalaink nélkülözhetelen “kellékei” (vö. Balázs 2023: 113, 162 stb.). Az AI szabályzat elemzése kapcsán a kutató, Felipe Romero hívja fel a figyelmet arra, hogy ,,a szólás szabadságának humorral kapcsolatos kivételei jogi szürke zónát hozhatnak létre a káros narratívák számára, amelyek szatíraként álcázva jelennek meg.”(Romero 204:320). Tehát amennyiben egy kifejezetten sértő vagy kifogásolható deepfake-képre azt mondja az alkotója, hogy “csak viccelt”, akkor az állítása lehetővé teheti a gyűlöletbeszédet és normalizálhatja az extremizmust, potenciálisan még a humort is fegyverként használhatja. Felmerül a kérdés, hogy a deepfake használatakor ki dönti el, mi a vicces? Ezt a kérdést teszi fel Henry Ajder és Joshua Glick is a deepfake-ről szóló tanulmányuk elején: „A szatíra évezredek óta létezik. A deepfake technológia viszont új. Manapság mindkettő együtt él a közösségi média hatalmas, zavaros terében, amelyet félretájékoztatás, szándékos megtévesztés és kontextusból kiragadott tartalmak jellemeznek. Ebben a viharos közegben ki dönti el, mi számít viccesnek, vagy éppen igazságosnak? Hogyan gondolkodhatunk a humor progresszív lehetőségeiről, miközben ugyanígy fegyverként is alkalmazható? (Ajder-Glick 2021: 5). Mivel a mesterséges intelligencia és a deepfake-használata komplex folyamatok, így konkrét válaszok egyelőre nem léteznek, viszont Ajder és Glick szerint a törvényi szabályozások mellett nekünk, az online tér és média civil felhasználóinak van lehetőségünk ,,alulról szerveződve” egy átfogóbb és árnyaltabb reflexióra a szintetikus média használatáról és visszaéléseiről, valamint annak helyéről egy szélesebb társadalmi kontextusban (Ajder-Glick 2021: 46).

Gyakorlati értelemben átfogóbb civil szerveződések főképpen a tengerentúlon történtek, a filmiparban. Miközben Hollywoodban egyre többen vezetik be a mesterséges intelligenciát a filmgyártásba, a dokumentumfilmesek is szembesülnek az egyre növekvő számú olyan „hamis archív” anyagokkal, mint az AI által generált hangok, fotók vagy videók. A dokumentumfilm-rendezők, producerek és archív anyagokkal foglalkozó kutatók egyfajta válaszreakcióként megalakították az Archival Producers Alliance-t (APA/Archívokat felhasználó Producerek Szövetsége), amely jelenleg több mint 300 dokumentumfilm-producerből és kutatóból áll (Doc Voices 2025). A szervezet elsőként egy nyílt levelet tett közzé a Hollywood Reporter-ben, amelyben szigorúbb keretrendszert követel a filmipar számára, valamint sürgeti a generatív mesterséges intelligencia hasznlatával kapcsolatos irányelvek kidolgozását (Galuppo 2023). Az APA-nak nem célja, hogy maga az AI-technológia, amely már most is formálja a vizuális történetmesélés minden formáját, tiltás alá kerüljön, hanem azt kívánja megoldani, hogy az eddigi dokumentumfilmes értékek megőrzésével együtt hibrid módon, etikusan és felelősségeteljesen alkalmazzák a technikát az alkotók. ,,Elismerjük, hogy lehetnek jó okok arra, hogy a dokumentumfilmesek AI által generált anyagokat használjanak: hogy életre keltsék azok történeteit, akik hiányoznak a történelemből, vagy hogy a nézőket eljuttassák egy olyan időbe vagy helyszínre, amelyről nem maradt fenn megfelelő vizuális ábrázolás. Azonban szabványok nélkül a generatív mesterséges intelligencia használata azt kockáztatja, hogy torzítja a történelmet, és megváltoztatja a közönséggel való kapcsolatunkat.” (APA 2024: 1). A kulcstényező tehát az AI etikus használatában a történelmi tények hiteles megőrzése és prezentálása a nézők számára. Persze az is kérdéses, hogy mit tekintünk történelmi ténynek, hiszen a múlt eseményeinek megítélése gyakran szubjektív értelmezéseken, töredékes forrásokon és utólagos narratívákon alapul, így a hitelesség maga sem mindig egyértelműen meghatározható. Ez természetesen nem új keletű dilemma, a történelmi események eltérő értelmezéseinek kérdése évszázadok óta létezik (jóval a deepfake technológia megjelenése előtt is). Azonban az e technológia által felvetett új problémák sem szüntették meg a korábbiakat – sőt, sok esetben csak még élesebbé és sürgetőbbé tették azokat, ahogyan ezt a fentebb említett APA kiáltványa is megfogalmazta.

Etikus deepfake-használat a Gerry Anderson: Life Uncharted című filmben

A mesterséges intelligencia és a dokumentumfilm találkozási lehetőségének témaköréből kihagyhatatlan az első komplexebb deepfake technológiát használó egész estés alkotás, a Gerry Anderson: Life Uncharted című dokumentumfilm, melyben a címszereplő karakterét vizuálisan és hangban is újraalkották az AI segítségével. A Nagy-Britanniában népszerű, de Magyarországon kevéssé ismert brit televíziós legenda több mint huszonöt órányi magnókazettára rögzített oral history-ját nem csak egyszerűen felhasználták a róla szóló alkotásban, hanem testi mivoltában is életre keltették a deepfake technológia segítségével, hiszen a film készítésekor Anderson már tíz éve meghalt. Gerry Anderson a hatvanas évek sikerrendezője volt Angliában, olyan sorozatok fűződnek a nevéhez, mint a nálunk nem sugárzott Thunderbirds (1967-68) vagy a Captain Scarlet (1965-66) (Anderson Entertainment 2025). A róla készült film az első dokumentumfilmes deepafake-próbálkozások egyike, és Gerry Anderson fia, Jamie Anderson nem csak a film narrátora, de egyben a projekt ötletgazdája is volt, ő kérte fel a film rendezőjét, Benjamin Fieldet. ,,A deepfake-re úgy tekintek, mint egy eszközre az igazság elmondására, vagy legalábbis a hozzáférhetővé tételére” – fogalmazta meg véleményét Benjamin Field a filmmel kapcsolatos interjúban. Field koncepciója kezdettől az volt, hogy vizuálisan is életre keltse Andersont a több mint huszonöt órányi magnószalagra rögzített oral history alapján. Motivációnak a híres (vagy inkább hírhedt) Tom Cruise-deepfake videót említi, ami 2021-ben söpört végig a TikTok videómegosztó oldalon. Úgy gondolta, az ebben látott módszer a járható út az archív hangból a látvány szintjén is visszahozni Anderson alakját (Knoll: 2022). Ehhez Field egy színészt, Roly Hyde-ot választotta ki Gerry Anderson testdublőrének. Fontos volt, hogy a színész fejének mérete és formája minél inkább hasonlítson Gerry Andersonéra, ami viszont két jelentős problémát is okozott: Anderson kopasz volt, ellentétben Hyde-al, valamint a fejformáik sem voltak tökéletesen egyezőek. Éppen ezért a stáb úgy döntött, hagyományos sminkes és haj-eltüntető maszkolási technikákat alkalmaznak a színészen a kettejük közti különbözőség csökkentése érdekében. A kétnapos forgatáson belső helyszínen, egy kanapén vették fel Hyde-ot, amint a kétórányi anyagot elmondja az eredeti Gerry Anderson-oral historyból, amit az utómunkában szóról-szóra, a már újrateremtett Anderson szájára tudnak illeszteni, persze a hitelességre törekedve (Sheperd 2022).

Christian Darkin, a film technikai rendezője kapta feladatul Gerry Anderson vizualizálását. A cél érdekében Darkin egy nyílt forráskódú deepfake algoritmussal, a DeepFaceLAb nevű programmal dolgozott, amely program betanítható valós emberek arcának fehasználásával új, digitális arcot kreálni: ,,Lényegében az eredeti személyről felvett korábbi, archív mozgóképeket kell betanítani a programnak az őt helyettesítő színész arckifejezésével együtt, és így a két személy képmásait és arcmozgásait összekeverve új arcot alkot” – magyarázta el Darkin a folyamtatot egy a filmhez kapcsolódó tanulmányban (Lees 2023: 118). Ez a folyamat képes volt ugyan új arcot létrehozni Andersonnak, amelyet az őt alakító színész arcára helyeztek, de a végeredmény korántsem volt hibátlannak mondható, hiszen jól látható felbontásbeli problémák jelentkeztek a teremtményen.

3. ábra helye, cím: A DeepFaceLab tréning során a színész (Roli Hyde) transzformálása Gerry

Anderson karakterére

A deepfake előállításához szükséges számítógépes eszközök akár csak a memória szintjén is igen magas teljesítményigényűek, emiatt pedig a létrehozott arckép felbontása az általános HD képernyő szabványméretéhez képest (1092 pixel) nagyon alacsony lett, mindössze 320 pixeles felbontásban voltak képesek azt előállítani (Lees 2023:118). Így a filmbéli, újrakreált Gerry Anderson feje csak egészen kis méretben lehetett elfogadható HD-minőségű. Mivel ezt a fajta technikai nehézséget a felhasznált eszközökkel nem tudták kiküszöbölni, a rendező, Benjamin Field mondhatni koncepcionális szinten dolgozott ki egy megoldást. A filmben az álinterjút adó Gerry Anderson deepfake-alakja az 1960-as évek régi televízióin látható, egy kisebb keretben. Ez nem csupán kreatív, a hibát természetesnek láttató megoldás, de közelebb hozza a néző számára a kort, amelyben Anderson nagyrészt alkotott.

Persze e film esetében a valóság és az újralkotott címszereplő között a hangsáv a fő kapocs, hiszen Anderson oral history-ja hangzik el akkor is, ha a színész, Hyde adja elő a szöveget, az eredeti archív hanggal is keverve. Egy, a filmről szóló podcast interjúban Field külön kiemeli, hogy nem kreáltak olyan szavakat, amiket Anderson sohasem mondott, hiszen onnantól átlépték volna a dokumentumfilm határait és munkájuk fikcióvá válik (FAB Facts 2022). Anderson története pedig végső soron két ember “tanúságtétele”, magáé Andersoné, illetve az ő rögzített hangjának testet kölcsönző Roley Hyde-é, akinek a szerepe messze nem semleges: Hyde a fizikai megtestesítésen túl hangjával és gesztikulációjával színészi szempontból is abszolút értékelhető, minőségi alakítást nyújtva járul hozzá nem csak Anderson elhangzó szövegének élményszerű közvetítéséhez, de személyiségének érzékletes megjelenítéséhez is. A módszer a deepfake felhasználását leszámítva a rendező, Field számára klasszikus színészvezetési gyakorlat is, ami pedig jóval megelőzi a mesterséges intelligencia megjelenését. A rendező szerint Gerry Anderson karakterének visszahozatala nem ütközik etikai akadályokba, hiszen a film elején feliratban jelzik a deepfake alkalmazását, így használatát tekintve nincs szó megtévesztésről. „Ugyanolyan őszinte akartam lenni a közönségemhez, mint Jamie-hez (Anderson fia) és a teljes családjához. Ha ők el tudták fogadni, akkor a közönség is el tudja. Őszinteséget hozok a hamisságba.” (Knoll: 2022).

A film készítése során Jamie Anderson narrátori és társproduceri szerepe egyaránt biztosította apja halála utáni jogainak és magánéleti örökségének ellenőrzését. Persze azt, hogy vajon mit szólna digitális feltámasztásához maga Gerry Anderson, sohasem tudhatjuk meg. Válasz híján annyi biztos, hogy a Gerry Andersont alakító Roley Hyde példája reprezentálja a technológia egyik kulcsfontosságú korlátját is: a deepfake-folyamat hitelessége azon áll, milyen kvalitásokkal rendelkezik az adott színész, aki elsőként olvassa fel a módosítandó szöveget. A mesterséges intelligencia ugyan képes volt közvetíteni Anderson hangjának érzelmi változásait, de csak az őt alakító színész teljesítményére való építkezéssel, tehát a szintetikus karakter érzelmi minősége a valós színész képességein múlt, s az alakítást a rendezőnek volt lehetősége támogatni vagy visszafogni… Vagyis végső soron a vizsgált esetben is emberi alkotás született, a technológia kreatív alkalmazásával.

Konklúzió

Az AI és a deepfake tehát olyan eszköz, amely egyaránt lehet áldás és átok is, az pedig, hogy melyikké válik, a felhasználótól függ. A technológia kapcsán a világunkat jelenleg átjáró félelem és bizonytalanság valós és jogos, de van remény abban bízni, hogy a kor, amelyben nem tudjuk majd megkülönböztetni a valóságunkat a hamis képektől, csak morális képzelgés marad. Az emberi történelem során a technológiákkal kapcsolatos innovatív akciókat minden esetben követte valamiféle civilizációs válaszlépés – lásd géprombolók –, de még a kivételesen veszélyes nukleáris energia felfedezése sem vezetett automatikusan az emberiség végéhez, egyelőre.

A mesterséges intelligenciát tekintve jelen korunkban is hasonló folyamatok zajlanak. Az Európai Unió törvénykezésében születnek hivatalos lépések a szabályozásra, miközben Hollywood filmesei alulról szerveződve reagálnak az új technológiai fordulatra. Az Egyesült Királyságban a színészek szakszervezete, az Equity kampányt indított „Stop AI Stealing the Show” (Akadályozzuk meg, hogy az AI ellopja a show-t) címmel. A kampányhoz tartozó közvéleménykutatásából statisztikai alapon kiderült, hogy a mesterséges intelligenciával dolgozó színészek 79%-a nincs tisztában a saját jogaival, amikor deepfake technológiát alkalmazó produkciókban vesz részt (Equity 2025). A deepfake-használat és a színészek jogainak tisztázatlan helyzete miatt a játék- és dokumentumfilm-készítőknek is a személyes morális belátásukra kell támaszkodniuk, ami iránytű lehet a filmkészítéskor. A kortárs dokumentumfilmeket tekintve az Olympics Has Fallen és a Gerry Anderson: Life Uncharted szinte tökéletes ellenpéldái egymásnak. Alkotói megközelítéseiket tekintve a deepfake-használat vonatkozásában a két produkció tűz és víz. Míg a Storm 1679 destruál, személyiséget lop és megfélemlít, addig Benjamin Field megkísérel újrateremteni egy személyiséget, arcot és hangot adni valakinek, aki már nincs velünk. A Gerry Anderson-film elkészülte óta a mesterséges intelligencia kreatív eszközei technikai aspektusból magát a filmkészítést is világszinten folyamatosan egyre hozzáférhetőbbé teszik, lehetőséget adva a gyorsabb és hatékonyabb alkotói munkára. A dokumentumfilm lényegi elemei ezzel együtt megőrizhetők. Persze éppen a bővülő lehetőségek következtében gerjeszt vitákat az AI dokumentumfilmre gyakorolt hatása az alkotók és kutatók, valamint a nézők között, az aggodalmak feloldása pedig csakis megnyugtató gyakorlati példák révén lehetséges. Annyi bizonyos, hogy egyelőre általános közmegegyezés, vagy éppen önszabályozási irányelvek hiányában, releváns jogi keret nélkül, jelenleg a kortárs filmkészítők egyéni érzékenysége határozza meg a technológia felelős használatának módját. Példa pedig egyaránt van romboló szándékra és konstruktív alkotói gesztusokra is.

Szakirodalom

Ajder, Henry – Glick, Joshua 2021. Just Joking: Deepfakes, Satire and the Politics of Synthetic Media, MIT Open Documentary Lab, Cambridge. Elérhető: https://cocreationstudio.mit.edu/wp-content/uploads/2021/12/JustJoking.pdf (saját fordítás)

Anderson, Jamie – James, Richard 2022. FAB Facts: How Deep-Fake Was Used in Gerry Anderson: A Life Uncharted, Gerry Anderson Podcast, London. Elérhető: https://www.youtube.com/watch?v=0V3zoihVWuQ

Arató Balázs – Balázs Géza 2023. Hol a tudás, amit elvesztettünk az információban? A digitális pedagógia diszkurzív-intuitív megközelítése antropológiai és jogi nézőpontból. Magyar Nyelvőr 147. 2023: 755–776. DOI: 10.38143/Nyr.2023.5.755

Arató, Balázs – Géza Balázs 2024. The communicative-linguistic modes of artificial intelligence with a focus on justice. Magyar Nyelvőr 148. 2024: 601–617. DOI: 10.38143/Nyr.2024.5.601

Arató, Balázs – Géza Balázs 2025. Artificial Intelligence: Transhuman Language, Ethics and Justice. Magyar Nyelvőr 149. 2025: 604–619. DOI: 10.38143/Nyr.2025.5.604

Balázs Géza 2023. Az internet népe. Internet – társadalom – kultúra – nyelv. Ludovika Egyetemi Kiadó, Budapest.

Ellingworth, James 2024. The 15 Russian ‘neutrals’ at Paris Olympics politically isolated and rarely in spotlight, CBC, Toronto. Elérhető: https://www.cbc.ca/sports/olympics/summer/russia-neutral-athletes-paris-olympics-politically-isolated-1.7285097

Equity 2024. Stop AI Stealing the Show, London. Elérhető: https://www.equity.org.uk/campaigns-policy/stop-ai-stealing-the-show

EUR-LEX 2024. REGULATION (EU) 2024/1689 OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL of 13 June 2024, Official Journal of the European Union – Document 32024R1689, Brüsszel. Elérhető: https://eur-lex.europa.eu/eli/reg/2024/1689/oj

European Commission 2024. AI Act – Shaping Europe’s digital future, Sajtó közlemény, Brüsszel. Elérhető: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai

European Parliament 2000. CHARTER OF FUNDAMENTAL RIGHTS OF THE EUROPEAN UNION (2000/C 364/01), Official Journal of the European Union, Brüsszel. Elérhető: https://www.europarl.europa.eu/charter/pdf/text_en.pdf

Galuppo, Mia 2023. Doc Producers Call for Generative AI Guardrails in Open Letter, The Hollywood Reporter. Elérhető: https://www.hollywoodreporter.com/news/general-news/doc-producers-call-for-generative-a-i-guardrails-in-open-letter-exclusive-1235649102/

International Olympics Committee 2024. Individual Neutral Athletes at the Olympic Games Paris 2024, Sajtó közlemény, Párizs. Elérhető: https://www.olympics.com/ioc/paris-2024-individual-neutral-athletes

Jamie, Mary Anderson 2022. Gerry Anderson – His Life and Legacy, Anderson Entertainment. Elérhető: https://gerryanderson.com/en-hu/pages/gerry-anderson-his-life-and-legacy

Jenkins, Stephanie 2024. Best Practices for Use of Generative AI in Documentaries, Archival Producers Alliance (APA), Los Angeles. Elérhető: https://drive.google.com/file/d/1WS4iZ2Wi_wft5x54RG-hYb45sf10W8nV/view (saját fordítás)

Knoll, Jack 2022. Gerry Anderson: A Life Uncharted REVIEW, Security Hazard – Gerry Anderson Blog. Elérhető: https://securityhazard.net/2022/04/04/gerry-anderson-a-life-uncharted-review/ (saját fordítás)

Lees, Dominic 2023. Deepfakes in documentary film production: images of deception in the representation of the real, Studies in Documentary Film, Taylor and Francis. Elérhető: https://www.tandfonline.com/doi/epdf/10.1080/17503280.2023.2284680?needAccess=true (saját fordítás)

Microsoft Threat Analysis Center 2024. Russian influence efforts converge on 2024 Paris Olympic Games, Microsoft, New York. Elérhető: https://cdn-dynmedia-1.microsoft.com/is/content/microsoftcorp/microsoft/final/en-us/microsoft-brand/documents/MTAC_Report_Russian_Influence_and_Paris_2024.pdf

Milmo, Dan 2024. Russia targets Paris Olympics with deepfake Tom Cruise video, Guardian, London. Elérhető: https://www.theguardian.com/technology/article/2024/jun/03/russia-paris-olympics-deepfake-tom-cruise-video

Racklin, Bella 2025. Spotlight on Archival Producers Alliance – The unsung heroes of historical docs get vocal about the craft, Doc Voices. Elérhető: https://purenonfiction.substack.com/p/spotlight-on-archival-producers-alliance

Romero Moreno, Felipe 2024. Generative AI and deepfakes: a human rights approach to tackling harmful content, INTERNATIONAL REVIEW OF LAW, COMPUTERS & TECHNOLOGY 2024, VOL. 38, NO. 3, 297–326, Hertfordshire Schools of Law and Education, University of Hertfordshire, Hatfield, UK. Elérhető: https://doi.org/10.1080/13600869.2024.2324540 (saját fordítás)

Sheperd, Robert 2022. A Real Fake Story, Definition – The Future of Video Production Today. Elérhető: https://definitionmagazine.com/features/a-real-fake-story/

Watts, Clint 2024. How Russia is trying to disrupt the 2024 Paris Olympic Games, Microsoft, New York. Elérhető: https://blogs.microsoft.com/on-the-issues/2024/06/02/russia-cyber-bots-disinformation-2024-paris-olympics/ (saját fordítás)

Yakimova, Yasmina – Ojamo, Janne 2024. Artificial Intelligence Act: MEPs adopt landmark law, Sajtó közlemény, Brüsszel. Elérhető: https://www.europarl.europa.eu/news/en/press-room/20240308IPR19015/artificial-intelligence-act-meps-adopt-landmark-law

Megjegyzés: A képek megtekinthetők itt: https://bom.hu/wp-content/uploads/2025/07/Europa-elrablasa-online.pdf

Képek

1. ábra: Az Olympics Has Fallen című áldokumentumfilm online posztere. Forrás: Dan Milmo (2024). Russia targets Paris Olympics with deepfake Tom Cruise video, Guardian, London Elérhető: https://www.theguardian.com/technology/article/2024/jun/03/russia-paris-olympics-deepfake-tom-cruise-video

2. ábra: Az AI törvény piramisa, amely négy egymásra épülő kockázati szintet határoz meg a mesterséges intelligencia rendszerek számára. Forrás: European Commission (2024). AI ActShaping Europe’s digital future, Sajtó közlemény, Brüsszel Elérhető: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai

3. ábra: A DeepFaceLab tréning során a színész (Roli Hyde) transzformálása Gerry Anderson karakterére. Forrás: Martin Anderson (2022). The Future of Autoencoder-Based Deepfakes, Metaphysic.ai Elérhető: https://blog.metaphysic.ai/future-autoencoder-deepfakes/ (A kép Christian Darkin, a Gerry Anderson: Life Uncharted című film technikai rendezőjének a tulajdona)

Nincs hozzászólás!

Your Email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.

x