Deepfake videos as a challenge for media ethics and social responsibility
Abstrakt: Cieľom článku je analyzovať etické dilemy spojované s deepfake technológiami a identifikovať jej spoločenské následky. Na základe analýzy sekundárnych zdrojov a prípadových štúdií sa text zameriava na riziká, ktoré táto technológia prináša pre médiá, verejnosť a samotných jednotlivcov. Diskusia vyslovuje potrebu rozvoja mediálnej gramotnosti, spoločenskej zodpovednosti médií a využitia rôznych technologických riešení, ktoré by toto šírenie manipulatívneho obsahu obmedzili. Záver zdôrazňuje nutnosť spolupráce medzi médiami, technologickým sektorom, legislatívou a akademickou sférou s cieľom vytvoriť účinný rámec ochrany spoločnosti pred negatívnymi dôsledkami deepfake videí.
Kľúčové slová: Deepfake, etika médií, manipulácia, dezinformácia, umelá inteligencia.
Abstract: The aim of this article is to analyze the ethical dilemmas associated with deepfake technologies and identify their social consequences. Based on an analysis of secondary sources and case studies, the text focuses on the risks that this technology poses to the media, the public, and individuals themselves. The discussion expresses the need to develop media literacy, social responsibility of the media, and the use of various technological solutions that would limit the spread of manipulative content. The conclusion emphasizes the need for cooperation between the media, the technology sector, legislators, and academia to create an effective framework for protecting society from the negative consequences of deepfake videos.
Key words: Deepfake, media ethics, manipulation, disinformation, artificial intelligence.
Úvod
Deepfake technológie sú založené na umelej inteligencii a generatívnych neurónových sieťach, ktoré nám prinášajú nové možnosti pre audiovizuálnu tvorbu vo filme, vzdelaní alebo umeleckej produkcii, no zároveň predstavujú hrozbu pre etiku a samotnú spoločnosť. Tieto videá sa čoraz viac zneužívajú na šírenie rôznych dezinformácií, čo vedie k zníženiu dôvery verejnosti v médiá. Empirické zistenia potvrdzujú, že väčšina deepfake obsahu je pornografického charakteru a vzniká bez súhlasu dotknutých osôb. Takéto zneužitie ma za následok nielen porušovanie ľudskej dôstojnosti a práva na súkromie, ale aj šírenie kyberšikany a online vydierania. Závažné sú aj politické a bezpečnostné dôsledky deepfake videí, ktoré môžu ohroziť demokratické procesy a oslabiť dôveru verejnosti v médiá.
Rozvoj digitálnych technológií a umelej inteligencie v poslednom desaťročí zásadným spôsobom ovplyvnil spôsoby, akými spoločnosť prijíma, vytvára a interpretuje informácie. Umelá inteligencia prenikla do priemyslu, zdravotníctva, vzdelávania, ale aj do médií a zábavného priemyslu. Jedným z jej najvýraznejších produktov je fenomén deepfake videí, ktoré využívajú metódy strojového učenia a generatívnych neurónových sietí (najmä GANs – Generative Adversarial Networks) na vytváranie vizuálne presvedčivého, no v skutočnosti neautentického obsahu.
Deepfake videá predstavujú nový stupeň mediálnej manipulácie, pretože dokážu narušiť hranicu medzi realitou a fikciou. Ich potenciál sa prejavuje nielen vo filmovej a umeleckej tvorbe, ale aj v medicíne či vzdelávaní. Negatívne dôsledky však jednoznačne prevažujú.
Podľa správy Deeptrace (Ajder et al., 2019) až 96 % všetkých skúmaných deepfake videí malo pornografický charakter, pričom väčšina z nich bola vytvorená bez súhlasu zobrazených osôb. Tento fakt upozorňuje na vážne porušovanie práv jednotlivcov a šírenie digitálneho násilia, ktoré sa stalo hlavným priestorom zneužívania deepfake technológie. Okrem toho sa objavujú aj prípady politickej manipulácie a šírenia dezinformácií, ktoré môžu ohroziť stabilitu demokratických inštitúcií a oslabiť dôveru verejnosti v médiá.
Hoci väčšina diskusií o deepfake technológiách sa sústreďuje na jej negatívne aspekty, existujú aj oblasti, kde má táto technológia potenciál priniesť spoločenský prínos. Vo filmovom a mediálnom priemysle deepfake umožňuje tvorcom efektívne a finančne menej náročné vizuálne efekty, ako aj rekonštrukciu historických udalostí či zosnulých postáv (Kietzmann et al., 2020). V oblasti vzdelávania môže byť táto technológia využitá na tvorbu personalizovaných výukových videí alebo na realistické jazykové preklady, ktoré uľahčujú globálnu komunikáciu. V medicíne sa deepfake experimentálne využíva na simulácie chirurgických zákrokov, tréning zdravotníckeho personálu či na terapeutické účely v oblasti duševného zdravia (Gómez et al., 2022).
Cieľom tohto článku je analyzovať etické a spoločenské aspekty deepfake videí, prezentovať ich pozitívne aj negatívne využitie a identifikovať riziká, ktoré predstavujú pre mediálne prostredie a spoločnosť. Text sa zároveň usiluje načrtnúť možné riešenia v oblasti mediálnej gramotnosti, spoločenskej zodpovednosti médií a technologických opatrení, ktoré by mohli prispieť k prevencii šírenia manipulatívneho obsahu.
Teória
Vzhľadom na schopnosť vytvárať mimoriadne realistické, avšak falošné obrazové a zvukové stopy predstavujú deepfake videá významný problém pre mediálnu etiku a spoločenskú zodpovednosť, pretože môžu byť zneužité na manipuláciu verejnej mienky a šírenie nepravdivých informácií (Husovec, 2023; Msg-life, 2025). Etické problémy vznikajú najmä pri nedostatočnej transparentnosti, absencii súhlasu osôb zobrazených v deepfake videách a možnom zneužití na politické alebo sociálne manipulácie (Koudelka, 2024; Aleksiev, 2023).
Spoločenská zodpovednosť sa v tejto oblasti prejavuje potrebou legislatívnej regulácie na ochranu digitálnej identity a predchádzanie škodlivému využívaniu týchto technológií. Vplyv deepfake videí na dôveru v médiá a demokratické inštitúcie je zásadný, pretože vedie k polarizácii spoločnosti a ohrozeniu verejného diskurzu (Husovec, 2023; Koudelka, 2024). Preto je dôležité podporovať verejné vzdelávanie v rozpoznávaní deepfake obsahu a rozvíjať nástroje na jeho overovanie (Aleksiev, 2023; NBÚ, 2023).
Heidari (2024a) vo svojej štúdií uvádza, že deepfake je obsah generovaný hlbokým učením, ktorý v očiach človeka pôsobí autenticky. Je teda kombináciou pojmov deep learning (hlboké učenie) a fake (falošný) a označuje obsah generovaný hlbokou neurónovou sieťou, ktorá je podmnožinou strojového učenia. Každý môže upravovať video a obrazové súbory. To je možné už niekoľko rokov vďaka rôznym užívateľsky prívetivým softvérovým balíkom, ktoré umožňujú úpravu videa, zvuku a obrazu. Manipulácia s médiami sa stala jednoduchšou vďaka širokému používaniu aplikácií pre smartfóny, ktoré vykonávajú automatizované operácie, ako je synchronizácia pohybov pier, audio nástroje a výmena tvárí.
Vo svojej ďalšej štúdií Heidari (2024b) uvádza, že systémy deepfake teda môžu vytvárať falošné obrázky predovšetkým nahradením scén alebo obrázkov, filmov a zvukov, ktoré ľudia nedokážu odlíšiť od skutočných. Rôzne technológie nám priniesli možnosť meniť syntetický hlas, obrázok alebo video. Navyše, podvody s videami a obrázkami sú dnes tak presvedčivé, že je ťažké rozlíšiť falošný a autentický obsah voľným okom. Môže to viesť k rôznym problémom, od zavádzania verejnej mienky až po používanie sfalšovaných dôkazov na súde. Z týchto dôvodov je dôležité mať technológie, ktoré nám pomáhajú rozlišovať realitu.
Hu (2023) vo svojej štúdií tvrdí, že vývoj technológií, ktoré dokážu generovať Deepfake videá, sa rýchlo rozširuje. Tieto videá sa dajú ľahko syntetizovať bez zanechania zjavných stôp manipulácie. Hoci forenzná detekcia v dátových súboroch s vysokým rozlíšením dosiahla pozoruhodné výsledky, forenzná analýza komprimovaných videí si zaslúži ďalšie preskúmanie. Komprimované videá sú totiž bežné v sociálnych sieťach, napríklad videá z Instagramu, Wechatu a Tiktoku. Preto sa základnou otázkou stáva, ako identifikovať komprimované Deepfake videá.
Pennycook (2019) vo svojej štúdií skúma ako obmedzenie šírenia dezinformácií, najmä na sociálnych médiách, sú veľkou výzvou. Skúma jeden možný prístup: algoritmy sociálnych médií by mali uprednostňovať zobrazovanie obsahu zo zdrojov správ, ktoré používatelia hodnotia ako dôveryhodné. Na tento účel sa pýta, či crowdsourcingové hodnotenia dôveryhodnosti dokážu efektívne rozlíšiť spoľahlivejšie a menej spoľahlivé zdroje. Uskutočnil dva vopred zaregistrované experimenty (n = 1 010 z Mechanical Turk a n = 970 z Lucid), v ktorých jednotlivci hodnotili známosť a dôveryhodnosť 60 spravodajských zdrojov z troch kategórií: (1) hlavné médiá, (2) hyperpartizánske webové stránky a (3) webové stránky, ktoré produkujú zjavne falošný obsah („falošné správy“). Napriek podstatným straníckym rozdielom zistili, že laici naprieč politickým spektrom hodnotili mainstreamové zdroje ako oveľa dôveryhodnejšie než hyperpartizánske alebo zdroje falošných správ. Hoci tento rozdiel bol väčší u demokratov než u republikánov – hlavne kvôli nedôvere republikánov voči mainstreamovým zdrojom – každý mainstreamový zdroj (s jednou výnimkou) bol v oboch štúdiách hodnotený ako dôveryhodnejší než každý hyperpartizánsky alebo zdroj falošných správ, keď sa rovnako zohľadnili hodnotenia demokratov a republikánov. Okrem toho boli politicky vyvážené hodnotenia laikov silne korelované (r = 0,90) s hodnoteniami poskytnutými profesionálnymi overovateľmi faktov. Výskum demonštruje, že najmä medzi liberálmi jednotlivci s vyššou mierou kognitívnej reflexie dokázali spoľahlivejšie rozlišovať medzi kvalitnými a nekvalitnými informačnými zdrojmi. Vyplynulo tiež, že vyradenie hodnotení od účastníkov, ktorí daný zdroj správ nepoznali, výrazne oslabilo presnosť kolektívneho hodnotenia. Tieto poznatky naznačujú, že algoritmy uprednostňujúce obsah z dôveryhodných médií môžu byť účinným nástrojom v boji proti šíreniu dezinformácií na sociálnych sieťach.
AlNajjar (2024) sa zaoberá tým, ako získanie solídnych kompetencií v oblasti mediálnej etiky predstavuje jeden z kľúčových výstupov mediálneho vzdelávania. V svete poznačenom globalizáciou a medzikultúrnymi mediálnymi vzťahmi vyvoláva fakt, že študenti disponujú etickými kompetenciami relevantnými pre ich kariéru, kritické otázky týkajúce sa kvality etických štandardov. Tvrdí, že hoci diskusie o mediálnej etike viedli k vzniku mnohých pohľadov na rozsah a podstatu etických kompetencií v 21. storočí, multikulturalizmus sľubuje prípravu etických komunikátorov. Štúdia vychádza z prieskumu 32 študentov mediálnych štúdií na Americkej univerzite v Sharjahu, aby demonštrovala, ako multikultúrne vzdelávanie založené na širšom sociálnom kontexte s výraznou kultúrnou diverzitou podporuje hybridné pohľady na mediálnu etiku. Väčšina respondentov uviedla, že syntetické etické pohľady kombinujúce lokálne a globálne pohľady na mediálnu etiku by im poskytli vhodné kompetencie na efektívne riešenie lokálnych aj medzinárodných otázok a udalostí s využitím solídnych etických štandardov.
Negatívne využitie tejto technológie však výrazne zatienilo jej pozitívny potenciál. Už v roku 2019 výskum spoločnosti Deeptrace vyhodnotil, že až 96 % vtedy dostupných deepfake videí predstavoval pornografický obsah, pričom väčšina z nich bola vytvorená bez vedomia a súhlasu zobrazených osôb (Ajder et al., 2019). Tento fakt upozorňuje na to, že primárnou oblasťou zneužitia deepfake technológie nie je politická manipulácia, ale skôr sexualizované násilie páchané prostredníctvom digitálnych médií. Pornografické deepfake videá nielenže poškodzujú dôstojnosť a súkromie jednotlivcov, ale často sa využívajú aj na vydieranie a kyberšikanu. Tento trend zreteľne ilustruje, že najväčšie obete deepfake technológií sú bežní ľudia, najmä ženy, ktorých obraz je zneužívaný bez ich súhlasu.
Východiská skúmania
Etika médií je postavená na základných princípoch, akými sú pravdivosť, presnosť, nestrannosť a zodpovednosť voči verejnosti (McQuail, 2010).
V prostredí, kde sa objavujú nové formy manipulatívneho obsahu, je práve zachovanie týchto hodnôt kľúčové pre udržanie dôveryhodnosti médií. Deepfake technológie však tieto princípy zásadným spôsobom spochybňujú, pretože umožňujú vytvárať audiovizuálne materiály, ktoré môžu pôsobiť autenticky, no v skutočnosti sú falošné. To vedie k situácii, v ktorej sa klasické chápanie vizuálneho dôkazu stáva problematickým a verejnosť si začína klásť otázku, či je možné veriť akémukoľvek mediálnemu obsahu (Chesney, Citron, 2019).
Z hľadiska spoločnosti predstavujú deepfake videá hrozbu pre demokratické procesy a verejný diskurz. Politická manipulácia prostredníctvom sfalšovaných prejavov a vyjadrení politikov môže ovplyvniť volebné správanie a zničiť stabilitu demokratických inštitúcií (Vaccari, Chadwick, 2020). Podobne aj šírenie falošného obsahu v krízových situáciách (vojny, pandémie) môže výrazne narušiť schopnosť občanov orientovať sa v informáciách a prijať racionálne rozhodnutia.
Významným východiskom je aj otázka legislatívnej a regulačnej ochrany. Európska únia prijala v roku 2024 Akt o umelej inteligencii (AI Act), ktorý je prvým komplexným právnym rámcom pre reguláciu AI technológií vrátane deepfake obsahu. Tento dokument zavádza povinnosť označovať syntetické médiá a podporuje rozvoj nástrojov na ich detekciu (European Parliament, 2024). V slovenskom kontexte sa problematika zatiaľ rieši skôr v rovine mediálnej gramotnosti a iniciatív nezávislých fact-checkingových organizácií, pričom právny rámec zostáva fragmentárny.
Východiská pre skúmanie fenoménu deepfake videí teda spočívajú v troch pilieroch: (1) etické princípy médií, (2) spoločenské riziká, ktoré ovplyvňujú dôveru a fungovanie demokracie, a (3) legislatívne snahy na európskej a národnej úrovni, ktoré predstavujú prvý krok k ochrane spoločnosti pred týmito technológiami.
Metodológia
Výskum je spracovaný ako teoreticko-analytická štúdia, ktorého cieľom je identifikovať etické a spoločenské dôsledky deepfake technológií v mediálnom prostredí. Metodologicky vychádza z analýzy sekundárnych zdrojov, predovšetkým vedeckých článkov publikovaných v databázach Web of Science a Scopus, ako aj odborných správ nezávislých inštitúcií (napr. Data & Society Research Institute, Deeptrace Report).
Použitá metóda literárnej analýzy umožnila syntetizovať poznatky z viacerých disciplín – mediálnych štúdií, etiky, práva a informačných technológií – a vytvoriť tak interdisciplinárny pohľad na skúmanú problematiku. Osobitná pozornosť bola venovaná štúdiám, ktoré sa zaoberajú dopadom deepfake videí na dôveru verejnosti v médiá (Vaccari, Chadwick, 2020), na demokratické procesy (Chesney, Citron, 2019), ako aj na šírenie dezinformácií v online prostredí (Pennycook, 2019).
Sekundárna analýza bola doplnená príkladmi z praxe, najmä prípadmi politických deepfake videí, ktoré sa objavili v USA a v Indii, a údajmi z Deeptrace Report (Ajder et al., 2019), ktoré dokumentujú prevahu pornografického obsahu medzi deepfake materiálmi. Tento prístup umožnil prepojiť akademické poznatky s praktickými implikáciami a pripraviť pôdu pre diskusiu o možnostiach prevencie a regulácie.
Diskusia
Deepfake technológie predstavujú zásadné výzvy pre médiá, spoločnosť a jednotlivcov. Hoci ich potenciál v oblasti vzdelávania, umenia či medicíny nemožno spochybniť, negatívne dôsledky ich zneužívania dnes výrazne prevládajú. Diskusia o deepfake preto musí byť vedená nielen na úrovni technologických možností, ale aj z hľadiska etických a spoločenských dôsledkov.
Jednou z kľúčových otázok je zachovanie dôvery v médiá. Tradične sa vizuálny záznam považoval za spoľahlivý dôkaz reality. Deepfake však túto istotu narúša, čo vedie k tzv. „kríze dôvery“. Ak si človek nebude istý, či záznam zodpovedá realite, môže dôjsť k strate dôvery nielen voči médiám, ale aj k oslabeniu samotného verejného diskurzu.
Ďalším problémom je politická manipulácia. Príklady sfalšovaných prejavov politikov ilustrujú, že deepfake môže zásadným spôsobom ovplyvniť demokratické procesy. Takýto obsah môže byť použitý na polarizáciu spoločnosti, šírenie nenávisti alebo ovplyvňovanie volieb. Podobne nebezpečné je aj využitie deepfake počas kríz, napríklad pri vojenských konfliktoch alebo pandémiách, kedy je verejnosť obzvlášť citlivá na dezinformácie.
Osobitnú pozornosť si vyžaduje etická zodpovednosť médií. Novinári a mediálne inštitúcie čelia výzve, ako odlišovať autentický obsah od manipulatívneho. Fakt-checkingové organizácie a novinári zohrávajú v tomto procese kľúčovú úlohu, no aj oni majú svoje limity. Zodpovednosť preto nesú aj technologické platformy, ktoré šíria obsah, pričom práve ony by mali investovať do nástrojov detekcie a označovania syntetických médií.
Významným preventívnym nástrojom je mediálna gramotnosť. Ako uvádza Pennycook (2019), schopnosť verejnosti rozlišovať medzi dôveryhodnými a nedôveryhodnými zdrojmi môže výrazne prispieť k obmedzeniu šírenia dezinformácií. Vzdelávacie inštitúcie, neziskové organizácie a štát by mali podporovať programy, ktoré vedú občanov k rozvoju kritického myslenia a schopnosti overovať informácie.
Technologické riešenia ponúkajú ďalšiu časť odpovede. Vývoj algoritmov na detekciu deepfake obsahu, ako aj zavádzanie digitálnych vodoznakov a označovania syntetických médií, predstavujú dôležité kroky k prevencii. Európsky AI Act (2024) už zavádza povinnosť transparentného označovania deepfake materiálov, čo môže prispieť k väčšej informovanosti používateľov. Súčasne rastie potreba interdisciplinárneho výskumu, ktorý by prepojil technologické inovácie s právnymi a etickými rámcami. Výzvou zostáva aj fakt, že s rastúcou sofistikovanosťou deepfake môže byť čoraz ťažšie rozlíšiť falošný a autentický obsah, dokonca aj pre pokročilé forenzné nástroje (Mirsky, Lee, 2021).
Diskusia preto demonštruje, že efektívna reakcia na fenomén deepfake musí byť interdisciplinárna. Nestačí sa spoliehať len na technické riešenia, ale je potrebné prepájať technologický sektor, médiá, legislatívu aj akademickú sféru. Tak možno dosiahnuť rovnováhu medzi slobodou tvorby a ochranou spoločnosti pred manipulatívnym obsahom.
Záver
Fenomén deepfake videí predstavuje jednu z najväčších etických a spoločenských výziev súčasného mediálneho prostredia. Na jednej strane ide o technológiu, ktorá otvára nové možnosti v oblasti filmu, vzdelávania či umenia, na druhej strane však prináša zásadné riziká pre dôveryhodnosť médií, stabilitu demokratických procesov a bezpečnosť jednotlivcov. Analýza nám ukázala, že hlavným problémom nie je samotná existencia deepfake technológie, ale jej zneužívanie na šírenie dezinformácií, kyberšikanu či politickú manipuláciu.
Médiá dnes stoja pred výzvou, ako si udržať dôveru verejnosti v prostredí, kde je možné sfalšovať takmer akýkoľvek obrazový alebo zvukový záznam. Zodpovednosť v tomto smere nesú nielen novinári, ale aj technologické platformy, ktoré šíria obsah. Kľúčovú úlohu zohráva aj vzdelávanie a zvyšovanie mediálnej gramotnosti občanov, ktorá môže výrazne prispieť k odolnosti spoločnosti voči manipulatívnym obsahom.
Záverom možno konštatovať, že účinná reakcia na výzvy spojené s deepfake videami si vyžaduje interdisciplinárny prístup. Prepojenie technologického vývoja, legislatívnych opatrení, etiky médií a akademického výskumu predstavuje cestu, ako vytvoriť rámec ochrany spoločnosti pred negatívnymi dôsledkami tejto technológie. Ak sa podarí nájsť rovnováhu medzi slobodou tvorby a ochranou verejného záujmu, deepfake môže zostať nástrojom kreativity, a nie hrozbou pre demokraciu a dôveru v médiá.
Autori:
Mgr. Dominik Maček, interný doktorand
PaedDr. Beáta Pošteková, PhD.
Žilinská univerzita v Žiline, Ústav mediamatiky a kultúrneho dedičstva, Žilina
Afiliácia: Príspevok je parciálnym výstupom grantovej úlohy VEGA 1/0324/25 Longitudinálny výskum mediálnej gramotnosti v kontexte udržateľného spoločenského rozvoja v podmienkach Slovenska.
Bibliografia
AJDER, H., PATRINI, G., CAVALLI, F. a CULLEN, L., 2019. The State of Deepfakes: Landscape, Threats, and Impact. Amsterdam: Deeptrace. Deeptrace Report.
ALEKSIEV, A., 2023. Odborník radí, čo si všímať pri deepfake videách. Trend.sk [online]. Bratislava: Trend Holding. [cit. 2025-10-04]. Dostupné z: https://www.trend.sk/technologie/vyskyt-deepfake-videi-vyrazne-rastie-od...
ALNAJJAR, A., 2024. Gaining Solid Competence in Media Ethics: A Multicultural Perspective. Journal of Media Ethics. 39(1), 15–28. [online]. [cit. 2025-10-04]. Dostupné z: https://www.webofscience.com/wos/woscc/full-record/WOS:001282396600001
CHESNEY, R., CITRON, D. K., 2019. Deep fakes: A looming challenge for privacy, democracy, and national security. California Law Review. 107(6), 1753–1819.
EUROPEAN PARLIAMENT, 2024. Artificial Intelligence Act. Brusel: Európska únia.
GÓMEZ, J., MARTÍN, M., LÓPEZ, C., 2022. Applications of Deepfake Technology in Healthcare: Opportunities and Challenges. Journal of Medical Systems. 46(7), 1–10.
HEIDARI, A., 2024a. Deepfake technology and human perception. Journal of Information Security Research. 12(2), 55–67. [online]. [cit. 2025-10-04]. Dostupné z: https://www.webofscience.com/wos/woscc/full-record/WOS:001148512000002
HEIDARI, A., 2024b. The implications of deepfake systems for law and society. International Journal of Law and Technology. 18(1), 22–36. [online]. [cit. 2025-10-04]. Dostupné z: https://www.webofscience.com/wos/woscc/full-record/WOS:001107488700001
HU, J., 2023. Forensic detection of compressed Deepfake videos on social networks. Multimedia Tools and Applications. 82(3), 4125–4140. [online]. [cit. 2025-10-04]. Dostupné z: https://www.webofscience.com/wos/woscc/full-record/WOS:000766700400017
HUSOVEC, M., 2023. Deepfakes a ochrana súkromia. [S.l.]: [s.n.].
KIETZMANN, J., LEE, L. W., MC CARTHY, I. P. and KAHN, A. M., 2020. Deepfakes: Trick or treat? Business Horizons. 63(2), 135–146.
KOUDELKA, M., 2024. Falešná videa zaplavují internet. Česká televize [online]. Praha: Česká televize. [cit. 2025-10-04]. Dostupné z: https://ct24.ceskatelevize.cz/clanek/domaci/falesna-videa-zaplavuji-inte...
MCQUAIL, D., 2010. McQuail's Mass Communication Theory. 6. vyd. Londýn: Sage.
MIRSKY, Y. a LEE, W., 2021. The Creation and Detection of Deepfakes: A Survey. ACM Computing Surveys. 54(1), 1–41.
MSG-life, 2025. Deepfake význam: Ako ho odhaliť a rozpoznať od originálu [online]. Bratislava: Msg-life. [cit. 2025-10-04]. Dostupné z: https://msg-life.sk/clanky/digitalizacia/deepfake/#:~:text=vr%C3%A1tane%...
NÁRODNÝ BEZPEČNOSTNÝ ÚRAD, 2023. NBÚ upozorňuje na deepfake videá, uvádza, čo si treba všímať. Týždeň [online]. Bratislava: NBÚ. [cit. 2025-10-04]. Dostupné z: https://www.tyzden.sk/politika/98941/nbu-upozornuje-na-deepfake-videa-uv...
PENNYCOOK, G. a RAND, D. G., 2019. Fighting misinformation on social media using crowdsourced judgments of news source quality. Proceedings of the National Academy of Sciences. 116(7), 2521–2526.
VACCARI, C. a CHADWICK, A., 2020. Deepfakes and disinformation: Exploring the impact of synthetic political video on deception, uncertainty, and trust in news. Social Media + Society. 6(1), 1–13.












