S tím, že ne vše, co na internetu najdeme, je pravda, určitě počítá každý z nás. Poslední dobou se můžeme setkat s dalším jevem, který tento výrok potvrzuje. Deepfakes. Objevily se relativně nedávno, přibližně v roce 2017, ale i tak již stihly napáchat nemálo škod. Mohou být rizikem z hlediska kybernetické bezpečnosti, ochrany osobnosti nebo šíření fake news, ale nebezpečí představují také i pro podnikatele a jejich ekonomické zájmy. Mezi jejich oběti se řadí jak některé celebrity jako Gal Gadot nebo Emma Watson, tak i politici jako Boris Johnson nebo Barack Obama.
Co jsou to deepfakes?
Lze je popsat různými způsoby, avšak pro účely tohoto článku postačí, když je vymezíme jako technologii, která využívá algoritmy strojového učení k vkládání obličejů a hlasů do obrazových a zvukových záznamů skutečných lidí a umožňuje tak vytvářet realistickou napodobeninu skutečnosti, [1] lépe řečeno, skutečných lidí. Takovou napodobeninou, vytvořenou za pomoci umělé inteligence, může být fotka, video nebo též jen prostá hlasová nahrávka. Vytvořit deepfakes přitom nemusí být nijak komplikované, je možné k tomu využít různé aplikace [2] či si snadno najít návod na internetu.
Nebezpečí deepfakes
Jak bylo již předesláno v úvodu článku, jedno z nebezpečí, která deepfakes pro společnost představují, se týká našich práv na ochranu osobnosti. Za prozatím ještě nedlouhou dobu existence deepfakes se objevilo mnoho případů, kdy byla tato technologie použita k výrobě pornografie. Kromě zmíněných hereček (a dalších celebrit) se obětmi stávají i běžní lidé. Pornografická videa tvoří podle odborných odhadů až 96 % všech deepfakes videí. [3] Jakkoli závažná hrozba to však může být, není bohužel jediná.
V souvislosti s fake news je vhodné si povšimnout, že se tvůrci deepfakes zaměřují i na vrcholné politiky. Příkladem může být uměle vytvořené video s Barackem Obamou, na kterém bývalý americký prezident urážel svého nástupce, Donalda Trumpa. V samotném videu je sice v jeho druhé polovině odhaleno, že se jedná o podvrh, kterým tvůrci jen chtěli ukázat světu negativní potenciál deepfakes, ale v první polovině na diváka působí značně přesvědčivě. [4] „Své“ deepfake video, které podobně upozorňuje na hrozbu této technologie, má dokonce i český premiér Andrej Babiš. [5]
V neposlední řadě je důležité si uvědomit, že v ohrožení mohou být i podnikatelé a obchodní společnosti. Ohrožena může být nejen jejich reputace, ale hlavně jejich majetek. S pomocí uměle vytvořených audio-vizuálních záznamů existují příležitosti, jak snadno využít bezpečnostně slabá místa v interních postupech společností. To může vést až k tomu, že budou například odcizena data nebo finanční prostředky. To se třeba stalo v roce 2019 v jedné britské energetické společnosti. Podvodníci zavolali jistému zaměstnanci a uměle napodobili hlas jeho nadřízeného. Protože zněl volající pro daného zaměstnance přesvědčivě (skutečně věřil tomu, že v telefonu rozpoznal německý přízvuk a melodii hlasu svého nadřízeného), vyhověl příkazu podvodníků a provedl transakci ve výši 220 000 EUR přesně podle jejich instrukcí. [6]
Dá se očekávat, že podobných případů, ať už se budou týkat osobnostních práv jednotlivců, politiky a fake news nebo podvodů, bude jen přibývat. Hrozbu deepfakes tedy není radno podceňovat.
Přestože se tento článek zabývá hlavně riziky, která deepfakes pro společnost znamenají a otázkou, jak k tomuto fenoménu přistupuje právo, je nutno vzít v potaz skutečnost, že deepfakes lze využívat i způsoby, které ostatním neškodí, nebo jim dokonce i pomáhají. Například by se daly využít pro lidi, kteří z důvodu nemoci či zranění přišli o schopnost mluvit. S pomocí deepfakes by svůj hlas, byť v umělé formě, mohli získat zpátky. Další společensky nezávadné využití této technologie spočívá třeba v možnosti vytvářet virtuální asistenty jako je Siri bez toho, aby bylo nutné více hlasových herců, stačil by jen jeden, který by pomocí deepfakes byl schopen napodobit hlas osoby jiného pohlaví nebo jiný přízvuk. Stejným způsobem by bylo možné usnadnit i tvorbu audioknih nebo překlady filmů. [7] Nedá se tedy bez dalšího učinit závěr, že by používání deepfakes bylo jen špatné.
Právní rámec v EU
Platnou legislativu, která by se vázala přímo k deepfakes bychom zatím hledali jen těžko. Není se čemu divit, jedná se o poměrně nový fenomén a právo má obecně problém na nové výzvy reagovat takto rychle.
Přesto je možné, že se alespoň nějaké úpravy deepfakes brzy dočkáme. Evropská komise totiž letos v dubnu představila návrh Nařízení Evropského parlamentu a Rady, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci (akt o umělé inteligenci) a mění určité legislativní akty unie. [8]
Návrh nařízení se konkrétně k deepfakes moc podrobně nevyjadřuje, ale i přes to stojí za pozornost. V čl. 52, který pojednává o povinnostech transparentnosti určitých systémů AI ( z anglického artificial intelligence, tedy umělá inteligence), přesněji v jeho třetím odstavci, je pro uživatele deepfakes stanovena povinnost zveřejnit informaci o tom, že byl daný obsah vytvořen uměle nebo že s ním bylo manipulováno. Je zde ovšem obsažena i výjimka z tohoto pravidla, a to v případě, že by zákon povolil užití této technologie za účelem odhalování, prevence, vyšetřování a stíhání trestných činů nebo pokud je to nezbytné pro výkon práva na svobodu projevu a práva na svobodu umění a věd zaručených Listinou základních práv EU a s výhradou příslušných záruk práv a svobod třetích stran. Je však otázka, co přesně by tato výjimka znamenala v praxi a zdali by nedocházelo k jejímu zneužívání. Problematická může být rovněž realizace povinnosti zveřejnit informaci o tom, že je obsah vytvořen uměle či že se jedná o manipulaci s takovým obsahem, protože návrh nařízení nikde neuvádí, jak přesně by taková informace měla vypadat. Čl. 70 recitálu návrhu nařízení pouze uvádí, že by se daný výstup umělé inteligence měl odpovídajícím způsobem označit a že by se měl odhalit jeho umělý původ. Je tedy možné, že se někteří uživatelé deepfakes pokusí tuto informaci sdělit co nejméně transparentně, jen aby naoko splnili požadavky kladené nařízením, přestože by ostatní osoby stále mohly mít problém si dané informace všimnout. Nařízení každopádně kromě povinností stanovuje i sankce za jejich nedodržování. Článek 71 odst. 4 návrhu nařízení uvádí, že za nesoulad systému AI s jakýmikoli požadavky nebo povinnostmi podle tohoto nařízení s výjimkou těch, které jsou stanoveny v článcích 5 a 10, se uloží správní pokuty až do výše 20 000 000 EUR, nebo, dopustí-li se porušení společnost, až do výše 4 % jejího celkového ročního obratu celosvětově za předchozí finanční rok podle toho, která hodnota je vyšší. Hrozba v podobě sankcí by tak, na straně druhé, mohla alespoň některé uživatele, kteří zamýšlejí deepfakes používat protiprávně, od takového jednání odradit.
V článku 71 odst. 1 návrhu nařízení je dále uvedeno, že členské státy stanoví v souladu s podmínkami uvedenými v tomto nařízení pravidla pro ukládání sankcí včetně správních pokut za porušení tohoto nařízení a přijmou veškerá opatření nezbytná k zajištění jejich řádného a účinného uplatňování. Stanovené sankce musí být účinné, přiměřené a odrazující. Zohledňují zejména zájmy malých poskytovatelů a začínajících podniků a jejich ekonomickou životaschopnost. Dá se tedy očekávat, že unijní právní úpravu, bude-li přijata, bude ve svém právním řádu reflektovat i Česká republika.
Co se týče problematiky ochrany osobních údajů, o té se ve vztahu k deepfakes návrh nařízení přímo nevyjadřuje, nicméně v důvodové zprávě návrhu nařízení je uvedeno, že má být zajištěn soulad s Listinou základních práv EU a stávajícími právními předpisy EU o ochraně údajů (v této oblasti je významné obecné nařízení o ochraně osobních údajů 2016/679 – známé jako GDPR), ochraně spotřebitele apod.
Závěr
Přestože jsou deepfakes relativně novinkou, i tak se na ně již strhla nemalá pozornost. V žádném případě se nedá tvrdit, že by tato technologie provozovaná pomocí umělé inteligence mohla sloužit jen k nekalým účelům, nicméně nebezpečí a rizika, která deepfakes přinášejí, ignorovat zkrátka nelze. Ačkoli stále nemáme platnou právní úpravu, která by danou problematiku upravovala, jisté ambice ji mít už projeveny jsou a záleží na průběhu legislativního procesu na unijní úrovni (a časem pravděpodobně i na té národní), jakou finální podobu bude mít a jak efektivní bude.
Citace:
[1] Podrobněji viz: Gilar, Š. Deepfakes aneb nový fenomén na poli problematiky tzv. fake news [online]. is.muni.cz [online]. Brno, 2020 [cit. 14. 6. 2021]. Dostupné z: https://is.muni.cz/auth/th/ozmcc/Bakalarska_prace.pdf
[2] Příkladem aplikace může být FakeApp, viz: Reilly, K., Kovach, S. Face-swapping videos could lead to more 'fake news' [online]. bussinesinsider.com [online]. 13. 4. 2018 [cit. 14. 6. 2021]. Dostupné z: https://www.businessinsider.com/fakeapp-lets-people-make-fake-videos-deepfakes-2018-4
[3] K tomu více: Dvořáková, M. Revenge porn a deepfakes: ochrana soukromí v éře moderních technologií [online]. Revue pro právo a technologie [online]. 2020, č. 22, s. 51-89 [cit. 14. 6. 2021]. Dostupné z: https://journals.muni.cz/revue/article/view/13416/pdf
[4] Úryvek videa s falešným Barackem Obamou můžete nalézt v tomto článku: Fagan, K. A viral video that appeared to show Obama calling Trump a 'dips---' shows a disturbing new trend called 'deepfakes' [online]. bussinesinsider.com [online]. 17. 4. 2018 [cit. 14. 6. 2021]. Dostupné z: https://www.businessinsider.com/obama-deepfake-video-insulting-trump-2018-4
[5] Video s falešným Andrejem Babišem je k nalezení zde: CNN Prima NEWS. Falešný Babiš pomáhá Pirátům bojovat s dezinformacemi [online]. Jde o kampaň Pravda bolí. cnn.iprima.cz [online]. 27. 1. 2021 [cit. 15. 6. 2021]. Dostupné z: https://cnn.iprima.cz/pravda-boli-pirati-bojuji-proti-dezinformacim-pomaha-jim-falesny-andrej-babis-17963
[6] Stupp, C. Fraudsters Used AI to Mimic CEO’s Voice in Unusual Cybercrime Case [online]. wsj.com [online]. 30. 8. 2019 [cit. 14. 6. 2021]. Dostupné z: https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402?_sm_au_=i5VjqL43tSrQV756QcLJjKQ1j7GJ1
[7] Pro více možností využití deepfakes viz: Lee, L. W., Kietzmann, J., Kietzmann, T. C. Deepfakes: five ways in which they are brilliant business opportunities [online]. theconversation.com [online]. 12. 1. 2020 [cit. 14. 6. 2021]. Dostupné z: https://theconversation.com/deepfakes-five-ways-in-which-they-are-brilliant-business-opportunities-131591
[8] Návrh Nařízení Evropského parlamentu a Rady, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci (akt o umělé inteligenci) a mění určité legislativní akty unie je dostupné na odkazu: https://eur-lex.europa.eu/legal-content/CS/TXT/?uri=CELEX:52021PC0206
Photo by Chris Yang on Unsplash