Foto: Steve Jurvetson (Flickr), YouTube (TED)

Deepfakes sú modernou formou fakenews, ktorá je oveľa nebezpečnejšia.

Svet si už pomaly začal zvykať na hoaxy, fakenews a dezinformácie, ktoré sa v poslednom desaťročí stali každodennou súčasťou fungovania sociálnych sietí a internetových médií. Keď už sme sa ich ako tak naučili rozoznávať, odhaľovať a overovať, prišlo niečo, čo celý problém posunulo na celkom nový level. Deepfakes totiž tvorí umelá inteligencia a v budúcnosti môžu predstavovať veľmi vážny problém.

Článok pokračuje pod videom ↓

Predstavte si nasledovnú modelovú situáciu. Na internete možno nájsť obrovské množstvo fotografií Elvisa Presleyho. Umelá inteligencia ich zozbiera, napriek tomu, že by jej pokojne stačila jediná. S využitím tzv. deep learning (hĺbkové učenie) a neurónových sietí potom tvár slávneho rock&roll-ového speváka prirobí na tvár ktoréhokoľvek človeka, ktorého fotografia, alebo videozábery sa nachádzajú na internete. Neurobí to však tak, aby to vyzeralo ako práca v skicári. Urobí to tak, že milióny ľudí po celom svete aspoň na moment uveria, že Elvis je naozaj živý. Deepfakes možno použiť ako žart, útok, pomstu, ale aj propagandu či manipuláciu más.

Čo je deepfake a ako vzniká?

Deepfake je technika vytvárania falošného obsahu a to nielen vo forme fotografií, ale najmä mimoriadne realistických videí. Je založená na umelej inteligencii, ktorá dokáže upravovať vizuálny materiál napríklad tak, že fotografiu tváre namodeluje do existujúceho videozáberu. Pri technike strojového učenia zvanej generative adversarial network (GAN) založenej na neurónových sieťach, jej na to stačí jediná fotografia. V jednoduchosti, umelá inteligencia dokáže z jedinej vašej fotografie, upraviť prejav amerického prezidenta v Bielom dome tak, že tým prezidentom budete vlastne vy sám/sama.

Po prvýkrát sa takéto videá objavili už v roku 2017. Ich vývoj prebiehal viac-menej súbežne ako v akademickom prostredí, tak aj v amatérskych online komunitách. Ešte v roku 1997 dokázali vedci vytvoriť program, ktorý vedel do existujúceho videozáznamu doplniť inú zvukovú stopu a zábery upraviť tak, aby to celé vyzeralo čo najreálnejšie. Deepfakes sú však ešte o level zákernejšie a technicky omnoho komplikovanejšie. Na spôsob ako ich vytvárať nakoniec prišli vedci z Tel Avivu ako aj Supasorn Suwajanakorn, ktorý dostal deepfakes do povedomia verejnosti vďaka videu s Barackom Obamom.

Falošné porno

Kým vo vedeckej obci sa hovorilo o veľkom míľniku vo využívaní umelej inteligencii, amatérski vývojári deepfakes takmer okamžite zneužili a to tým najplytkejším možným spôsobom. V roku 2017 sa začali deepfakes videá objavovať na portáli reddit. V pomerne krátkom čase sa na internete objavilo obrovské množstvo deepfake pornografického materiálu, v ktorom boli zneužité fotografie známych celebrít. Na aktivity fungujúceho kanálu na portáli Reddit vtedy ako prvá upozornila v americkom Vice Samantha Cook.

Na výrobu deepfake pornografických materiálov boli zneužité napríklad Emma Watson, Katy Perry, Taylor Swift či Scarlett Johansson. Práve tá pre Washington Post v roku 2018 povedala, že kým celebrity sú pred takýmto plytkým zneužívaním chránené svojou slávou (takémuto obsahu verejnosť neuverí), pre všetky ženy na svete predstavujú deepfakes riziko a ohrozenie dôstojnosti. Kanál na Reddite obsahujúci pornografický obsah bol nakoniec vymazaný. Dnes tu môžete nájsť iba kanál, kde ľudia pridávajú deepfakes videá a fotografie bez pornografického obsahu s názvom f.

Manipulácia a propaganda

Deepfakes pornografický materiál je však len slabým odvarom toho, akú hrozbu táto technológia predstavuje. Stačí si len predstaviť, že vďaka umelej inteligencii môžeme vytvoriť video, v ktorom ktokoľvek povie čokoľvek čo chceme a výsledok bude vyzerať tak reálne, že bude len veľmi ťažké presviedčať masy o tom, že to nie je pravda. Väčšina odborníkov sa zhoduje v tom, že najväčším rizikom je možné zneužitie deepfakes na politické účely, šírenie propagandy a manipuláciu verejnosti. O tom, aký dokonalý môže byť výsledok, vás určite presvedčí video z dielne Buzzfeed v ktorom americký filmár a herec Jordan Peele prepožičia slová bývalému americkému prezidentovi Barackovi Obamovi.

Ožiť môže história i umenie

Umelá inteligencia schopná vytvárať deepfakes materiál ponúka nevyčerpateľné množstvo pozitívnych možností. Ako príklad môže poslúžiť nedávna štúdia inžinierov spoločnosti Samsung. Tým sa podarilo z jediného záberu vytvoriť pohybujúcu sa a rozprávajúcu Monu Lízu. S využitím umelej inteligencie oživili jedno z najznámejších umeleckých diel. Algoritmus spoločnosti Samsung je ukážkou toho, že deepfakes môžu mať široké využitie vo virtuálnej realite, vzdelávaní, pri tvorbe špeciálnych efektov či v kinematografii, ako aj toho, aké jednoduché je deepfakes zábery vytvoriť. Otázkou je, či ľudstvo dokáže nové metódy využívať pre spoločné blaho vo väčšej miere než zneužívať ich na šírenie falošného obsahu.

Manipulácia s video zábermi, fotografiami či audio záznamami nie je vo svete žiadnou novinkou. Novinkou je však precíznosť a dokonalosť, ktorú deepfakes predstavujú. V 21. storočí sa musíme pripraviť na to, že aj to čo vidíme na vlastné oči, viac nemusí byť pravda.

 

Uložiť článok

Najnovšie články