deep fake

Ukrasti nekome lice nikada nije bilo lakše: Potraga istražuje kako se zaštititi od poplave sve uvjerljivijih lažnih snimki

Programi za takozvani deep fake sve su napredniji, lažne snimke sve uvjerljivije i opasnije


Što je stvarnost, a što varka? U ovoj priči one će se miješati.
Želimo samo pokazati kako u današnje vrijeme naprednih
tehnologija nije dovoljno vjerovati svojim očima. Jer softver je
uz malu pomoć čovjeka u stanju jedno lice zamijeniti drugim. U
filmu Nema zemlje za starce glavnu ulogu glumi Javier Bardem. No,
odjednom mu ulogu preotima Arnold Schwarzenegger. Tomu Hanksu je,
pak, ulogu života oteo John Travolta i postao Forrest Gump.
Dogodio se deepfake ili duboka prevara. A ako jedan glumac može
postati drugi, možda bih i ja mogao postati premijer?

Ja nisam glumac, a multimedijalni umjetnik Vedran Tomac nikad se
dosad nije bavio deepfakeom ali razumije se u videotehnologiju i
idemo vidjeti može li me pretvoriti u nikog drugog već premijera
Andreja Plenkovića. Vedran se baca na posao pomoću besplatnog i
svima dostupnog softvera. Obično se profesionalni deepfakeovi
rade tjednima. On ima samo četiri dana.

”Program pregledava sve snimke koje smo napravili u studiju,
uspoređuje s Plenkovićevim snimkama koje smo skupili s YouTubea
što smo mogli kvalitetnije i program ekstrakta svako lice, svaki
izraz i uspoređuje ga s tvojim izrazima”, objašnjava Tomac.

Potrebno je jako računalo koje može mapirati lice i u svakoj
sličici moga lica naći sličnu ekspresiju koju je pronašlo kod
premijera.

”Bilo koji mulac koji se želi potruditi i može napraviti
kojekakav kaos, ali da bismo mi dobili nešto čim vjernije ti bi
trebao biti obučen kao Plenković, skinuti geste, govor i sve, a
tu je i problem glasa. Tu bi trebao imitator koji može skinuti
glas, zna se odjenuti, zna geste i tu bismo dobili velik postotak
identičnosti. Tu se još malo kuži razlika”, objašnjava Tomac.

Već smo vidjeli da se nekome krade identitet putem lažnog
predstavljanja, krivotvorenja potpisa, lažiranja e-maila ili
slično, ali da je nekome ukradeno lice, potencijalno i glas, to
je nešto novo i jako zastrašujuće. Zamislite da netko napravi
nešto slično dva dana prije izbora, ali umjesto benigne poruke
političaru napakira nešto doista skandalozno? Dok bi ovaj
objasnio da to nije on, već bi bilo prekasno.

”Moglo bi se manipulirati javnošću. Moglo bi dovesti do toga da
više ne vjerujemo medijima zato što sve što se stavi u medije,
može se krivotvoriti. To mi se ne sviđa. Ne sviđa mi se mogućnost
da netko koristi tehnologiju da progura svoje ciljeve, da progura
svoju političku opciju ili da nekog konkurenta izbaci iz igre.
Takve stvari mi se ne sviđaju”, kaže Siniša Šegvić sa Zavoda za
računalne i inteligentne sustave na FER-u.

On se bavi računalnim učenjem i računalnim vidom i pokazuje što
na FER-u sad razvijaju. Kao i u slučaju deepfakea, i kod razvoja
autonomne vožnje računalu je potrebno mnogo podataka kako bi čim
bolje učilo. Primjer je to kako se duboko učenje prvenstveno
razvija u dobre namjene.

”Tehnologija je neutralna. Onaj tko to razvija sigurno mu nije
stalo do toga da vara ljude jer ako želiš varati ljude ima lakših
načina za zaradu od razvijanja tehnologije i varanja njome ljudi.
Danas znamo da duboki modeli mogu dovesti do toga da omoguće
nekome da krivotvori sliku ili video i dobro je da se te
mogućnosti istraže i ispitaju prije nego što ta tehnologija
postane dovoljno razvijena da prouzroči stvarnu štetu”.

Šteta je već počinjena. Prva upotreba deepfakea bila je u
pornoindustriji kad su autori na tijela običnih glumica stavljali
lica poznatih osoba poput Scarlet Johansson i time privukli
milijune klikova zbog čega su danas takvi sadržaji zabranjeni.
Zamislite da netko u takav video stavi vaše lice i snimku proširi
uokolo, a to je nešto što djeca mogu raditi kako bi napakostila
jedni drugima ne razmišljajući o mogućim posljedicama.

”Ako će to biti commodity u smislu da će svaka osoba moći za
relativno jeftine novce dobiti vrhunsku lažnu snimku, moći ćete
se osvećivati ženama, ljubavnicama, poslovnim partnerima,
konkurentskim firmama i ljudi će morati u značajnoj mjeri
promijeniti svoje ponašanje. Morat će napraviti minimalnu dodatnu
provjeru kako bi utvrdili autentičnost jer kroz idućih par godina
će biti normalno da to možete koristiti kao privatna osoba protiv
nekog drugog”, upozorava Tomislav Androić, stručnjak za
računalnu sigurnost.

Danas je primjera deepfake videa prepun internet i možda ste na
neke već dosad nasjeli. Dobra je stvar što se još uvijek, čak i
kod profesionalno napravljenih deepfakeova, tu i tamo vidi da je
nešto malo čudno- ako gledamo doista pažljivo jer trenirani smo
za čitanje lica od dana kad smo se rodili.

”Vidi se da nisu pravi. Pogotovo oko očiju jer nas oči oduvijek
interesiraju. Zanima nas što taj drugi hoće od nas, želi li nas
mlatnuti toljagom ili s nama pregovarati o ljetini. To je nama
bitno i zato mi skužimo da se te oči ne ponašaju prirodno. Ljudi
još uvijek mogu prepoznati deepfakeove i oni još nisu dovoljno
dobri da zeznu ljude. Oni su zabavni, gledali ste možda video
gdje Trump i Putin zajedno pjevaju Imagine, ali još uvijek nisu
tako dobri da mogu prevariti ljude”, ističe Šegvić.

Samo, dokad će to biti tako u svijetu zatrpanom selfijima koji
aplikacijama za deep mogu dati sav potreban materijal?

”Tim algoritmima je potreban jako velik izvor informacija. Što
više informacija mi tim algoritmima dajemo dobrovoljno, to je
veća mogućnost da će oni postojati bolji i da se u vrlo kratkom
roku neće moći razlikovati od stvarnih slika. To je ono što će
nam se dogoditi sigurno brže od 10, a vjerojatno u manje i od pet
godina, da će ti algoritmi postati takvi da ih ljudskim okom
nećete moći razlikovati”, upozorava Androić.

Kako je reporter Potrage Dario Todorović nakratko postao
premijer, ali i predsjednik Sabora, kako deepfake postaje sve
uvjerljiviji i opasniji pogledajte u video prilogu:

Preporučeno
Imate zanimljivu priču, fotografiju ili video?
Pošaljite nam na mail redakcija@kaportal.hr ili putem forme Pošalji vijest