Početna » Fotke koje uništavaju živote: Šta je “dipfejk” i kako ga je prepoznati?

Fotke koje uništavaju živote: Šta je “dipfejk” i kako ga je prepoznati?

by Urednistvo

Vještačka inteligencija je, bez sumnje, donijela revolucionarni način generisanja multimedijalnog sadržaja.

Dok su ljudi većinski i dalje zadivljeni sa kojom lakoćom, brzinom i preciznošću je to sada moguće, svima nam preti opasnost od poplave lažnih i zlonamjernih sadržaja koji trajno mogu da ugroze reputaciju ili unište život žrtve.

Kao što je manipulacija fotografijama kroz Photoshop bila senzacija početkom ovog vijeka, tako je sada u prvom planu takozvani “dipfejk”(deepfake). Tu spadaju lažni video i audio sadržaji koji oponašaju izgled, mimiku ili glas neke druge osobe, toliko uvjerljivi da u nekim slučajevima prosječno oko ne primijeti razliku.

Sam naziv “deep” označava da se u pozadini kriju algoritmi dubokog mašinskog učenja koji se treniraju na ogromnim setovima podataka i bezbroj slika.

Uzmimo za primjer video u kojem se pojavljuje virtuelni klon Morgana Frimana, jednog od najpoznatijih svjetskih glumaca. Budite realni, da ste video našli na društvenim mrežama, gdje je pažnja na detalje žrtvovana zarad količine informacija, da li biste primijetili da je u pitanju lažnjak?

Naravno, snimci još uvijek nisu savršeni. Za one obazrivije, postoje detalji koji otkrivaju da postoji još prostora za napredak, poput sinhronizacije usana sa glasom, pokreta zjenica i mutnih tranzicija pri naglim pokretima, naročito kada osoba okrene lice tako da se vidi profil.

Kako nastaje “dipfejk“?

Najčešće se dipfejkovi zasnivaju na dubokim neuronskim mrežama koje omogućavaju tehniku zamjene lica.

Prvo je potrebno pronaći video koji će se koristiti kao osnova, a zatim se prosljeđuje kolekcija video klipova i slika osobe koju želite da umetnete u prvobitni video. Klipovi uopšte ne moraju biti povezani, oni mogu biti isječci iz filma ili klipovi sa YouTube. Program analizom osobe iz više uglova mapira lice i postavlja ga na aktera u željenom snimku.

Iako djeluje kao veoma osjetljiv i kompleksan posao, postoje javno dostupni alati poput kineske aplikacije Zao, DeepFaceLab, FakeApp i mnogih drugih aplikacija otvorenog koda koje se nalaze na GitHabu.

Kad stvari izmaknu kontroli…

Većina revolucionarnih inovacija u ljudskoj istoriji, od atomske energije do interneta i društvenih mreža, ima dvije strane medalje: osim što mogu donijeti društveni i ekonomski napredak, one olakšavaju posao malicioznim ljudima i kriminalcima koji su korak bliže svom cilju. Sa dostupnim alatima za kreiranje dipfejkova, sve više ljudi ima priliku da primokeni svoju kreativnost u neetičke svrhe.

Možda i najveća opasnost proketi od osvetničke pornografije, generisane bez pristanka druge osobe. Što je više dostupnih slika kojim bi se algoritam mogao nahraniti, to je opasnost veća jer je snimak vkerodostojniji. Sudeći po izvkeštaju kompanije Deeptrace iz 2019. godine, čak 96% pronađenih dipfejk videa je bilo pornografskog sadržaja.

Primjena dipfejkova je veoma široka, ona se može koristiti i u zabavne, šaljive svrhe. Tako je, na primjer, osvanuo snimak gdje Mark Zakerberg priznaje da mu je cilj da manipuliše svojim korisnicima, ili gdje bivši predsjednik Amerike, Barak Obama, vrijeđa Donalda Trampa.

Postoje i oblasti gdje tehnologija dipfejka može olakšati posao i uštedeti novac. Određeni AI alati su sposobni da od nule naprave autentičnu virtuelnu lutku koja je istovjetna kao i čovijek. Neki su ih već oprobali u ulozi voditelja, a nije isključeno ni da će se primjenjivati u filmskoj industriji za dubliranje glumaca, obrazovanju i simulacijama.

Međutim, granica između zabave i zlonamjernog korišćenja je veoma osjetljiva.

Na internetu postoje brojni primjeri dipfejkova gdje neki od najpoznatiji svjetskih političara daju kontraverzne i lažne izjave. Tehnologija srećom nije dovoljno uznapredovala da daje istovjetne rezultate, pa se propusti mogu primijetiti. Inače, zamislite kakve bi društvene posljedice usledile ako bi svako mogao da “ubacuje riječi u usta“ uticajnim ljudima.

Kao najopasniji primjer zloupotrebe se pojavio snimak predsjednika Ukrajine Volodimira Zelenskog, koji u proljeće 2022. godine, nedugo nakon početka rata u Ukrajini, poziva svoje vojnike da se predaju. Snimak je izazvao veliku paniku, ali je srećom brzo razotkriven.

Kada se sve sabere i oduzme, čini se da potencijalne zloupotrebe prevazilaze koristi koje bi se dobile korišćenjem dipfejk tehnologije. Lažirani porografski snimci već sad izgledaju veoma uvjerljivo, a ukoliko se popravi sinhronizacija glasa sa usnama, predstoji nam velika opasnost gdje se više neće moći vjerovati praktično ničemu što je na internetu. Kada se na to doda činjenica da mnogi ljudi nisu ni svjesni za postojanje dipfejk fenomena, jasno je da se otvara veliki prostor za manipulisanje.

Nova.rs

You may also like

Adriapress

Bez filtera, bez igara. Gradimo regionalne mostove informacije.

Najnovije

@2023 Adriapress – Sva prava zaštićena.