Uusimmat

UCSD:n tutkijat kehittivät uuden deepfake-tekniikan – sitä ei tunnista edes parhaimmat neuroverkkoalgoritmit

14.02.2021 13:21 Muropaketin toimitus

Videoilla esiintyvien henkilöiden kasvojen vaihtamisen mahdollistavasta deepfake-teknologiasta on ollut paljon porua. Ikävä kyllä teknologiaan liittyy viihdesovellutusten lisäksi myös ikävämpiä puolia.

Deepfake-teknologia aiheuttaa huolta, sillä sen avulla voisi ehkä vaikkapa harjoittaa kyseenalaista mielipidevaikuttamista väärentämällä videoita, joilla näyttää esiintyvän esimerkiksi poliittinen vaikuttaja. Toinen ikävä negatiivisia tuntemuksia aiheuttava sovellutus on aikuisviihteessä nähtävien näyttelijöiden kasvojen vaihtaminen toisen ihmisen kasvoihin.

Deepfake-teknologian kehittyessä hiljalleen paremmaksi, sen käytön tunnistamisesta tulee yhä hankalampaa. Ei siis ihme, että sitä vastaan on etsitty suojautumiskeinoja.

Kehittyneet neuroverkot pystyvät nykyisin tunnistamaan, jos videoilla esiintyvien henkilöiden kasvoja on manipuloitu deepfake-teknologialla. Kalifornian yliopiston tutkijat väittävät kuitenkin kehittäneensä tekniikan, jolla voi huijata parhaimpiakin deepfake-videoiden tunnistusalgoritmeja.

Tutkijoiden kaksi eri menetelmää ovat nimeltään White Box ja Black Box. Niiden avulla käsitellään väärennökseksi tunnistettua deepfake-videota siten, että jokaiseen videokehykseen lisätään uusi kasvokuva huijaten näin tunnistusalgoritmia. Kuvat ovat manipuloituja kuvia, jotka sekoittavat koneoppimisjärjestelmän ja saavat sen tekemään virheen tunnistuksessa. Lopputuloksesta ei huomaa ihmissilmälläkään, että kuvaa on manipuloitu tunnistusalgoritmien huijaamiseksi.

Tunnistusalgoritmeja kehittävillä tahoilla onkin tutkijoiden keksinnön vuoksi uusi pähkinä purtavanaan. Tunnistusteknologioita ovat kehittäneet ainakin yliopistot, Yhdysvaltain puolustusministeriö, Twitter, Facebook ja Microsoft.

Muropaketin uusimmat