A mélytanulással (deep learning) felturbózott kép- és videomanipuláció, az úgynevezett deepfake jelenség, a kamuképek, egy rendkívül izgalmas és ígéretes terület árnyoldalát villantja fel. Ha valamit tenni akarunk ellene, ugyanazokat a technikákat kell használni. Gépitanulás-rendszereknek képesnek kell lenniük megtrükközött képek felismerésére.
A jelenség viszonylag új, és a harc különlegessége, hogy a detektálás módszerei az alkotás módszereivel versengenek. Minél meggyőzőbb hamis vizuális anyagok jelennek meg rendszeresen, annál nagyobb az esély, hogy valaki kompromittáló helyzetben szembesül saját magával.
Több hírességgel előfordult már, ugyanakkor a kamuképek jelentős része nem rosszindulatból, hanem kreatív vágyból készül.
A Facebook, a Microsoft, a Partnership for AI, több egyetem (Oxford, Berkeley, Massachusetts Institute of Technology stb.) összefogott, és jobb detektáló technikákat szándékoznak kidolgozni.
„A mesterséges intelligencia legérdekesebb fejlesztései akkor jönnek létre, ha egy adatsorban egyértelmű a mérce, a szint, és annak felülmúlására találnak ki valamit. Tárgyfelismerésre használt adatsorok többmillió képet tartalmazhatnak, hangátiratok sok óra különféle beszédet. A deepfake jelenségre nincs ilyen adatsor” – jelentette ki Mike Schroepfer, a Facebook technikai igazgatója.
A közösségihálózat-óriás 10 millió dollárt szán a Deepfake Felderítési Versenyre, amelyben adatsorokat hoznak majd létre, a résztvevők pedig jóváhagyják képek, videók felhasználását, hogy később egyiküket se érje meglepetés.
„Először lesz egy videoforrásokból álló adatsor, majd a videókra rakható személyekből is egy. Utána a legfejlettebb deepfake technikákkal generálunk módosított videókat, amelyek szintén az adatbázishoz fognak tartozni” – folytatja Schroepfer.
Az arcokhoz nem a Facebook anyagait használják, hanem fizetett színészek is részt vesznek a projektben.
Az adatsorokat az érintettek megkapják, megoldásokat dolgozhatnak ki rájuk, amelyeket tesztelhetnek is. Komoly versengés alakulhat ki felsőoktatási intézmények, kutatók között.
„A nyílt környezetben a teljes kutatói közösség részvételére van szükség a manipulált multimédia negatív hatásait kiderítő és mérséklő módszerek és rendszerek fejlesztéséhez” – nyilatkozta Rama Chellappa (Maryland Egyetem).
Az adatsorokat először egy októberi gépilátás-konferencián tesztelhetik.