Az utóbbi években egyre több kamukép, kamuvideó (deepfakes) árasztotta el a világhálót. Lényegük, hogy készítőik egy képbe vagy videóba egy másik személynek az arcát, hangját majdnem tökéletes technológiával beillesztve, új, megtévesztő vizuális anyagot hoznak létre személyekről, eseményekről. Nagy valószínűséggel mindannyian belefutottunk már ilyen álló- és/vagy mozgóképeket tartalmazó anyagokba.
A Pew Kutatási Központ felmérése alapján az amerikai felnőtt lakosság 63 százalékát zavarta már össze aktuális témákban deepfake.
A teljesen élethű arcvonásokat, hamisítványokat sok esetben félretájékoztatásra, hamis infók, álhírek terjesztésére, csalásra és egyesek (főként politikusok és más hírességek) megalázására, hírnevük rontására használják. Olyanokat tesznek ezek a celebek, amit soha nem szoktak, de léteznek egyébként soha nem élt személyekről készült teljesen hihető képek, videók is. Egyes anyagok túl erőszakosak, míg mások tovább növelik a lakosság médiumok iránti bizalmatlanságát.
A múltban magukat álláskeresőnek kiadó csalók kamuképekkel próbáltak vállalatok bizalmas adataihoz hozzáférkőzni. Mára gombamód szaporodott el a zavarosban halászó alkalmazások száma.
Készítésükhöz gépi tanuláson, mesterséges intelligencián alapuló módszereket alkalmaznak. A káros következmények, például – a videókon – kirekesztő beszédeket mondó politikusok ellehetetlenítése miatt egyre fontosabbá vált a deepfake anyagokat azonosító szoftverek, alkalmazások fejlesztése.
Az Intel bejelentette, hogy a deepfake-özön ellen harcolva, kamuvideókat – 96 százalékos pontossággal azonosító – technológiát (FakeCatcher) fejlesztett.
Munkáját valósidőben végzi, és abból indul ki, ami emberivé tesz minket, ezért a pixeleken is észlelhető vérkeringést figyeli. Képes az erek színében végbemenő változásokat azonosítani, majd az arcról a vérkeringésre utaló összegyűjtött jeleket algoritmusok vizsgálják, és mutatják ki, hogy az adott videó igazi vagy kamu.
Egyes mozdulatok és a modor ugyan árulkodók, de a legtöbb felhasználó észre sem veszi, vagy gyorsan végigfutva például a Twitteren, nem fordít időt a videó valóságtartalmának tanulmányozására. Nem meglepő módon kamuvideókat többmillióan osztanak meg, és már túl késő, mire megtudjuk, hogy nem valódiak.
Remélhetőleg az Intel rendszerével valamelyest változik a helyzet.