Január utolsóelőtti hetében online vírusként terjedtek az egyik legnagyobb popsztár, Taylor Swift szexuálisan explicit képei. Az X-en (korábbi Twitteren) sokmillióan látták a nonszensz mélyhamisítvány (deepfake) pornót. Elon Musk cége végül a Taylor Swiftre vonatkozó összes keresést blokkolta.
A jelenség nem új, mélyhamisítványok évek óta jelen vannak. A generatív MI elterjedésével viszont könnyebb elkészíteni őket, aztán személyeket zsarolni, kellemetlenséget okozni nekik MI-vel generált képekkel, videókkal. Az új mesterséges intelligenciának ez az eddigi legsúlyosabb, legnegatívabb következménye.
Szerencsére lehet védekezni ellene. Például vízjelekkel, védőpajzsokkal, szabályozással.
A vízjel-technológiák emberi szem számára láthatatlan jelet rejtenek el a képeken, amely segít számítógépeknek megállapítani: mesterséges intelligencia generálta őket, vagy sem. Az azonosítás könnyebb és gyorsabb, és ha minden képen vízjel lenne – ami jelenleg kivitelezhetetlen –, sokkal nehezebben készíthetnének szexuálisan explicit mélyhamisítványokat. A technológia azonban túl új, széles körben sem használják, ráadásul nagyon elszánt támadók manipulálhatják is a vízjeleket.
Online posztolt képeinkből, különösen a legújabb MI képgenerátorokkal bárki csinálhat mélyhamisítványt. Számos nagyon új védelmi eszköz viszont lehetővé teszi, hogy mégse. Az MIT-n (Massachusetts Institute of Technology) fejlesztett PhotoGuard emberi szemmel láthatatlan módon változtat meg pixeleket. A Chicago Egyetem Fawkes-a rejtett jelekkel takar el képeket, hogy például az arcfelismerők ne tudjanak mit kezdeni velük. Az ugyanott kiépített Nightshade a mélyhamisításra készülő MI-modellt lebénító láthatatlan „méregréteggel” bővíti a képeket.
A védőpajzsok ugyan működnek a legújabb generációs MI ellen, viszont semmi garancia nincs arra, hogy a következő generációkkal is elboldogulnak.
Egyes kutatók szerint annyira elterjedtek a mélyhamisítványok, és a technológia olyan messzire ment, hogy a probléma csak szigorúbb szabályozással kezelhető. Az amerikai szabályozás egyelőre államonként történt meg, nincs egységes szövetségi, bár ez hamarosan változhat, például a kamu meztelen képek megosztását máris mindkét párt által elfogadott javaslat tenné szövetségi szinten is büntetőjogi kategóriává. Taylor Swift esete pedig újból felkeltette a mélyhamisítványok szabályozása iránti érdeklődést.
Az Egyesült Királyságban tavaly hoztak a deepfake pornót megosztókat akár fél év börtönnel is büntető törvényt. Az EU törvényei alapján a mélyhamisítvány-gyártóknak fel kell tüntetniük: anyagukat MI generálta. Legmesszebb a 2023-ban hatályba lépett kínai törvény megy: a képekhez az érintettek beleegyezése, személyi identitások hitelesítése, MI-tartalmak felcímkézése kell, és így tovább.
Ezek a törvények egyrészt elrettentő hatásúak lehetnek, másrészt viszont nehezen alkalmazhatók.