Az NJSZT blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Egészalakos hasonmásokat generál az MI

2018. december 17. - ferenck

A magyarra kamuvideókként fordított deepfakes mélytanulással (deep learning) készült manipulált és félrevezető mozgóképek. Készítőik általában valakinek, főként hírességeknek a fejét rakják rá meglévő videóra, és az illetővel olyasmi esik meg, ami nagy valószínűséggel soha nem történt meg vele.

A technológia a napokban szintet lépett, immáron nem csak a fej, hanem az egész test másolható mozgóképekre. Teniszezünk, baseballozunk, hegyet mászunk, és ott sem vagyunk… A Heidelberg Egyetemen kidolgozott megoldás egyelőre nem tökéletes, de folyamatosan finomhangolják.

deepfakes_1.jpg

Képzeljük el: teniszezés közbeni kamuvideót akarunk magunkról. Az eddigi iterációk korlátozottak voltak, a készítők csak az eredeti anyagon látható játékos mozgását tudták használni. Az igazit láthattuk, annyi különbséggel, hogy a fejét a miénkre cserélték.

Az új algoritmus felszámolja az ellentétet. Képeink alapján, ruhástól, ütőstől, mindenestől megtanulja, hogyan nézünk ki, és a profi teniszezőre, de akár szimulált virtuális környezetbe is helyez minket. Utóbbiban karunk és lábunk úgy mozog, mint a marionettfiguráké.

deepfakes0_1.jpg

A külső modellezéséhez a rendszernek nem kell minden szögből látnia az illetőt, mert a környezet megértésével kitalálja, hogyan mutatnánk különböző nézőpontokból.

A fejlesztők el vannak ragadtatva, mert technikájuk forradalmasíthatja a videojátékokat és a rajzfilmeket. Mások viszont, legalábbis potenciálisan a politikai manipuláció és egyéb kétes tevékenységek újabb eszközét látják benne.

„A képszintézis területén bármely fejlesztésben benne van a rosszindulatú alkalmazás lehetősége. A kamu és az igazi megkülönböztetése viszont könnyebb, mint ezeknek a képeknek az előállítása. A kamuvideókkal együtt fejlődnek az azokat detektáló technológiák” – magyarázza Björn Ommer, az egyik heidelbergi kutató.

Az új szimulációk még gyengécskék, például az árnyékok nem igazodnak a fényviszonyokhoz stb. Ommer szerint pontosan ezeket a hibákat észlelik a kamuvideókat detektáló algoritmusok, és megállapítják, hogy az anyag nem valódi.

Utóbbiak sikeréhez viszont az kell, hogy ugyanazzal a technikával tanuljanak, gyakoroljanak, mint a megtévesztő videókat generáló algoritmusok.

Kérdés, hogy meddig lesznek hibák.

A bejegyzés trackback címe:

https://jelenbolajovobe.blog.hu/api/trackback/id/tr4114495912

Kommentek:

A hozzászólások a vonatkozó jogszabályok  értelmében felhasználói tartalomnak minősülnek, értük a szolgáltatás technikai  üzemeltetője semmilyen felelősséget nem vállal, azokat nem ellenőrzi. Kifogás esetén forduljon a blog szerkesztőjéhez. Részletek a  Felhasználási feltételekben és az adatvédelmi tájékoztatóban.

Nincsenek hozzászólások.