Médiatartalmakat generáló modellek egyre gyakrabban használnak mesterséges intelligenciát. A fejlődés gyors és izgalmas, viszont komoly kérdéseket is felvet: hogyan maradhat a tartalom korrekt, miként kerülhetők el, illetve csökkenthetők a károk, milyen szabályozásra van szükség?
A kínai kormány egy ideje kifejezetten proaktív a potenciálisan kárt is okozó generatív MI-alkalmazások korlátozásában. Máshol kevésbé proaktívan, az oktatás, a művészetek, kulturális és gazdasági területek „megzavarásáért” kárhoztatják ezt a fajta mesterséges intelligenciát.
Kína legújabb lépése, hogy az ország Cybertér Hatósága a szintetikus médiát szabályozó, az eddigi tendenciát megerősítő, az MI-használatot szigorító új támpontokat dolgozott ki. A kamuképeket és videókat (deepfakes), a dezinformációt hátra szorítandó, a felhasználóknak egyébként eddig is saját néven kellett regisztrálniuk, és a hamis hírek (fake news) terjesztőit börtönbüntetésre is ítélhetik.
A deepfakes jelenséget máshol is igyekeznek minimalizálni. Az USA egyes államai szintén szigorítottak, és 2022-től az EU is a dezinformáció felcímkézésére, az azokat terjesztők hirdetési bevételeinek korlátozására kötelezi a közösségimédia-cégeket.
A január tizedikén törvényerőre emelkedett új kínai szabályozás sokkal szigorúbb, tényleg jelentősen korlátozza a mesterséges intelligenciával történő szövegek, hanganyagok, képek, videók, 3D digitális anyagok készítését, szerkesztését, az úgynevezett „mélyszintézis-szolgáltatásokat.”
MI-vel nem hozható létre a nemzetbiztonságot veszélyeztető, a gazdasági és a társadalmi rendet megzavaró, Kína összképére káros output. Az arcokat generáló és szerkesztő MI-modellek szolgáltatóinak az illető személyek engedélyére és azonosításukra szükségük van a képek stb. gyakorlóadatokként történő használatához.
A szolgáltatóknak egyértelműen fel kell címkézniük a nyilvánosságot hamis információval megtévesztő, félrevezető MI által létrehozott médiatermékeket. A modelljeik által generált hamis információt el kell tüntetniük, az incidensekről értesíteniük kell a hatóságokat, és a törvénysértéseket rögzíteniük kell.
Az algoritmusok időszakonkénti felülvizsgálata szintén kötelező.
A kormány és a hatóságok saját vizsgálatokat folytathatnak, a szolgáltatók új felhasználók regisztrálásának megtiltásával, a szolgáltatás felfüggesztésével, vagy a vonatkozó törvények szerinti büntetőjogi eljárásokkal sújthatók.