A generatív mesterséges intelligencia gyors térnyerésével párhuzamosan nő a technológia szabályozását követelők tábora. Az egyre hangosabb kórus a fejlesztőcégeket önkéntesen felállított korlátok elfogadására és újabb modellek kidolgozására ösztönzi.
Kína már januárban törvénybe foglalta az MI-vel létrehozott médiaanyagok címkézését és a hamis infókat terjesztő, illetve a nemzeti biztonságot veszélyeztető outputok betiltását.
António Guterres ENSZ-főtitkár támogatja az MI-re irányelveket kidolgozó, a Nemzetközi Atomenergia Ügynökséghez hasonló szervezet létrehozását.
Az Európai Parlament júniusban MI-törvénytervezetet fogadott el, és így az Unió közelebb került a terület szabályozásához. A folyamatosan módosuló vázlatban a generatív MI-alkalmazásokat „magas kockázatúakként” írják le, ezért rendszeres auditjukra és kormányzati ellenőrzésre lesz szükség.
Egyes amerikai városok és szövetségi államok részlegesen ugyan szabályozták a területet, de nemzeti szintű, átfogó szabályozás nincs még. Ha a vállalatok jóhiszeműen betartják az önkéntes irányelveket, elkerülik a rejtett buktatókat, enyhíthetik a rájuk nehezedő nyomást, és megakadályozhatják, hogy felülről ellenőrizzék, irányítsák a technológiai fejlesztéseket, alkalmazásokat.
Hét nagyvállalat (Amazon, Anthropic, Google, Inflection, Meta, Microsoft, OpenAI) ebben a szellemben gyűlt össze, és ült le tárgyalni a Biden-adminisztrációval, és együtt fogalmazták meg a megállapodás feltételeit. A közösen kidolgozott irányelvek három kategóriába sorolhatók.
A „biztonságosság” lényege, hogy a cégek megígérték: megjelenés előtt független szakértők tesztelhetik MI-rendszereiket, a potenciális biztonsági sebezhetőségeket megoszthatják a kormánnyal, tudományos körökkel és a civil társadalommal.
A „biztonságra” vonatkozóan, a vállalatok ígéretet tettek a cyberbiztonsági fejlesztések növelésére, különös tekintettel a szabadalmaztatott modellek védelmére, a felhasználók pedig beszámolhatnak a rendszerek általuk tapasztalt sebezhetőségeiről.
A „bizalom” keretében a cégek nyilvánosan beszámolnak modelljeik képességeiről, korlátairól, kockázatairól, előnyben részesítik a lehetséges társadalmi károkkal foglalkozó kutatásokat, és az emberiség legnagyobb kihívásaira, például a klímaváltozásra választ adó rendszerek fejlesztése lesz a prioritás. Mesterséges intelligencia által generált kimeneteket azonosító technikákra, például vízjelek használatára is ígéretet tettek (ez a legkonkrétabb vállalás).
Az irányelvek betartására tett ígéretek még akkor is az MI előnyeinek maximalizálása, kárainak minimalizálása felé tett lépés, ha egyes vállalatok már most megfelelnek a követelményeknek.