Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Az OpenAI megújította biztonsági protokollját

2024. január 30. - ferenck

A mesterséges intelligencia döbbenetesen hatékony technológia, teljes hatáskörét, következményeit viszont nem lehet pontosan előrejelezni. Az OpenAI a kezdetek óta folyamatosan és tudatosan komoly összegeket fektetett MI-biztonságba, gyakorlata más fejlesztőket is befolyásol.

A tavaly év végi káosz, Sam Altman vezérigazgató kirúgása, majd újbóli pozícióba helyezése bizonytalanságot okozott a cég biztonsági és vezetési stratégiájával kapcsolatban. Átlátható és egyértelmű protokollok megakadályozhatják a jövőbeli hasonló helyzetek kialakulását, felhasználók, alkalmazottak és befektetők számára egyaránt stabil szervezet benyomását kelthetik.

openai_new.jpg

A novemberi káosz óta az OpenAI új kereteket dolgozott ki a modellek potenciális veszélyeinek kiértékelésére, használatuk esetleges korlátozására.

A biztonsági keretben újraszervezik a meglévő csoportokat, újakat hoznak létre, átgondolják a vezetőség hatalmi pozícióját.

A Felkészülési Csoport felelős a modellek kiértékeléséért, a Biztonsági Tanácsadó Csoport átnézi az előbbiek munkáját. Tagjait a vezérigazgató nevezi ki egy évre, és amennyiben szükséges, ajánlásokat fogalmaz meg a modellek telepítési módszerére. Jogában áll jóváhagyni és áttekinteni az ajánlásokat, és ha kell, felülbírálhatja a Biztonsági Tanácsadó Csoport javaslatait, míg az igazgatótanács őt bírálhatja felül.

A Felkészülési Csoport négy kockázatkategória alapján pontoz minden egyes modellt: lehetővé tesznek-e, növelhetnek-e cyberbiztonsági fenyegetéseket, segítenek-e tömegpusztító fegyverek létrehozásában, autonóm működnek-e emberi felügyelet nélkül. Az aktuális és új kutatások függvényében változtathatnak a kockázatkategóriákon, és új kategóriákat is kitalálhatnak.

A modelleket négy szint alapján pontozzák: alacsony, közepes, magas, kritikus. A kritikus emberfeletti képességekkel rendelkező, vagy a leállításának ellenálló modellekre vonatkozik. Mindegyik modellt kétszer pontozzák: először gyakorlás után, másodszor pedig akkor, amikor a fejlesztők már korlátozták a kockázatokat. Az OpenAI a korlátozás előtt nem hoz nyilvánosságra, nem tesz közkinccsé magas vagy kritikus kockázatú modelleket, a korlátozás után pedig közepeseket sem.

A bejegyzés trackback címe:

https://jelenbolajovobe.blog.hu/api/trackback/id/tr6318311175
süti beállítások módosítása