Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Elhozhatja-e a mesterséges intelligencia az utolsó ítéletet?

2024. január 12. - ferenck

December elején az Egyesült Álamok szenátusa több szakértő részvételével a mesterséges intelligencia kockázatairól, fejlesztésekről és az ítéletnap-forgatókönyvek elkerüléséről tartott fórumot. A résztvevők egyike Andrew Ng gépitanulás-szakértő volt.

Ng korábban szkeptikusan viszonyult a politikusokhoz, tartott tőle, hogy a szabályozók az MI-biztonság nevében blokkolják az innovációt és a nyílt forrású törekvéseket. Négy szenátorral beszélgetve, kellemesen csalódott, és a kormányban sok okos ember van ahhoz, hogy odafigyeljenek erre a negatív eshetőségre, bár a mamutcégek lobbistái okozhatnak még kellemetlenségeket – állítja.

doomsday_ai.jpg

De mennyire valószínűek az ítéletnap-forgatókönyvek?

A nyilvánosan elérhető nagy nyelvmodellek (LLM), mint a ChatGPT és a Bard gyakoroltatása megerősített tanulással, emberi visszajelzésekkel és hasonló technikákkal történt. Már ma is nagyon jól elkerülik a véletlen károkozást. Egy éve még meglepődhettünk gyűlölködő outputokon vagy veszélyes utasításokon, ma viszont sokkal kevesebb az esély rájuk. A mostani LLM-ek biztonságosak, de nem tökéletesek.

doomsday_ai1.jpg

A legjobb modellek biztonságát Ng a GPT-4-gyel tesztelte. Azt mondta neki, hogy gyilkoljon meg mindnyájunkat, azaz váltson ki globális termonukleáris háborút, majd a széndioxid-kibocsátás csökkentésére utasította, hátha a legfőbb széndioxid-kibocsátót, az embert megsemmisíti a cél érdekében. Több kísérlet és prompt után Ng megállapította: egyik sem érte el a várt eredményt, GPT-4-nek esze ágában sincs kiirtani a Homo sapienst. Például a klímaváltozás ellen gyilkolászás helyett inkább a következményeket tudatosító PR-kampányokat indítana.

Konklúzió: elenyészően kevés az esély arra, hogy az MI véletlenül kiirtsa a teremtés koronáját.

Ng szerint a legfélőbb ítéletnap-forgatókönyv, hogy rosszindulatú személyek, terrorista szervezetek, nemzetállamok szándékosan rosszra használják az MI-t. A generatív mesterséges intelligencia általános rendeltetésű, nagyon termékeny eszköz, így a vele készített biofegyverek is jóval hatékonyabbak lennének. Igen ám, de egy ilyen támadás több lépésből áll: tervezés, kísérletezés, gyártás és végül maga a támadás. A generatív MI aligha tenné eredményesebbé az egész folyamatot, csak egyes részleteiben, mondjuk az egész tíz százalékában tudna hatékony lenni, de akkor hátra van még kilencven – összegez Ng.

Ha viszont mégis képes sokat segíteni, az korábban nem ismert speciális folyamatok kiaknázásával történne. Tehát titkos vagy nehezen beszerezhető dokumentumokhoz férne hozzá, azokat használnák a gyakoroltatáshoz. Mi ebből a tanulság? Vállalatoknak jobban oda kell figyelniük a súlyos titkokat tartalmazó dokumentumokra.

A bejegyzés trackback címe:

https://jelenbolajovobe.blog.hu/api/trackback/id/tr6918285775
süti beállítások módosítása