A mesterséges intelligencia utóbbi időben tapasztalt gyors fejlődése a területtel évtizedek óta foglalkozó szakembereket is annyira meglepte, hogy hajlamosak eltúlozni a veszélyeket. Kétségtelenül rejlenek benne kockázatok, de apokaliptikus jövőképek felvázolása helyett – James Cameron már a Terminátor-filmek legújabb darabját tervezi –, célszerűbb lenne azok átgondolt feltárása.
Két hete a safe.org az MI kockázatait a világjárványokéhoz és a nukleáris háborúéhoz hasonlító, nagy médiavisszhangban részesült anyagot tett közzé, amelyet a mélytanulás (deep learning) két úttörője, Yoshua Bengio és Geoffrey Hinton is aláírt. Soros György a technológiát ugyanolyan veszélyesnek tartja, mint az éghajlatváltozást és Oroszország Ukrajna elleni invázióját – „halálos fenyegetés a nyílt társadalomra.” Egyes ismert technológiai oldalak, mint a régebben referenciának számító Futurism szinte kizárólag csak az MI-t kárhoztató, „utolsóítélet-nap” cikkeket közölnek a témában, és például az OpenAI vezérigazgató Sam Altman-nek azt is felrótták, hogy csak most látta az MI-ről szóló (disztópikus) 2014-es Ex Machinát.
Hinton elmondta a BBC-nek, hogy megkérdőjelezi életműve értelmét, Bengio pedig reális veszélyre, Mi-vel történő vegyi fegyverek gyártására figyelmeztetett. Mi történik, ha hadseregek, terroristák, személyes bosszút tervező egyének ilyen célra használják? – teszi fel a kérdést. Szerinte a kormányoknak regisztrálnia kellene a fejlesztőket, és ugyanúgy figyelni, felügyelni a munkájukat, mint ahogy a gyógyszer- és a légjármű-ipari vállalatokkal teszik. Számítástudományi szakembereknek képesítéssel járó etikai tréningen kellene átesniük. Egy blogbejegyzésben a saját céljait követő MI-ről is írt, májusban pedig az MI Biztonsági Központ a mesterséges intelligencia akár az emberi faj kipusztulásáig vezető működésével riogató közleményét írta alá.
Andrew Ng, az egyik legelismertebb gépitanulás-szakértő és a józan hangok egyike múlt heti hírlevelében megemlítette, hogy nehezen tudja elképzelni, miként jelenthet az MI az emberiség pusztulásához vezető veszélyt. Az előítéletek, az elfogultság, a pontatlan outputok, állások megszűnése, a hatalomkoncentráció valós problémák, viszont mindezek ellenére, az MI a társadalom előnyére válik. Javít az egészségügy és az oktatás minőségén, biztonságosabbá teszi a járműveket, hozzájárul az egészségesebb táplálkozáshoz, javakat és szolgáltatásokat tesz elérhetőbbé, demokratizálja az információhoz való hozzáférést.
Ng nincs egyedül.
Chris Manning, ausztrál gépitanulás-szakértő szerint az MI-közösség nagy része, a csendes többség hasznos szoftvereket fejleszt, és nem osztja a „hangos MI Biztonság tömeg” kipusztulásos rémképeit. A kockázatokat eltúlozzák – jelentette ki.
Emily Bender, amerikai nyelvész a valós kockázatoktól (diszkrimináció, megfigyelés, információs ökoszisztéma szennyezése, adatlopás, munkaerő kizsákmányolása) való elterelést lát az „MI-ítéletnap” indokolatlan túlhangsúlyozásában.
„Az MI-átokban hívés (doomerism) csali” – írja Matteo Wong, a The Atlantic tudományos, technológiai és egészségügyi szerkesztője. A szabályozók rengeteg időt töltenek el azzal, hogy megakadályozzák a mesterséges intelligenciát autonóm nukleáris fegyverek gyártásában, pedig egyetlen atomhatalom sem tervez még ilyet. Ezt az időt célszerűbb lenne az adatok és a személyiségi jogok védelmével, vagy az MI átláthatóságával és a trösztellenességgel tölteni – javasolja.
A világháló őskorának egyik hőse (a Netscape társalapítója, az első széles körben használt webböngésző, a Mosaic társfejlesztője stb. stb.), Marc Andreessen az MI előnyeiről írt tanulmányt. Minden egyes új technológia megjelenésekor előrejelezhető módon kitört a morális pánik: a liftek agylázat okoznak, az autók elpusztítják a világot, a rögzített hanganyagok ártanak a csecsemőknek és így tovább. A mélytanulás kezdetén, tíz éve Elon Musk és Stephen Hawking figyelmeztetett az MI veszélyeire.
Most ugyanaz folyik, mint tíz éve, csak több neves tudós is fél – fűzi hozzá Ng.
A vita nyilván sokáig folytatódik.