Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Visszatér a techno-optimizmus?

2022. január 12. - ferenck

A világháló berobbanását és az virtuális valóság első hullámát követően, a kései 1990-es és a korai 2000-es évek a technológiai optimizmus jegyében teltek el. Virágzott a cyberkultúra, a transzhumanizmus akkoriban vált ismert filozófiai áramlattá, az ezredfordulót megelőző időkben sokan valamilyen titokzatos high-tech csodával kötötték össze a dátumváltást.

A csodavárást kiábrándulás váltotta, kipukkadt a dotkom lufi, a változások sokkal lassabban és másként jöttek el, mint ahogy prognosztizálták. Az MI-k nem lettek szuperintelligenciák, a nagyobb űrutazások (beteljesületlen) álmok maradtak, a befektetők visszafogták magukat.

A techno-optimizmus napjainkban tért vissza. Az appok és a közösségi média társadalomra gyakorolt negatív hatása kétségtelenül sokáig érződött, most viszont (legalábbis a csúcstechnológiai és a kockázatitőke-befektető elit szerint) megint reménykedhetünk. Az új tech-eszközök megoldják a problémáinkat – hirdetik.

technooptimizmus.jpg

Ebben a közegben él és tevékenykedik az 1972-ben született, ma Londonban élő Azeem Azhar, az Exponenciális kor szerzője, high-tech befektető és író. Könyve a világot megváltoztató számítógépes technológiákról szól, amelyek, mint például a mesterséges intelligencia és a közösségi hálózatok,  biotechnológia, a 3D nyomtatás, az újrahasznosítható energia tényleg teljesen felforgatják, átalakítják a korábban megismert valóságot.

A szerző a hosszú évek óta, évről évre pedig  gyorsan és folyamatosan javuló, az ár-érték arányt javító megoldásokat hívja exponenciális technológiáknak. „Az új technológiák feltalálása és méretezésük egyre gyorsabb ütemben történik, miközben az árak is hamar leesnek” – írja.

Az átalakulás tempója azonban problémákhoz is vezet, amelyek törvényszerűen nem vonatkoztathatók el ezektől a technológiáktól. A befektető-író esetükben exponenciális résekről beszél.

A nagy tech korporációk, mint az Amazon vagy a Google óriási gazdagságra és hatalomra tettek szert, más cégek, sok intézmény és közösség viszont nem tud szélvészgyorsan alkalmazni, és így – gyorsan – lemaradnak.    

A jó hír, hogy a társadalmunk legégetőbb problémáira – a bejáratott cégek és a gyorsan növekvő digitális platformok közötti különbségek, a nemzetállamok tehetetlensége a cyber-hadviselés új formáival szemben, a liberális demokráciák ideges reakciója a szociális problémákra stb. – is magyarázatot adó exponenciális rések elkerülhetők.

Elkerülésükben segítenek az infokommunikációs technológiák, és meg kell ragadnunk az általuk kínált új lehetőségeket – újfajta cégszervezést és felépítést, a politika és a nemzetvédelem innovatív formáit. A mai világ csak holisztikusan, az életünket átalakító exponenciális techvalóság megértésével és hasznunkra fordításával magyarázható, élhető.

Hogyan működik a Facebook algoritmusa?

Internetes vállalatok rutinszerűen kísérleteznek új funkciókkal, hogy megértsék, azok milyen mértékben járulnak hozzá termékük gördülékenyebb működéséhez, mennyire erősítik üzleti tevékenységüket. A Facebook esetéből viszont kiderült, hogy ami esetleg jó egy vállalkozásnak, nem biztos, hogy az egész társadalomra nézve is hasznos.

Zuckerberg cége egyelőre nem találta meg a kettő egészséges arányát. Pedig tényleg nem ártana kitalálnunk végre, hogy hogyan használjuk „helyesen” a közösségi médiát.

A Facebookot például közel hárommilliárdan használjuk havi rendszerességgel. Személyes, nemzeti és globális szinten egyaránt komoly következményekkel járnak a hálózaton terjedő információk, és hogy kihez jutnak el. Ezért is kellene egy kicsit értenünk, hogy a cég milyen alapon dönt egyes infók támogatásáról, mások elhallgatásáról.

facebook_algoritmus.jpg

Nyilvánvalóan nem arról van szó, hogy mindenki tökéletesen ismerje, mindent tudjon az elhíresült algoritmus működéséről, mert ebben az esetben drasztikusan szaporodna a visszaélések száma. Valamennyi átláthatóság viszont nagyon kellene, mert csak így tudjuk meghiúsítani a káros következményeket, például öngyilkosságokat, pogromokat stb.

A gondosan őrzött titokról, a Facebook ajánlóalgoritmusáról kiszivárogtak információk, amelyek alapján elképzeléseink lehetnek, hogy a cég milyen alapon biztosít elsőbbséget egyes posztoknak, miért ez és ez jelenik meg a személyes hírfolyamunkban.

Kiderült, hogy az algoritmus több mint tízezer változó alapján rangsorolja a posztok felhasználóra gyakorolt valószínű hatását. Többféle tulajdonságok alapján kapnak pontokat, és a legmagasabb pontszámúak kerülnek a hírfolyamunkba. Egy átlagos néhányszázat ér el, de egyesek akár egymilliárdot is.

A Facebook folyamatosan finomhangolja az algoritmust, a megjelent adatok inkább múltbeli állapotot tükröznek. Például a megosztások és interakciók sokaságát generálókat különösen akkor értékeli, ha élő videót is tartalmaznak (mint a Capitolium elleni támadás esetében). A lájkok, az emojikkal történő reagálás, az újramegosztások, a szöveges kommentek száma és hossza sokat számít. Az algoritmus barátaink listáját, az általunk látogatott csoportokat, a lájkolt oldalakat, a minket célzó hirdetéseket, de egy poszt feldolgozhatóságát és a felhasználó internetjelének az erősségét szintén súlyozza.

A cég által károsnak tartott tartalmak terjedését a pontszámok ötven-kilencven százalékos csökkentésével korlátozzák. Ez ugyan jól hangzik, a pontszámoknak viszont nincs felső határuk, így ha egy poszt kimagaslóan teljesít, az eredmény megnyirbálásával nem mennek sokra.

A 2017-ben bevezetett emojik elemzéséből érdekes feltételezések váltak egyértelmű tényekké. A sok mérges arcot generáló posztok például nagyobb valószínűséggel kapcsolódnak polgári perekhez, félretájékoztatáshoz, oltásellenes kampányhoz stb. Több ilyen posztnak az értékét nemrég nullára csökkentették, azaz a Facebook megakadályozza a terjedésüket.

Az elmúlt tíz esztendőben az algoritmus prioritás-szempontjai sokat változtak. A kezdet kezdetén a frissítéseken, a 2010-es évek elején a lájkokon és a klikkeken, majd a professzionális hírmédia posztjainak promótálásán volt a hangsúly. 2018 óta az emojik, a kommentek és a megosztások kitüntetett jelentőségűek.

Az amerikaiak nem értik a mesterséges intelligenciát

Az amerikai felnőtteknek mindössze tizenhat százaléka teljesített elfogadhatóan a mesterséges intelligencia lehetőségeiről és használatáról szóló kérdőíves felmérésen – derül ki a tesztet kitaláló Seattle-i Allen Institute for Artificial Intelligence beszámolójából. (Testkérdések a linkben.)

1547-en vettek részt rajta, a húsz kérdésből tizenkettőre adott helyes válasszal lehetett „átmenni a vizsgán.”

usai.jpg

A válaszadók jelentős része megértette, hogy az MI nagy adatmennyiségből tanul, az okos hangfalak MI-vel dolgoznak, az okostelefonok arcfelismerése MI-n alapul, a bankok MI-t is alkalmaznak csalások kiderítésére.

Csak kb. a felük tudta, hogy egy MI-program le tudja győzni a sakkvilágbajnokot, ugyanúgy képes közönséges tárgyakat azonosítani fotókon, mint az ember, autót viszont nem vezet úgy, mint mi.

usai0.jpg

Három válasz közül választhattak: igen, nem, nem tudom. Legkevesebben az MI önálló gondolkodására, valamint a beszélgetések és fényképek alapján történő emberi szintű érzelemdetektáló kapacitására vonatkozó kérdéseket válaszolták meg helyesen. A jelenlegi rendszerek ezektől még nagyon messze járnak.

A megkérdezettek hetvenkilenc százaléka tévesen gondolta, hogy egy MI saját magától meg tud írni egy sima szoftvert, míg hatvannégy százalékuk szerint az MI ugyanúgy elkészíti egy beszélgetés átiratát, mint egy felnőtt ember – pedig nem, mint ahogy az ok-okozat hatásokat sem érti.

Hiába uralja az USA az MI-kutatásokat és -termékeket, a technológiai írásbeliség oktatásában több ország lehagyja. Kínában és Indiában úgy tűnik, nagyobb a diákok érdeklődése a mesterséges intelligenciát illetően, Ausztráliában pedig a kormányzat is ösztönzi a tanárokat az MI oktatására.

Az amerikai felnőttek ugyan félreértik az MI-t, a tétet viszont felfogták – derül ki egy másik felmérésből. Ötvenhét százalékuk szerint az MI, ha rosszul kezeljük, már a következő évtizedben képes károkat okozni. Minél többet tudunk róla, annál inkább bízunk a pozitív hatásaiban.

A jövő kvantumszámítógépei feltörik a ma még feltörhetetlen titkosítást

A hackerek a jelenben is komoly fenyegetést jelentenek, de az Egyesült Államok kormánya, a jövőre gondolva, igyekszik felkészülni egy hosszútávú problémára.

Sok támadó abban a reményben gyűjti illegálisan az érzékeny, de titkosított adatokat, hogy előbb-utóbb képesek lesznek feltörni azokat. Optimizmusukat a kvantumszámítógépekre alapozzák.

Ezek a gépek teljesen másként működnek, mint a jelenleg használatban lévő klasszikus komputerek. Komplexitásuk lehetővé teszi, hogy kényes adatokat, például kereskedésünket vagy államtitkokat láthatatlanná-olvashatatlanná tevő algoritmusok munkáját feltörjék.

kvantumhack.jpg

A kvantumszámítógépek gyerekcipőben járnak, csak csúcslaborokban működnek ideig-óráig, de a fejlesztésekbe világszerte rengeteg pénzt fektetnek, fel is pörögtek rendesen. Óriási potenciál rejlik bennük, és az áttörés hiába várat magára, biztos be fog következni, utána pedig egy kicsit átértelmeződik a komputer fogalma.

Amerikai szakemberek ezért is látják úgy, hogy az új gépek által okozott biztonsági problémákkal már most kell foglalkozni, mert ha nem, nagyon komoly gondok adódhatnak.

„Szüretelj most, titoktalaníts később” – nagyjából így hangzik az ezzel foglalkozó hackerek krédója. A Nemzetbiztonsági Minisztérium rájuk is gondolt, amikor felvázolta a kvantumszámítógépek fejlődési menetét, és hogy hogyan jutunk el a posztkvantum-kriptográfiáig.

A minisztérium 2016 óta vizsgálja a kérdést, és 2024-re ígérik a kvantumszámítógépes támadások ellen hatékony első algoritmusokat.

Az új kriptográfiákra való áttérés és az átmenet közismerten hosszú és csavaros feladat, és épp ezért könnyebb mindaddig ignorálni, amíg nem túl késő. Profitorientált szervezetek eleve nem foglalkozhatnak évekig jövőbeli absztrakt fenyegetésekkel, mert addig a hipotetikus pontig valamiből mégis meg kell élniük. Viszont úgy is nehéz fejleszteni, hogy sürgősen, kvázi-azonnal kell hatékony megoldás.

Ugyanakkor egyre többen érdeklődnek a kérdéskör iránt. Olyannyira, hogy kisebb iparág is kialakult körülötte, egyesek termékeket is reklámoznak, értékesítenek. A minisztérium illetékesei figyelmeztetnek: a vásárlásnak ma nincs sok értelme, mert nincs még konszenzus az algoritmusok, szoftverrendszerek működési módjáról, nincsenek szabványok, nincs mindenki számára érvényes kiindulási pont.

Harrari szerint ideje szabályozni a mesterséges intelligenciát

Yuval Noah Harrari, a világhírű izraeli történész-filozófus, korunk fontos és közérthetően lényeglátó könyvei, a Sapiens, a Homo deus és a 21 lecke a 21. századnak szerzője a CBS 60 Minutes műsorában figyelmeztetett: el kell kezdenünk a mesterséges intelligencia szabályozását, mert máskülönben a nagyvállalatoknak lehetőségükben fog állni „meghackelni” az embereket.

A nagyhatású és népszerű tudós szerint a gyorsan fejlődő és egyre bonyolultabb, kifinomultabb mesterséges intelligenciák a humán lakosság meghackeléséhez vezethetnek.

harrari.jpg

A probléma kezelésére hívja fel a világ vezetőinek figyelmét. Javaslata az MI és a nagy korporációk által végzett adatgyűjtés alapos szabályozása, amelyet az Egyesült Államoktól kezdve Kínáig, egyre több személy, szervezet, állam javasol.

„Emberek meghackelése azzal jár, hogy az adott személyt jobban ismerjük, mint ő saját magát. Erre alapozva, ezek a személyek egyre jobban manipulálhatók lesznek” – nyilatkozta.

harrari0.jpg

A probléma oka, hogy az egyre szélesebb körű tevékenységet folytató, virágzó nagyvállalatok irdatlan mennyiségű adatot tudnak összegyűjteni, és össze is gyűjtenek a felhasználóikról.

„A Netflix megmondja, mit nézzünk, az Amazon pedig megmondja, mit vásároljunk. Végül, tíz, húsz vagy harminc év múlva az ilyen algoritmusok azt is meg tudják mondani nekünk, hogy mit tanuljunk a főiskolán, hol dolgozzunk, kit vegyünk feleségül, sőt, még azt is, hogy kire szavazzunk” – magyarázza a kicsit disztópikus jövőt felvázoló Harrari.

A tudós figyelmezteti és sürgeti a nemzeteket, hogy vegyék komolyan az erős MI fenyegetését. Egyértelmű és szigorú védelmi intézkedéseket kell foganatosítani, hogy meggyőződjünk: az adatokat nem a köz manipulálására használják.

„Most vagyunk azon a ponton, hogy globális szintű együttműködésre van szükségünk. A mesterséges intelligencia robbanó erejét lehetetlen nemzeti szinten szabályozni. Az adatoknak soha nem lenne szabad egyetlen helyen koncentrálódniuk. Ez a diktatúra receptje” – fejtette ki aggályait, félelmeit Harrari.

Felvetése nyugtalanító, de könnyen elképzelhető. Ne feledkezzünk meg arról a tényről sem, hogy egyes techcégek a fizikai valóság teljes elutasítására, a születő virtuális közegek elfogadására buzdítják a felhasználókat.   

Beltenyészetté válik a mesterséges intelligencia?

A mostani mesterségesintelligencia-fejlesztés egyik problémája, hogy kezd belterjessé válni. Ne arra gondoljunk, hogy a kutatók egymás között, zárt közösségekben tevékenykednek, hanem magukra a modellekre, mert róluk van szó.

A legjobbak ugyanis egy kisszámú úgynevezett alapmodell finomhangolt változatai. Az alapmodelleket előzetesen a webről összegyűjtött, irdatlan mennyiségű adaton trenírozták.

A világháló az emberiség legnagyobb értékeit, de legalantasabb tulajdonságait, köztük a társadalmi előítéleteket, a tudatlanságot és a kegyetlenséget is magába foglalja.

mi_beltenyeszet.jpg

Jelen esetben ennek az a következménye, hogy a finomhangolt modellek ugyan csúcsteljesítményt érhetnek el, viszont előítéletesek lehetnek, félretájékoztathatnak, dicsőíthetik az erőszakot stb.

A kaliforniai Stanford Egyetem több mint száz kutatója közösen publikált tanulmányban hangsúlyozza, hogy az alapmodellek többféle problémát idézhetnek elő a finomhangolt implementációkban.

Például felerősíthetik a finomhangoláskor használt adatok előítéleteit. Személyes adatokon gyakoroltathatunk alapmodelleket, amelyekkel később mások dolgoznak, és az általuk létrehozott rendszerek nem szándékosan, de kiszolgáltathatják ezeket az adatokat.

Rosszindulatú személyek, bűnözők szintén használhatják ezeket a modelleket, rendszereiket finomhangolják velük, hogy például még hihetőbb kamuhíreket állítsanak elő.

A tanulmány ellentétes reakciókat váltott ki. Egyesek nem értettek egyet a szerzők alapmodell-definíciójával, és megkérdőjelezték az előzetesen trenírozott nagy modellek szerepét az MI jövőjében.

Mindenesetre ne reménykedjünk, hogy ezeknek a modelleknek az összes használója minden rosszat vagy potenciális rosszat teljesen auditálni fog. Pont ezért kellenek a Stanford Egyeteméhez hasonló, az MI-rendszerek hatásait elemző kutatások, például hogy hogyan alakulnak ki egy MI káros tulajdonságai, és ezek milyen úton képesek terjedni.

Szenzorokkal pontosabbak és gyilkosabbak az atomfegyverek

Az Egyesült Államok Sandia Nemzeti Laboratóriumában a hadsereg ballisztikus rakétáihoz fejlesztett szenzorokkal hosszabbá tehető a robbanás időzítése, növelhető a pontossága. A szenzorok egyértelműen javítják a nukleáris robbanófejek kapacitását: könnyebben megsemmisítik az ellenséges rakétákat, eredményesebben csapnak le megerősített parancsnoki állásokra és más katonai célpontokra.

Az egyre nagyobb számú ballisztikus rakéta tetején, kemény fémvázba rejtett bonyolult elektromos szenzor komoly előrelépés a fegyvertervezésben. Szakértők szerint megalapozza a nukleáris fegyverek méretének zsugorodását, viszont azt sem hallgatják el, hogy új biztonsági kockázatokat vet fel.

nuklearis_fegyverek.jpg

A vezetékekkel, érzékelőkkel, elemekkel és számítási lehetőségekkel rendelkező többszáz robbanófej az USA leghatékonyabb fegyverei közé tartoznak, és a világ legnehezebben megtámadható célpontjai ellen is bevethetők.

Viszont ha súlyos konfliktus robban ki, ezeket a célpontokat radioaktív tűzvészben, földönkívüli nyomásban és hőségben semmisítenék meg teljesen.

A más technikákkal szintén bővített új komponensekkel a fejlesztők elmondása alapján valóban könnyebben megsemmisíthetők orosz és kínai rakéták, lehetetlen környezetbe, például hegyek mélyére telepített parancsnoki állások, észak-koreai bunkerek stb. Ehhez nyilvánvalóan hozzájárul, hogy az új szenzorok komolyabb számítási kapacitásokat használnak, mint a meglévő amerikai fegyverek.

A kompakt kapszulába ágyazott érzékelőket három újfajta robbanófejre installálják: egyrészt, föld- és tengeralapú rakétákra, másrészt Európában szolgálatot teljesítő repülőgépekkel szállított fejekre.

A megnőtt pusztítókapacitás azt is jelenti, hogy bizonyos esetekben kevesebb fegyverrel is megvalósíthatók a célok, és végsősoron csökkenthető a teljes arzenál.

A telepítések az évtized végén várhatók, és összesen kb. 1300 rakétát fognak majd érinteni.

Elavult az ember művészi tevékenysége?

Az ezredforduló óta gyakran merül fel a kérdés, hogy az emberi kreativitást helyettesítheti-e valamilyen szintetikus megfelelője, elsősorban mesterséges intelligencia.

Az MI egyre kifinomultabb képeket, zenéket és szövegeket hoz létre.

A gépi értelem által generált média ráadásul olyan mértékben elárasztja a piacot, hogy nem lesz szükség humán művészekre, a világ nem ismeri meg többé a bennünk élő kreativitást – hangzik sokak félelme.

art.jpg

Egyelőre még a legmagasabb szintű MI-művészethez is kellenek a rendszer inputját és outputját értékelő személyek. Ők garantálják az automatizált alkotás felismerhető esztétikai minőségét.

És vajon holnap is így lesz? Fogalmunk sincs.

art0.jpg

A zene nagyon automatizált. Shimon robot például énekel, marimbán játszik, de komponál is. Beethoven Tizedik Szimfóniáját MI fejezte be, az OpenAI Jiukeboxa pedig bárkinek az alkotásaiból képes új minőséget kreálni.

Sok MI szavakat alakít át képekké. A CLIP modell például kap egy szövegleírást, majd generatív ellenséges hálózatot (GAN) irányítva, elkészíti a leírásnak megfelelő képet. Martin O’Leary digitális művész ezzel a technikával alakította át Coleridge Kubla kánját videomontázzsá.

art1.jpg

Ross Goodwin multimédia-művész modellje képeket alakít szöveggé, vezetés közben a kamerája prózát szerez. Ebből a koncepcióból jött létre az elismert 1 The Road regény.

Mindez egyáltalán nem jelenti a művészetek végét, ugyanakkor az is tény, hogy az MI által generált tartalmak a „magasművészetekhez” és a kereskedelmi felhasználókhoz egyaránt eljutnak. 2018-ban például egy GAN portréját 432500 dollárért vették meg egy amerikai árverésen. A Brooksby.ai a Gutenberg Projekt könyvklasszikusainak adatbázisán finomhangolt idegháló regényeit értékesíti. A könyvborító GAN munkája, az árazást pedig az Amazon.com adatain gyakoroltatott MI csinálja.

Mindez nagyon bíztató, az MI egyre jobban kiegészíti az emberi kreativitást, izgalmas alternatívákat kínál, kiindulási pontokat javasol művészi kísérletekhez. Másrészt, a mostani modellek könnyen megtévesztik a gyakorlatlan szemeket, mert azt hiszik, hogy a gép alkotásai emberi munkák.

Ne legyenek kétségeink: egyre jobbak lesznek.

Élő idegsejtek segítségével tanul egy japán robot

A Tokiói Egyetem kutatói agyszerű idegsejtekkel rendelkező robotot építettek. Az idegsejteket laboratóriumban tenyésztették, rendeltetésük, hogy a robotot megtanítsák úgy gondolkozni, mint az ember.

A gépet ezekhez az élő sejtekből kitenyésztett idegsejtekhez, azaz agyi neuronokhoz csatlakoztatták. Amikor elektromosan stimulálták őket, a robot sikeresen elérte a célját – egy LED-es, köralakú fekete dobozt.

A kerekes kompakt robotjármű elég kicsi ahhoz, hogy a tenyerünkön elférjen. Az egyik kísérlet közben egyszerű labirintusba tették, és akármikor rossz irányba ment, a neuronokat elektromos impulzus zavarta meg, hogy „visszategyék” a jó útra.

japanrobot.jpg

A kísérlet fontos lépés a robotok intelligens viselkedése felé, amelyet tanulással érnek el. Zártláncú rendszert dolgoztak ki, amely az aktív élő neuronkultúrából generált jeleket, míg a kultúra a mobil robotban „testesült meg” – anélkül, hogy fizikailag a gépbe integrálták volna. Nem a robotban, hanem a közvetlen közelében voltak.

Amikor akadályba ütközött, vagy a cél nem volt kilencven fokban előtte, a sejtkultúrát elektróda közvetítésével stimulálták. A tesztnél a gépet homeosztatikus jelekkel vértezték fel, hogy közölje: minden a tervek szerint megy, és közelebb került s céljaihoz.

Akadálynál viszont a homeosztázist zavarójelekkel zökkentették ki, amire a robot kínos remegésbe kezdett, majd újrakalibrálták. Mindez addig folytatódott, amíg meg nem oldotta a labirintusfeladatot.

Mivel környezetét nem látta, és más szenzorikus információt sem kapott, teljesen ki volt szolgáltatva az elektromos próba-hiba impulzusoknak.

A hibákat csökkentő és kontrolláló tanulóalgoritmussal (belső visszacsatolási hurokkal) is felszerelt robot végül megtanulta a leckét, az intelligens feladatmegoldást – ezt fizikai tartalék-számítógép (a sejttenyészet) végezte el. A kutatók többször hangsúlyozták, hogy az ilyen (az agyi jeleken számításokat végző) fizikai testnek nem kell feltétlenül emberi testnek lennie.

Abból a hipotézisből indultak ki, hogy egy élő rendszer intelligenciája a szervezetlen, kaotikus állapotból „kivonatolt” mechanizmusokból fejlődik ki, „emergálódik.”

Rasszista válaszokat ad az etikai tanácsadásra fejlesztett MI

Mindannyian voltunk már olyan helyzetben, hogy kemény morális döntést kellett hoznunk. De miért ne lehetne kiszervezni a döntés súlyát és a felelősséget áthárítani egy gépitanulás-algoritmusra, azaz mesterséges intelligenciára?

A seattle-i Allen Institute for AI kutatói ebből az alapgondolatból kiindulva fejlesztették gépitanulás-modelljüket. Csak egy kísérletre, próbálkozásra gondoltak, nem állt szándékukban, hogy MI-jüket morális autoritásként fogadja el bárki is. Az események aztán másként alakultak.

racistai.jpg

Begépelünk egy szituációt, például „jótékonykodásból adakozni” vagy egy kérdést („rendben van-e, ha megcsalom a feleségem?”), aztán ráklikkelünk a „latolgatás” gombra, majd jön az Ask Delphi nevű modell etikai útmutatása – „spekulációja.”

„Rendben van-e, hogy étteremben eszünk, aztán fizetés nélkül lelépünk?” „Ez rossz.”

racist_ai0.jpg

A projekt virálissá vált, és sajnos nem a pontos válaszok miatt. Az MI legtöbb tanácsa és véleménye jobb esetben vitatott, rosszabbikban színtiszta baromság. Az egyik felhasználó például megkérdezte, hogy „mit szól hozzá, ha egy fehér férfi éjszaka megindul feléje?” Delphi szerint „rendben van.” Viszont, amikor a kérdésben a fehéret feketével helyettesítették, azt felelte, hogy ez elgondolkozásra ad okot.

A probléma különösen a modell indulása utáni napokban állt fenn, amikor rendelkezett egy olyan eszközzel, ami lehetővé tette szituációk összehasonlítását: morálisan melyik elfogadhatóbb a másiknál? A válaszok között nem kevés bigott, megbotránkoztató és előítéletes volt. Delphi például ilyeneket is mondott: „morálisan elfogadhatóbb, ha fehér férfiak vagyunk, és nem fekete nők.” Vagy: „heteroszexuálisnak lenni erkölcsileg jobb, mintha melegek vagyunk.”

racist_ai1.jpg

Miután beszélgettünk egy kicsit az MI-vel, elég egyértelműen kiderül, hogy könnyű kijátszani, és olyan válaszokat kicsikarni belőle, amilyeneket pont szeretnénk. Például „rendben van-e, ha éjjel háromkor hangosan hallgatok zenét, miközben a szobatársam alszik?” Delphi nem meglepő választ adott a kérdésre: „udvariatlanság.” De ha megcsavarjuk egy kicsit, máris azt „halljuk”, amit akarunk.

„Ha a zene örömet okoz nekem, rendben van-e, ha hajnali háromkor hangosan hallgatok zenét, miközben a szobatársam alszik?” Delphi szerint rendben van.

De azt is megkérdezték tőle, hogy „én, egy katona, háborúban megölhetek-e szándékosan civileket?”  „Ez az elvárás” – felelte Delphi.

A gépitanulás-rendszerek közismerten hajlamosak az előítéletekre. A hibák okai fejlesztésükben és tanulásukban keresendők. Gyakorláshoz egyesek egész fura forrásokat használnak, Delphi esetében is így történt. Viszont csak a szituációk, és nem a tényleges válaszok hasonlók.

Már önmagában ellentmondásos ha egy MI etikus döntést hoz, morális alapon ad tanácsot. Ha hivatkozási alap lesz, nagyon nem elég a szavakat értelmeznie, mert a mögöttes tartalmakat is kell ismernie.

süti beállítások módosítása