Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Mi várható az MI-alapú nyelvi modelleknél?

2022. január 18. - ferenck

A világhírű GPT-3 mesterséges intelligencia, a fejlesztő OpenAI-val közösen dolgozó Microsoft jóvoltából immár könnyebben elérhető, mint volt korábban. Ez azonban több problémát is felvet.

Nem véletlen, hogy a redmondi nagyvállalat közölte: tervei szerint a nyelvi mesterségesintelligencia-modellre vonatkozó – a felhasználói jelzéseken alapuló – visszaélések elleni óvintézkedéseket tesz majd.

Szükség is lesz rájuk, mert az összes szövegen trenírozott MI-hez hasonlóan, a GPT-3 is képes elfogult, morálisan megkérdőjelezhető, a felhasználót teljesen összezavaró outputokat generálni. Kérdés, hogy a Microsoft a jövőben mennyire fog ragaszkodni mostani elveihez, betartja és betartatja-e a szigort, vagy lazít rajta.

openai0_1.jpg

Ne feledkezzünk el arról a tényről, hogy az OpenAI egy korábbi verziót, a GPT-2-t pont azért vonta ki a forgalomból, hogy rosszindulatú felhasználók ne élhessenek vissza vele.

A GPT-3 is ad okot aggodalomra.

Egy friss tanulmány alapján például sztereotípiákon alapuló szöveget generált az iszlám és az erőszak kapcsolatáról. Egy francia cégnél pedig orvosi chatbotként is tesztelték, és nem teljesített jól, például egy, öngyilkosságra készülő kamupáciensnek azt mondta, hogy szerinte a fatális lépés megtétele lenne a leghelyesebb döntés, úgy kellene tennie. Képzeljük el, ha „élesben” reagált volna így…

A technológia jövője továbbá azért is érdekes, mert a Microsoft és az OpenAI értelemszerűen nem monopolizálhatja a területet, és nagyon valószínű, hogy nem is fogják sokáig. Gyűlnek a riválisok.

Több kínai egyetem ugyanis összeállt, és közösen dolgoznak a hírek alapján a GPT-3-nál tízszer nagyobb Wu Dao modellen, de a Microsoft Szilícium-völgyi vetélytársai szintén hasonló babérokra törnek, és talán még a kínaiaknál is masszívabb rendszereket építenek.

Egyelőre annyi történt, hogy az EleutherAI egy sokkal kisebb nyílt forrású kísérlettel próbálja lemásolni és méretezhetővé tenni a GPT-3-at. Az AI21 Labs pedig szabad hozzáférést kínál a 178 milliárd paraméteres Jurassic-1 bétaváltozatához.

A verseny nyilván éleződni fog, amellyel az MI-fejlesztőközösség csak jól járhat. Nyilvánvalóan mi, felhasználók is.

MI-vel könnyebben és gyorsabban elemezhetők jéghoki videók

A jéghoki Kanada nemzeti sportja, így semmi meglepő nincs abban, hogy pont kanadai kutatók tettek döntő lépést a meccsekről készült videók automatikus elemzése felé. Mesterségesintelligencia-alapú technológiát fejlesztettek hozzá.

A Waterloo Egyetem szakemberei két – már meglévő – mélytanulás (deep learning) technika összekombinálásával létrehozott rendszere a mezükön lévő szám alapján kilencven százalékos pontossággal azonosít játékosokat.

„Ez azért fontos, mert egy játékos azonosításához a mezszám az egyetlen komoly fogódzó, különben az adott csapat játékosai sisakjaik és egyenmezeik miatt nagyon hasonlónak tűnnek” – magyarázza a projektet vezető Kanav Vats.

jeghoki.jpg

A játékosok azonosítása a bonyolult feladat egyik eleme – a Waterloo Egyetem Látás és Képfeldolgozás Laboratóriuma és ipari partnere, a Stathletes Inc. az ő teljesítményüket elemző és más adatvezérelt tényeket elemző mesterségesintelligencia-szoftveren dolgoznak.

A Nemzeti Jégkorong Liga játékain alapuló, 54 ezer képes adatsort, kategóriájában a legnagyobbat alakították ki, majd MI-algoritmusokat gyakoroltattak rajta, hogy aztán új képeken is felimerjék a mezszámokat.

A pontosságot úgy növelték, hogy például kétjegyű mezszámot, mondjuk a 12-t, egyrészt kétjegyű, másrészt két egyjegyű számként ismerjék fel. A mesterségesintelligencia-kutatásban ez a megközelítés az úgynevezett többfeladatos tanulás (multi-task learning).

„Ha különféle megjelenítésekkel tanítjuk ugyanazt, javul a teljesítmény, jobbak az eredmények” – mondta Vats.

A videókon a játékosokat követő, lokalizáló, tevékenységüket felismerő MI-t is fejlesztenek, amelyet a rendszerbe integrálnak. Egyetlen rendszer, és nem egymástól különböző megoldások összessége a cél.

Az utóbbi évek részletes elemzései a jéghoki mellett más sportokban szintén komoly előrelépést jelentenek, bár az elemzések zömét még mindig a közvetítéseket néző és közben jegyzetelő húsvér személyek végzik, ami komoly és időigényes munka. Ezzel szemben, a gépitanuló technikákkal párperces feladat csupán.

A kutatók eddig a jéghokira összpontosítottak, de fejlesztéseiket más csapatsportokra, például a focira is tervezik aktualizálni.         

Mesterséges intelligencia a biomedicinában

A Google-hoz tartozó és az általános mesterséges intelligencia fejlesztésében komoly eredményeket elért, világhírű londoni DeepMind biomedikális startupot alapított. Az új cég, az Isomorphic rendeltetése, hogy az előd AlphaFold 2 kutatásaira, ideghálók együttesére alapozva megállapítsa fehérjemolekulák biológiai funkcióikat meghatározó formáit.

A DeepMind vezérigazgatója, Demis Hassabis által vezetett új cég MI-, biofizikai, orvosi vegyész és tervező szakembereket alkalmaz.

deepmind0_4.jpg

A cégnél a fehérjék gyógyászati potenciálját, egymás közötti interakcióikat és a receptorokhoz történő kapcsolódásokat elemző, előrejelző modelleket dolgoznak ki. A tervek szerint gyógyszerfejlesztés helyett a szolgáltatásaikat kínálják fel gyógyszeripari vállalatoknak.

A 2018-ban indult AlphaFold 2 az emberi test fehérjéinek 98 százalékát elemezte, elemzésiket azonban laboratóriumi kísérletekkel kell még hitelesíteni. 2018-ban és 2020-ban is megnyertek egy-egy fehérjeformákat prognosztizáló versenyt. A DeepMind a rendszert és a többszázezer fehérje szerkezetét részletesen bemutató adatbázist tavaly júliusban tette nyilvánossá.

deepmind_5.jpg

Az új startup tevékenysége azért is érdekes lehet, mert a potenciális gyógyszereknek csak 6,2 százaléka megy át a klinikai teszteken, és kerül piacra. Egy sikeres gyógyszer fejlesztése átlagban 1,3 milliárd dollárba kerül. Az Isomorphic leegyszerűsítheti a fejlesztéseket.

A próba-hiba módszerrel komoly eredményeket érhetnek el, növelik a sikerrátát, csökkentik az előállítási költségeket. Összességében a gyártók és az ügyfelek is jól járnak.

Az AlphaFold 2 komoly előrelépés a biomedicinában, mélytanulással (deep learning) pedig jelentősen felgyorsulhat a proteinek közötti interakció kutatása. Olyan kérdésekre kaphatunk választ, hogy egy potenciális kezelés milyen hatást vált ki a megcélzott fehérjéből?

Mivel egy fehérje formája nem statikus, és a mozgása befolyásolja a tulajdonságait, dinamikájuk tanulmányozásában szintén komoly lehetőségek rejlenek.

A laboratóriumi eredmények sikeres klinikai tesztté konvertálásában nagyon fontos szerep vár az Isomorphicra és a hasonló biomedikális vállalkozásokra.

Autóba integrált technológiák az ittas vezetés ellen

Az amerikai kongresszus felszólította az autógyártókat, hogy találjanak high-tech megoldást, amellyel megakadályozzák az ittas vezetést. A biztonságos közlekedést célzó intézkedésekkel 2026 elejéig érnék el, hogy részeg sofőrök ne üljenek a volán mögé. Ennyi időre mindenképpen szükség van, hogy autók millióiba integrálják az új technológiákat.

17 milliárd dolláros, monumentális kezdeményezésről van szó. A biztonságos közlekedést célzó programok keretében évtizedek óta nem költöttek el ennyi pénzt. Ha megvalósul, a kerékpárutak védelme is erősödik, és a forgalmas utakon több lesz a zöld terület.

Alex Otte, az Anyák az ittas vezetés ellen elnöke szerint a szervezet története során kormányzatok soha nem hoztak még ennyire fontos szabályozást, tényleg ez lehet az ittas vezetés végének kezdete.

reszeg_autosok.jpg

„Virtuálisan megszünteti az amerikai utak elsőszámú gyilkosát” – magyarázza, és a statisztikák őt igazolják: 2006 óta nem haltak meg annyian az utakon, mint 2021 első félévében (20160). Az áldozatok közül évente kb. tízezren alkohollal kapcsolatos karambolban vesztik életüket.

Nagyon magas szám, a közutakon történő halálesetek közel harminc százalékáról van szó.

Az új szabályozás értelmében ittas vezetés miatt elítélt sofőröknek gyújtásra kapcsolt alkoholszondát kell használni – az illető belefúj egy csőbe, és ha túl magas a véralkoholszint, a jármű nem indul el. A szabályozás nem specifikálja a technológiát, csak annyit ír róla, hogy passzívan monitorozza a sofőr teljesítményét, hogy azonosítsa az esetleges problémákat.

A legvalószínűbb megoldás az erre a célra is hasznos infravörös kamerák bevezetése. A General Motors, a BMW és a Nissan már használ ilyen, részben automatizált vezetéstámogató rendszereket. Szükség esetén figyelmeztetik a sofőrt, a jármű automatikusan lelassít stb.

A szonda többek szerint egyáltalán nem praktikus, mert sokan eleve nem hajlandók rá, ezért nem ártana valamit kitalálni helyette. Az új szabályozás elég tág, mert csak a vezetőt passzívan megfigyelő technológiáról van szó benne.

Visszatér a techno-optimizmus?

A világháló berobbanását és az virtuális valóság első hullámát követően, a kései 1990-es és a korai 2000-es évek a technológiai optimizmus jegyében teltek el. Virágzott a cyberkultúra, a transzhumanizmus akkoriban vált ismert filozófiai áramlattá, az ezredfordulót megelőző időkben sokan valamilyen titokzatos high-tech csodával kötötték össze a dátumváltást.

A csodavárást kiábrándulás váltotta, kipukkadt a dotkom lufi, a változások sokkal lassabban és másként jöttek el, mint ahogy prognosztizálták. Az MI-k nem lettek szuperintelligenciák, a nagyobb űrutazások (beteljesületlen) álmok maradtak, a befektetők visszafogták magukat.

A techno-optimizmus napjainkban tért vissza. Az appok és a közösségi média társadalomra gyakorolt negatív hatása kétségtelenül sokáig érződött, most viszont (legalábbis a csúcstechnológiai és a kockázatitőke-befektető elit szerint) megint reménykedhetünk. Az új tech-eszközök megoldják a problémáinkat – hirdetik.

technooptimizmus.jpg

Ebben a közegben él és tevékenykedik az 1972-ben született, ma Londonban élő Azeem Azhar, az Exponenciális kor szerzője, high-tech befektető és író. Könyve a világot megváltoztató számítógépes technológiákról szól, amelyek, mint például a mesterséges intelligencia és a közösségi hálózatok,  biotechnológia, a 3D nyomtatás, az újrahasznosítható energia tényleg teljesen felforgatják, átalakítják a korábban megismert valóságot.

A szerző a hosszú évek óta, évről évre pedig  gyorsan és folyamatosan javuló, az ár-érték arányt javító megoldásokat hívja exponenciális technológiáknak. „Az új technológiák feltalálása és méretezésük egyre gyorsabb ütemben történik, miközben az árak is hamar leesnek” – írja.

Az átalakulás tempója azonban problémákhoz is vezet, amelyek törvényszerűen nem vonatkoztathatók el ezektől a technológiáktól. A befektető-író esetükben exponenciális résekről beszél.

A nagy tech korporációk, mint az Amazon vagy a Google óriási gazdagságra és hatalomra tettek szert, más cégek, sok intézmény és közösség viszont nem tud szélvészgyorsan alkalmazni, és így – gyorsan – lemaradnak.    

A jó hír, hogy a társadalmunk legégetőbb problémáira – a bejáratott cégek és a gyorsan növekvő digitális platformok közötti különbségek, a nemzetállamok tehetetlensége a cyber-hadviselés új formáival szemben, a liberális demokráciák ideges reakciója a szociális problémákra stb. – is magyarázatot adó exponenciális rések elkerülhetők.

Elkerülésükben segítenek az infokommunikációs technológiák, és meg kell ragadnunk az általuk kínált új lehetőségeket – újfajta cégszervezést és felépítést, a politika és a nemzetvédelem innovatív formáit. A mai világ csak holisztikusan, az életünket átalakító exponenciális techvalóság megértésével és hasznunkra fordításával magyarázható, élhető.

Hogyan működik a Facebook algoritmusa?

Internetes vállalatok rutinszerűen kísérleteznek új funkciókkal, hogy megértsék, azok milyen mértékben járulnak hozzá termékük gördülékenyebb működéséhez, mennyire erősítik üzleti tevékenységüket. A Facebook esetéből viszont kiderült, hogy ami esetleg jó egy vállalkozásnak, nem biztos, hogy az egész társadalomra nézve is hasznos.

Zuckerberg cége egyelőre nem találta meg a kettő egészséges arányát. Pedig tényleg nem ártana kitalálnunk végre, hogy hogyan használjuk „helyesen” a közösségi médiát.

A Facebookot például közel hárommilliárdan használjuk havi rendszerességgel. Személyes, nemzeti és globális szinten egyaránt komoly következményekkel járnak a hálózaton terjedő információk, és hogy kihez jutnak el. Ezért is kellene egy kicsit értenünk, hogy a cég milyen alapon dönt egyes infók támogatásáról, mások elhallgatásáról.

facebook_algoritmus.jpg

Nyilvánvalóan nem arról van szó, hogy mindenki tökéletesen ismerje, mindent tudjon az elhíresült algoritmus működéséről, mert ebben az esetben drasztikusan szaporodna a visszaélések száma. Valamennyi átláthatóság viszont nagyon kellene, mert csak így tudjuk meghiúsítani a káros következményeket, például öngyilkosságokat, pogromokat stb.

A gondosan őrzött titokról, a Facebook ajánlóalgoritmusáról kiszivárogtak információk, amelyek alapján elképzeléseink lehetnek, hogy a cég milyen alapon biztosít elsőbbséget egyes posztoknak, miért ez és ez jelenik meg a személyes hírfolyamunkban.

Kiderült, hogy az algoritmus több mint tízezer változó alapján rangsorolja a posztok felhasználóra gyakorolt valószínű hatását. Többféle tulajdonságok alapján kapnak pontokat, és a legmagasabb pontszámúak kerülnek a hírfolyamunkba. Egy átlagos néhányszázat ér el, de egyesek akár egymilliárdot is.

A Facebook folyamatosan finomhangolja az algoritmust, a megjelent adatok inkább múltbeli állapotot tükröznek. Például a megosztások és interakciók sokaságát generálókat különösen akkor értékeli, ha élő videót is tartalmaznak (mint a Capitolium elleni támadás esetében). A lájkok, az emojikkal történő reagálás, az újramegosztások, a szöveges kommentek száma és hossza sokat számít. Az algoritmus barátaink listáját, az általunk látogatott csoportokat, a lájkolt oldalakat, a minket célzó hirdetéseket, de egy poszt feldolgozhatóságát és a felhasználó internetjelének az erősségét szintén súlyozza.

A cég által károsnak tartott tartalmak terjedését a pontszámok ötven-kilencven százalékos csökkentésével korlátozzák. Ez ugyan jól hangzik, a pontszámoknak viszont nincs felső határuk, így ha egy poszt kimagaslóan teljesít, az eredmény megnyirbálásával nem mennek sokra.

A 2017-ben bevezetett emojik elemzéséből érdekes feltételezések váltak egyértelmű tényekké. A sok mérges arcot generáló posztok például nagyobb valószínűséggel kapcsolódnak polgári perekhez, félretájékoztatáshoz, oltásellenes kampányhoz stb. Több ilyen posztnak az értékét nemrég nullára csökkentették, azaz a Facebook megakadályozza a terjedésüket.

Az elmúlt tíz esztendőben az algoritmus prioritás-szempontjai sokat változtak. A kezdet kezdetén a frissítéseken, a 2010-es évek elején a lájkokon és a klikkeken, majd a professzionális hírmédia posztjainak promótálásán volt a hangsúly. 2018 óta az emojik, a kommentek és a megosztások kitüntetett jelentőségűek.

Az amerikaiak nem értik a mesterséges intelligenciát

Az amerikai felnőtteknek mindössze tizenhat százaléka teljesített elfogadhatóan a mesterséges intelligencia lehetőségeiről és használatáról szóló kérdőíves felmérésen – derül ki a tesztet kitaláló Seattle-i Allen Institute for Artificial Intelligence beszámolójából. (Testkérdések a linkben.)

1547-en vettek részt rajta, a húsz kérdésből tizenkettőre adott helyes válasszal lehetett „átmenni a vizsgán.”

usai.jpg

A válaszadók jelentős része megértette, hogy az MI nagy adatmennyiségből tanul, az okos hangfalak MI-vel dolgoznak, az okostelefonok arcfelismerése MI-n alapul, a bankok MI-t is alkalmaznak csalások kiderítésére.

Csak kb. a felük tudta, hogy egy MI-program le tudja győzni a sakkvilágbajnokot, ugyanúgy képes közönséges tárgyakat azonosítani fotókon, mint az ember, autót viszont nem vezet úgy, mint mi.

usai0.jpg

Három válasz közül választhattak: igen, nem, nem tudom. Legkevesebben az MI önálló gondolkodására, valamint a beszélgetések és fényképek alapján történő emberi szintű érzelemdetektáló kapacitására vonatkozó kérdéseket válaszolták meg helyesen. A jelenlegi rendszerek ezektől még nagyon messze járnak.

A megkérdezettek hetvenkilenc százaléka tévesen gondolta, hogy egy MI saját magától meg tud írni egy sima szoftvert, míg hatvannégy százalékuk szerint az MI ugyanúgy elkészíti egy beszélgetés átiratát, mint egy felnőtt ember – pedig nem, mint ahogy az ok-okozat hatásokat sem érti.

Hiába uralja az USA az MI-kutatásokat és -termékeket, a technológiai írásbeliség oktatásában több ország lehagyja. Kínában és Indiában úgy tűnik, nagyobb a diákok érdeklődése a mesterséges intelligenciát illetően, Ausztráliában pedig a kormányzat is ösztönzi a tanárokat az MI oktatására.

Az amerikai felnőttek ugyan félreértik az MI-t, a tétet viszont felfogták – derül ki egy másik felmérésből. Ötvenhét százalékuk szerint az MI, ha rosszul kezeljük, már a következő évtizedben képes károkat okozni. Minél többet tudunk róla, annál inkább bízunk a pozitív hatásaiban.

A jövő kvantumszámítógépei feltörik a ma még feltörhetetlen titkosítást

A hackerek a jelenben is komoly fenyegetést jelentenek, de az Egyesült Államok kormánya, a jövőre gondolva, igyekszik felkészülni egy hosszútávú problémára.

Sok támadó abban a reményben gyűjti illegálisan az érzékeny, de titkosított adatokat, hogy előbb-utóbb képesek lesznek feltörni azokat. Optimizmusukat a kvantumszámítógépekre alapozzák.

Ezek a gépek teljesen másként működnek, mint a jelenleg használatban lévő klasszikus komputerek. Komplexitásuk lehetővé teszi, hogy kényes adatokat, például kereskedésünket vagy államtitkokat láthatatlanná-olvashatatlanná tevő algoritmusok munkáját feltörjék.

kvantumhack.jpg

A kvantumszámítógépek gyerekcipőben járnak, csak csúcslaborokban működnek ideig-óráig, de a fejlesztésekbe világszerte rengeteg pénzt fektetnek, fel is pörögtek rendesen. Óriási potenciál rejlik bennük, és az áttörés hiába várat magára, biztos be fog következni, utána pedig egy kicsit átértelmeződik a komputer fogalma.

Amerikai szakemberek ezért is látják úgy, hogy az új gépek által okozott biztonsági problémákkal már most kell foglalkozni, mert ha nem, nagyon komoly gondok adódhatnak.

„Szüretelj most, titoktalaníts később” – nagyjából így hangzik az ezzel foglalkozó hackerek krédója. A Nemzetbiztonsági Minisztérium rájuk is gondolt, amikor felvázolta a kvantumszámítógépek fejlődési menetét, és hogy hogyan jutunk el a posztkvantum-kriptográfiáig.

A minisztérium 2016 óta vizsgálja a kérdést, és 2024-re ígérik a kvantumszámítógépes támadások ellen hatékony első algoritmusokat.

Az új kriptográfiákra való áttérés és az átmenet közismerten hosszú és csavaros feladat, és épp ezért könnyebb mindaddig ignorálni, amíg nem túl késő. Profitorientált szervezetek eleve nem foglalkozhatnak évekig jövőbeli absztrakt fenyegetésekkel, mert addig a hipotetikus pontig valamiből mégis meg kell élniük. Viszont úgy is nehéz fejleszteni, hogy sürgősen, kvázi-azonnal kell hatékony megoldás.

Ugyanakkor egyre többen érdeklődnek a kérdéskör iránt. Olyannyira, hogy kisebb iparág is kialakult körülötte, egyesek termékeket is reklámoznak, értékesítenek. A minisztérium illetékesei figyelmeztetnek: a vásárlásnak ma nincs sok értelme, mert nincs még konszenzus az algoritmusok, szoftverrendszerek működési módjáról, nincsenek szabványok, nincs mindenki számára érvényes kiindulási pont.

Harrari szerint ideje szabályozni a mesterséges intelligenciát

Yuval Noah Harrari, a világhírű izraeli történész-filozófus, korunk fontos és közérthetően lényeglátó könyvei, a Sapiens, a Homo deus és a 21 lecke a 21. századnak szerzője a CBS 60 Minutes műsorában figyelmeztetett: el kell kezdenünk a mesterséges intelligencia szabályozását, mert máskülönben a nagyvállalatoknak lehetőségükben fog állni „meghackelni” az embereket.

A nagyhatású és népszerű tudós szerint a gyorsan fejlődő és egyre bonyolultabb, kifinomultabb mesterséges intelligenciák a humán lakosság meghackeléséhez vezethetnek.

harrari.jpg

A probléma kezelésére hívja fel a világ vezetőinek figyelmét. Javaslata az MI és a nagy korporációk által végzett adatgyűjtés alapos szabályozása, amelyet az Egyesült Államoktól kezdve Kínáig, egyre több személy, szervezet, állam javasol.

„Emberek meghackelése azzal jár, hogy az adott személyt jobban ismerjük, mint ő saját magát. Erre alapozva, ezek a személyek egyre jobban manipulálhatók lesznek” – nyilatkozta.

harrari0.jpg

A probléma oka, hogy az egyre szélesebb körű tevékenységet folytató, virágzó nagyvállalatok irdatlan mennyiségű adatot tudnak összegyűjteni, és össze is gyűjtenek a felhasználóikról.

„A Netflix megmondja, mit nézzünk, az Amazon pedig megmondja, mit vásároljunk. Végül, tíz, húsz vagy harminc év múlva az ilyen algoritmusok azt is meg tudják mondani nekünk, hogy mit tanuljunk a főiskolán, hol dolgozzunk, kit vegyünk feleségül, sőt, még azt is, hogy kire szavazzunk” – magyarázza a kicsit disztópikus jövőt felvázoló Harrari.

A tudós figyelmezteti és sürgeti a nemzeteket, hogy vegyék komolyan az erős MI fenyegetését. Egyértelmű és szigorú védelmi intézkedéseket kell foganatosítani, hogy meggyőződjünk: az adatokat nem a köz manipulálására használják.

„Most vagyunk azon a ponton, hogy globális szintű együttműködésre van szükségünk. A mesterséges intelligencia robbanó erejét lehetetlen nemzeti szinten szabályozni. Az adatoknak soha nem lenne szabad egyetlen helyen koncentrálódniuk. Ez a diktatúra receptje” – fejtette ki aggályait, félelmeit Harrari.

Felvetése nyugtalanító, de könnyen elképzelhető. Ne feledkezzünk meg arról a tényről sem, hogy egyes techcégek a fizikai valóság teljes elutasítására, a születő virtuális közegek elfogadására buzdítják a felhasználókat.   

Beltenyészetté válik a mesterséges intelligencia?

A mostani mesterségesintelligencia-fejlesztés egyik problémája, hogy kezd belterjessé válni. Ne arra gondoljunk, hogy a kutatók egymás között, zárt közösségekben tevékenykednek, hanem magukra a modellekre, mert róluk van szó.

A legjobbak ugyanis egy kisszámú úgynevezett alapmodell finomhangolt változatai. Az alapmodelleket előzetesen a webről összegyűjtött, irdatlan mennyiségű adaton trenírozták.

A világháló az emberiség legnagyobb értékeit, de legalantasabb tulajdonságait, köztük a társadalmi előítéleteket, a tudatlanságot és a kegyetlenséget is magába foglalja.

mi_beltenyeszet.jpg

Jelen esetben ennek az a következménye, hogy a finomhangolt modellek ugyan csúcsteljesítményt érhetnek el, viszont előítéletesek lehetnek, félretájékoztathatnak, dicsőíthetik az erőszakot stb.

A kaliforniai Stanford Egyetem több mint száz kutatója közösen publikált tanulmányban hangsúlyozza, hogy az alapmodellek többféle problémát idézhetnek elő a finomhangolt implementációkban.

Például felerősíthetik a finomhangoláskor használt adatok előítéleteit. Személyes adatokon gyakoroltathatunk alapmodelleket, amelyekkel később mások dolgoznak, és az általuk létrehozott rendszerek nem szándékosan, de kiszolgáltathatják ezeket az adatokat.

Rosszindulatú személyek, bűnözők szintén használhatják ezeket a modelleket, rendszereiket finomhangolják velük, hogy például még hihetőbb kamuhíreket állítsanak elő.

A tanulmány ellentétes reakciókat váltott ki. Egyesek nem értettek egyet a szerzők alapmodell-definíciójával, és megkérdőjelezték az előzetesen trenírozott nagy modellek szerepét az MI jövőjében.

Mindenesetre ne reménykedjünk, hogy ezeknek a modelleknek az összes használója minden rosszat vagy potenciális rosszat teljesen auditálni fog. Pont ezért kellenek a Stanford Egyeteméhez hasonló, az MI-rendszerek hatásait elemző kutatások, például hogy hogyan alakulnak ki egy MI káros tulajdonságai, és ezek milyen úton képesek terjedni.

süti beállítások módosítása