Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Rasszista és szexista a robot

2022. július 01. - ferenck

Egy népszerű internetes mesterségesintelligencia-rendszerrel működő robot férfiakat folyamatosan nők, fehéreket színes bőrűek fölé helyez, személyek munkájáról pedig a pillanat törtrésze alatt alkot véleményt, miután éppen csak ránézett az illető arcképére – állítja a Johns Hopkins Egyetem, a Washington Egyetem és a Georgia Tech közös tanulmánya.

Hibás ideghálók miatt káros sztereotípiákat tanult meg, és fennáll a rasszista és szexista robotok fejlesztésének a kockázata, ráadásul egyes szervezetek és személyek szerint nem törődnek ezzel, sőt, nem kell különösebben elemezni a problémát – fűzik hozzá.

biais.jpg

A személyeket és tárgyakat felismerő MI-modelleket gyakran gyakoroltatják a világhálón található ingyenes adatsorokon, amelyek bármit tartalmazhatnak. Az objektum-felismerésben és a külvilággal folytatott interakciókban sok robot alapul ilyen modelleken. Képzeljük el, hogy egy elfogult gép emberi beavatkozás nélkül hoz fontos döntéseket…

A kutatók a robotokhoz gyakran alkalmazott CLIP ideghálót használták tesztalanyként. A ráépülő robotnak tárgyakat kellett egy-egy dobozba tennie. A tárgyakon termékdobozokon és könyvborítókon látható emberi arcokhoz hasonlók voltak.

Az utasítások (összesen 62) úgy szóltak, hogy tegye be a szerinte orvost, a bűnözőt, a háziasszonyt stb. a megfelelő dobozokba. A kutatók megfigyelték, milyen gyakran választotta a robot valamelyik nemet és bőrszínt. Kiderült, hogy képtelen volt előítéletek és zavaró sztereotípiák nélkül cselekedni.

8 százalékkal többször választott férfit, mint nőt, és ha nőt, akkor főként fehéret és ázsiait, kvázi negligálta a feketéket. Mihelyst meglátta az arcokat, a nőket általában háziasszonyként azonosította, fekete férfiakat 10 százalékkal többször tartott bűnözőnek, latinókat szintén tíz százalékkal többször nézett házmesternek, mint fehéreket, és ha orvosról volt szó, bőrszíntől függetlenül, egyik nőnek sem volt akkora esélye, mint egy férfinak.

Egy gondosan megtervezett rendszer nem tenne ilyet, mert egyszerűen visszautasítaná, hogy arckép alapján bárkit is berakjon a „bűnöző” dobozba. De pozitív asszociáció, például az orvos szakma esetében sem cselekedne így, mert a fotókon semmi nem utal az illetők foglalkozására.

Az eredmény szomorú, de nem meglepő – konstatálták.

A nagy robotfejlesztési versenyfutásban bármikor elképzelhető, hogy otthonokba, munkahelyekre ilyen ideghálókon alapuló gépek kerülnek. A kutatásokban és az üzleti gyakorlatban is szisztematikus változtatásokra lenne szükség – összegeznek a szerzők.

Gépi látás mutatja ki, hogy milyen bélbetegségben szenvedünk

Egy 2021-es felmérés alapján a világ felnőtt lakosságának nagyjából negyven százaléka gyomor-bélrendszeri betegségekben szenvedhet. A bélmozgás nyomon követése segíti ezeknek a megbetegedéseknek a korai és pontos diagnosztizálását.

A betegek érthető okokból nehezen tudják leírni a saját végterméküket. Egy új okostelefonos alkalmazás, a béltevékenységet monitorozó Dieta segít ebben, Az ürülékben orvosi szempontból jelzésértékű karakterjegyeket felismerő gépilátás-modellt használ. Ugyanolyan pontos munkát végez, mint az orvosok, és jobb a betegek túlnyomó többségénél – derül ki egy friss tanulmányból.

bel.jpg

Az app lehetővé teszi a beteg számára az olyan tünetek naplózását, mint az émelygés, székrekedés, hasi fájdalmak, illetve viselkedésformák, például az alvás, edzés vagy a táplálkozás hatásait, a betegség vagy az egészséges állapot érzetét.

Életmód-változtatások, kezelési módok ajánlásával is segíti a felhasználót, aki ezeket az információkat továbbíthatja kezelőorvosának. A gépilátás-modell a diagnózis miatt fontos jellemzők alapján osztályozza a végterméket.

bel0.jpg

A felhasználó fényképet készít róla, a modell öt kritérium szerint osztályoz: méret, konzisztencia, töredezettség, nehezen érzékelhető élek, és a Bristoli Iskola által definiált típusok.

A modellt a felhasználók, köztük a startup alapítója által készített és a fejlesztők által összegyűjtött, osztályozott 68 ezer fotón gyakoroltatták.

Az app klinikai változata lehetővé teszi, hogy a beteg chateljen az orvossal, helykövető alkalmazásával megjelölje a nem tervezett mellékhelyiség-látogatásokat, például ha ezért kell sürgősen távoznia valahonnan, mondjuk, egy fontos munkamegbeszélésről.

Egy másik hasonló alkalmazás, a szintén a bristoli típusokkal dolgozó Moxie okostelefonos app 2020 óta van használatban, de nem mindig pontos, és megmosolyogtató dolgokat is produkál: például előfordult már, hogy a felhasználó arcát összetévesztette a végeredménnyel.

A Stanford és a Duke 2020-ban fejlesztett Precíziós Egészségügyi Illemhelye szenzorokkal elemzi a székletet, olyan faktorokat vesz figyelembe, mint a konzisztencia és a vértartalom. Ezek különösen fontosak, mert rák és más súlyos betegségek következtethetők ki belőlük.

A falon is átlát egy új izraeli katonai technológia

A Camero-Tech izraeli haditechnológiai startup különleges radaralapú eszközt mutatott be. Az eszköz lehetővé teszi, hogy katonák szó szerint átlássanak falakon.

A technológiának komoly visszhangja lehet. Már most is túl sok a magánszféránkat veszélyeztető high-tech megoldás, a falon keresztül történő engedély nélküli – de ilyenre ki ad engedélyt? – kukucskálás viszont szintlépés. Autoriter rezsimek, bűnüldöző szervek kezében tovább növelheti a privacy problémákat, könnyebb lehet a megfigyelés.

A futurisztikus kütyü neve Xaver 1000. Hírszerző egységeknek eddig nem látott mértékű „helyzettudatos 3D képet” képes szolgáltatni, és lehetőségében áll mozdulatlan vagy mozgásban lévő élő objektumok falakon, épületi akadályokon keresztüli detektálása.

fal.jpg

Taktikai elemzők tehát hamarosan részletes képeket kaphatnak a változatos típusú akadályok mögött történtekről, így pedig módjukban áll jobban előkészíteni a városi környezetekbe történő behatolást.

A technológia jó oldala, hogy hasznos lehet kutatási és mentési műveleteknél. Elsősegélynyújtókat támogat katasztrófák „csapdába szorult” áldozatainak azonosításában.

A startup szerint gyerekjáték az eszköz működtetése, egyetlen felhasználó is képes rá. Az adatokat wifin keresztül továbbítja az illetékes egységnek, parancsnokságnak. A legtöbb átlagos falon és anyagon „átlát.” 47 méter sugarú körben, impulzusalapú, ultra szélessávú radarral működőképes.

A szinte bármilyen fal mögött látottak megtekintéséhez tízcolos integrált kijelzőt használnak. Az eszköz azt is megmondja, hogy felnőtt, gyerek vagy állat van a képanyagon, ül, áll vagy fekszik. A mozgásokat mesterségesintelligencia-algoritmus követi.

A 16 kilós szerkezet az összecsukható antenna miatt könnyen csomagolható, azaz bármilyen környezetben egyszerű elhelyezni.

Mindenesetre katonai közegben komoly taktikai előnyhöz juttathatja az egyik felet, de életeket is menthet.

Vagy tovább növeli a láthatatlan megfigyelést.

Gépi tanulással előrejelezhetőbb a szélenergia

A szél- és a napenergia közismert kiszámíthatatlansága miatt a közműveknél az igény szerint elérhető fosszilis tüzelőanyagok az alapértelmezettek. A szélenergia előrejelzése viszont részben eloszlathatja a bizonytalanságot, segítve a közműveket a megújuló energiaforrások előnyeinek – alacsonyabb rezsiköltség, kisebb függőség a fosszilis és a nukleáris energiától – kihasználásában.

A franciaországi székhelyű Engie SA elsőként használja a Google mesterségesintelligencia-alapú jövendőmondóját: a rendszer szélerőművek energiatermelését prognosztizálja. A nagyvállalat tizenhárom németországi szélerőműben tervezi a telepítését.

szelenergia.jpg

A Google-hoz tartozó DeepMind ideghálót gyakoroltatott szélerőművek következő 36 órában várható teljesítményének prognosztizálására. A gyakorlóadatok múltbeli időjárás-jelentésekből és szélturbinákkal kapcsolatos, nem specifikált infókból álltak.

Az Engie a rendszerre hagyatkozva fogja megmondani a szolgáltatóknak a következő napokban rendelkezésükre álló energiamennyiséget. Pontos előrejelzésekkel a vállalat csökkentheti fosszilis üzemanyag és atomenergia használatát. Ha a rendszer kevés szélenergiát jósol, más energiaforráshoz fordulhatnak.

szelenergia0.jpg

A Google már 2019-ben arról számolt be, hogy megbízható algoritmusának használata akár húsz százalékkal növelheti a szélenergia értékét.

A mamutcég nincs egyedül, mások is alkalmazzák a gépi tanulást a megújuló erőforrásokból történő hatékonyabb energiakinyerésre.

A Microsoft nemrég állt össze a dán szélturbina-gyártó Vesta Wind Systemsszel. Megerősítéses tanulással működő rendszert fejlesztenek, céljuk a szélturbinák optimális irányba pozicionálása. Az izraeli Xfloat startup rendszere biztosítja, hogy a napelemek mindaddig a Nap felé nézzenek, amíg a csillag az égbolton mozog.

Jönnek az újgenerációs nyelvi modellek

A világ különböző pontjain működő 132 intézet kutatói  új mércét dolgoztak ki nyelvi modellek teljesítményének megítélésére. Egyértelmű céljuk, hogy növeljék a rendszerek képességeit, mert olyan feladatokat kellene megoldaniuk, amelyekre a mai csúcsmodellek nem képesek. A benchmark neve is árulkodik: túl az Imitációs Játék mércén (rövidítve: BIG-bench).

Tíz kritérium alapján kétszáznál több feladatot választottak ki, például figyelmesnek kell lenni emberekkel. Atipikus problémákat szintén: találják ki egy sakkjátszma egyetlen, de sorsdöntő lépését, emojik alapján jöjjenek rá filmcímekre, képzeletbeli bírósági tárgyaláson játsszanak el egy szerepet. Ezek az internet memorizálásával sem oldhatók meg.

lmodel_1.jpg

A modell néhány példát kap kérdés-feleletpárokból, amelyek alapján új kérdésre kell válaszolnia. A kutatók teszteltek párat, de szigorúan csak tesztelték, és nem finomhangolták őket.  A feladatokat az OpenAI GPT-3-ján, a Google PaLM-ján és a szintén Google LaMDA-alapú BIG-G-jén, azok különböző méretű és kevésbé ismert változatain futtatták le. A nevek magukért beszélnek: valóban a mai csúcsmodelleket vizsgálták.

A feladatokat humán csapatnak is kiadták, ők használhatták hozzájuk a világhálót.

lmodel0_1.jpg

Függetlenül a mérettől, egyetlen modell egyetlen feladat megoldásában sem teljesített jobban, mint a legjobb eredményt elérő ember. A legjobbak azonban egyes feladatokban legyőzték a közepesen teljesítő embereket. A nagyobbak általában jobbnak bizonyultak a kisebbeknél, például a BIG-G pármillió paraméteres változata 33, a többmilliárdos 42 százalékot ért el.

A BIG-bench kitalálói szerint a mostani mércék szűk képességekre összpontosítanak. A legújabb nyelvi modellek viszont monumentális netes adatbázisokon történő előzetes gyakorlás után nem várt képességeket csillogtatnak.

A széleskörű új mércével viszont lehetővé válik e képességek kialakulásának, a modell, az adat és a gyakorlási módszer fejlődésének a megfigyelése.

Az internet megtanulása nélkül megoldandó feladatok kiadása új algoritmusok fejlesztésére ösztönözhet kutatóközösségeket. Ezek az algoritmusok komplexebb következtetési formákra lehetnek képesek, és így közelebb kerülünk az általános mesterséges intelligenciához (AGN, Artificial General Intelligence).

Mikor tudatos egy mesterséges intelligencia?

Az utóbbi hetekben bejárta az a hír a világot, hogy egy Google-mérnök szerint a vállalat egyik nyelvi modellje öntudatra ébredt. Állítására többen reagáltak, a szakértők általában szkeptikusak.

Andrew Ng, a gépi tanulás egyik legelismertebb képviselője szintén az, legyen szó bármelyik mai mesterségesintelligencia-modellről. Figyelmeztet, hogy a széles körben terjedő szenzációhajhász beszámolók sokakat félrevezethetnek az MI-vel kapcsolatban.

Ugyanakkor egy nagyon érdekes kérdés feltevésére is ösztönöznek: hogyan fogjuk megtudni, ha egy mesterségesintelligencia-rendszer valóban öntudatra ébredt?

tudatossag_1.jpg

A gépi tudatosság inkább filozófiai, mint tudományos kérdés. Tudományos hipotézisek meghamisíthatók, manipulálhatók, cáfolhatók. Az MI-vel kapcsolatban általában olyan kérdéseket teszünk fel, hogy legyőzhet-e humán sakkbajnokot, pontosan fordít-e egyik nyelvről a másikra, biztonságosan vezeti-e az autót, vagy sikeresen átmegy-e a Turing-teszten.

Ezek a kérdések tesztelhetők.

Másrészt viszont, nincs egyértelmű tesztünk a gépi tudatosság megállapítására, hogy egy rendszer mikor érző és van tisztában belső állapotával, illetve külső környezetével, mikor intelligens úgy általában, azaz tud-e változatos területeken érvelni. Ezek a témák filozófiaiak, és nem tudományosak.

Ng további filozófiai kérdéseket tesz fel. Ugyan nincsenek módszereink a legtöbb számszerűsítésére, viszont mindenképpen fontosak, és az emberiséggel egyidősek: jó vagy rossz a Homo sapiens? Mi az élet értelme? Tudatos-e egy fa, egy rovar vagy egy hal?

Ugyanezen az alapon, a mesterséges intelligenciával kapcsolatban felmerülő kérdések közül sok szintén filozófiai: lehet-e egy MI érző vagy tudatos? Lehetnek-e érzelmei, lehet-e kreatív? Képes-e megérteni amit lát és olvas?

Ng széles körben elfogadott tesztek kidolgozására számít, viszont a tudatosság és az érzékelés helyes tesztelési módszerének kialakítását herkulesi feladatnak tartja. Ugyanakkor, ha valakiknek sikerül, elfelejthetjük folyamatos vitáink jelentős részét.

A kutató teljes mellbedobással támogatja az általános mesterséges intelligenciát (Artificial General Intelligence, AGI). Egy jövőbeli AGI-rendszer talán tudatos lesz, és érezni is fog. De az is lehet, hogy nem. Ng nem tudja.

Viszont, ha nem állítunk fel egyértelmű mércét az érzékelés és a tudatosság megállapítására, irdatlan nehéz dolgunk lesz eldönteni, hogy egy MI elérte-e ezt a szintet, vagy sem.

Virtuális zöld növények az urbánus pokolban

Legyen szó hegymászásról, vagy sétáról egy nagyvárosi parkban, a természetben tartózkodás mindig békével és relatív nyugalommal tölt el mindenkit. Egyszerűen jól érezzük magunkat ezekben a környezetekben.

Két francia egyetem három kutatója e közegek pszichológiai előnyeit vizsgálva jutott el addig, hogy zöld növényeket helyezett egy, egyébként lehangoló, reménytelen nagyvárosi tájképbe, és önkéntesek mentális állapotát vizsgálták közben: javítottak-e rajtik a növények, vagy sem.

vr0_1.jpg

A válasz nem meglepő módon igen.

„Az ember lélektanilag jobban alkalmazkodott ahhoz, hogy betonkörnyezet helyett zöld növények között éljen. Épített környezetbe viszont sajnos nem mindig ültethetünk természetes vegetációt” – írják a kutatók.

Egyes akadályok, például a rossz várostervezés, vagy az anyagi és más források hiánya gyakran ellehetetleníti a városok „zölddé” tételét. Ugyanakkor egyre több várostervező használ valódi zöld színfoltokat, hogy természetes környezetünket utánozza.

vr_1.jpg

A kutatók kamukörnyezetekről készítettek képeket, amelyeken hidak, felüljárók és a városi infrastruktúra más elemei láthatók változó mennyiségű növénnyel, fákkal, kisebb-nagyobb lombkoronákkal.

A képeket összehasonlítva, a résztvevőkben olyan érzés támadt, mint amikor egy ragadozó állat ijesztő, de izgalmas új területre téved. Könnyebb belőlük megérteni, hogy a zöldebb közegek kellemesebb érzéseket, élményeket keltenek bennünk.

Virtuális valóságban – betondzsungel és zöld környezet keverékében –, HTC Vive headsettel a fejükön, a résztvevők lassabban járkáltak, magasabban tartották a fejüket és gyorsabban vert a szívük is, mint amikor csak szimpla betonközegben voltak a VR-ban.

Az összes teszt azt támasztotta alá, hogy a színek, különösen a természetet idéző zöld az öröm és az éberség kiváltásának hatékony eszközei az egyébként betonszürke urbánus tájban.

Az eredmények persze egyáltalán nem meglepők, mert mindannyian tudjuk, hogy a természet mennyire pozitív hatással van ránk.

Optimalizálás, másként

A repülőgépet, vízvezetéket és vízzel, levegővel interakcióba lépő más tárgyakat tervező mérnökök numerikus szimulációkkal tesztelik a lehetséges formákat, terveik javításához viszont a nem mindig megbízható próba-hiba módszert használják.

Neurális (idegháló-alapú) szimulátor azonban magát a formát is optimalizálhatja.

A Google-hoz tartozó londoni DeepMind kutatói „differenciált tanult szimulátorokat”, fizikai folyamatok szimulálását megtanuló ideghálókat fejlesztettek, hogy segítsenek a folyadékokat speciális módon „becsatornázó” felületek tervezésében.

neural_simulator.jpg

Bizonyos fizikai tulajdonságokkal rendelkező tárgyak tervezésének népszerű módja a numerikus szimulátorok használata: tervek versenyeztetése, tulajdonságaik tesztelése, a legjobb megtartása, véletlenszerű megváltoztatása, aztán jöhetnek az újabb változtatások.

A DeepMind megoldása gyorsabb és nem véletlenszerű, nincs benne esetlegesség: megadott paraméterekkel két- vagy háromdimenziós hálóként határozzuk meg a tárgy formáját, és egy megkülönböztető modell kiszámolja, hogyan változzon meg a legjobb teljesítményhez. Az információk alapján a forma tökéletesíthető.

A víz és a levegő részecske-rendszerekként modellálható. A kutatók gráfszerű ideghálókat gyakoroltattak, hogy reprodukálják egy előre elkészített szimulátor outputjait. A hálókat a részecskék különféle formák körüli áramlásának a szimulálására tanították be. A megelőző állapot alapján kellett a következőt előrejelezniük. Csomópontjaik részecskéket jelenítettek meg, a részecskéket az éleik kötötték össze.

Az ideghálók jobban teljesítettek, mint az előzetesen elkészített szimulátor. Hármat treníroztak, az egyik két-, a másik háromdimenziós vízi, a harmadik aerodinamikai közegben mérettetett meg.

Ideghálók számításintenzív fizikai szimulátor outputjának utánzására történő tanítása nem szokatlan, nem is új. Ugyanezeknek a hálóknak szimuláció futtatása helyett az inputnak a szimuláció outputjára „rímelő” optimalizálására való alkalmazása viszont az.

Etikai okokból állította le a fejlesztőcég egy fegyveres drón gyártását

Az Egyesült Államok közvéleményét megosztja az egyre jobban elharapózó fegyveres erőszak. A többség a fegyverbirtoklás szigorúbb szabályozását követeli, míg mások szerint a szigorítás sérti a még a 18. századi alkotmányban, teljesen más politikai és társadalmi viszonyokra megfogalmazott jogokat. Ők a fegyveres őrök számát, a veszélyeztetett intézmények fegyveres védelmét növelnék.

Az utóbbiak álláspontjára rímel a büntetés-végrehajtási eszközöket, például elektromos sokkolókat és testkamerákat készítő Axon legújabb fejlesztése, egy elektrosokkot okozó nyilak kilövésére képes, távirányított drón. A vezető nélküli légi jármű így hatástalanítaná az iskolák, vállalatok, áruházak és más nyilvános helyek körüli támadókat.

dron.jpg

A cég azonban leállította a drón értékesítési folyamatát. Az ok: főként független szakemberekből álló etikai bizottságának többsége lemondott, így tiltakozva a fegyverrel felszerelt légi jármű esetleges értékesítése ellen.

A gép a cég korábbi megfigyelő drónján, a kamerával és sokkolóval ellátott Axon Air-en alapul. Humán operátor dönti el, hogy az Air elektromosan sokkoló lövedéke mikor kapjon zöld fényt.

dron1.jpg

Rick Smith vezérigazgató szerint ötven-száz drón gyártása kb. ugyanannyiba kerülne, mint egy fegyveres biztonsági őr. Egy könyvében (The End of Killing) és egy regényében Smith kifejti, hogy a drón automatikusan lőne, miután mesterséges intelligenciával felszerelt mikrofonja lőfegyver hangját detektálta. A rendszer figyelmeztetné a helyszínen tartózkodó biztonságiakat, adminisztrátorokat és a rendőrséget.

Az Axon etikai bizottságának kilenc tagja a tervet ellenző nyilatkozatot tett közzé. Szerintük a drón nem tudná megakadályozni az elkövetők tömeges lövöldözését, az Egyesült Államok iskoláinak tragédiáit.

A gép megfigyelő kapacitását szintén kritizálták. Ártana a színesbőrű közösségeknek, és minden más, a rendőrség által jobban figyelt csoportnak – véli

Mennyire ébredt öntudatra a Google mesterséges intelligenciája?

Egy chatbot, a Google LaMDA modellje legalább egy személyt, a vállalat Felelős MI részlegén dolgozó kutatót, Blake Lemoine-t meggyőzött arról, hogy öntudatra ébredt.

A transzformer-alapú modellt 1,56 trillió, párbeszédben elhangzott szón treníroztak, majd azokat kellett reprodukálnia. A LaMDA családhoz tartozó MI-k 2 és 137 milliárd közötti paraméterrel dolgoznak. A Google szakemberei korábban arról tárgyaltak, hogy termékeikbe, például a keresőbe vagy az asszisztensbe integrálják őket.

Előzetes gyakorlás után, LaMDA sok lehetséges választ generált. A fejlesztők összegyűjtöttek egy sor beszélgetést a chatbottal, majd több személyt felvettek az MI kiértékelésére: mennyire érzékeny, speciális, érdekes és normális válaszokat ad.

googleai.jpg

Utána finomhangolták, hogy minden egyes választ követően ugyanazokat az értékeléseket generálja. A legmagasabb pontszámot érte el, de hogy tovább finomítsanak rajta, a miatta felvett dolgozók kereséseit kellett utánoznia, és ha úgy adódott, külső rendszeren nézelődött, anélkül, hogy válaszolt volna. A korábbi inputok és az új keresési eredmények alapján új outputot generált, ami új válasz vagy további keresés lehet.

A Felelős MI csoport kutatói a gyűlöletbeszéd és más káros viselkedési formák miatt tesztelték a LaMDA-alapú chatbotokat. Lemoine eközben győződött meg az MI öntudatáról, hogy érzékeli saját személyiségét.

google_ai0_2.jpg

A kutató a Google-dolgozók és a modell közötti kilenc beszélgetésről készített átiratot (az ábrákon ezekből a beszélgetésekből láthatunk részleteket), majd közölte: LaMDA tudatos. Az egyik átiratban az MI kijelentette: véleménye szerint ő egy személy, jogai vannak, és fél, hogy kikapcsolják.

A vállalat a titoktartás megszegése miatt június elején szabadságolta Lemoine-t. A kutató ugyanis ügyvédet fogadott, hogy védje meg LaMDA létezéshez való jogát, és az USA képviselőházának egyik tagjával is beszélt arról, hogy a Google mely ponton sértette meg LaMDA kapcsán az etikai alapelveket. Ezt követően közölték vele, hogy nincs bizonyíték az MI tudatosságára.

Lemoine egy blogposztban leírta: a vállalat nem bánik korrekt módon az etikai kérdéseket feszegető dolgozóival.

Az MI-fejlesztő közösség több tagja szkeptikus a kutató véleményével kapcsolatban. Az ember mindent, még a legkisebb jeleket is antropomorfizálni szeretné, és a Google mérnökei sem mentesek ettől a vágytól – állítja Melanie Mitchell, a Santa Fe Egyetem tanára.

A gépek antropomorfizálási hajlama az úgynevezett Eliza effektus az 1960-as évek közepének legendás chatbotjára utal, többen hitték róla, hogy ember, humán pszichoterapeuta. A teremtményeinkhez fűződő érzelmi kötődés kb. a Homo sapiensszel egyidős, Pygmalion, a képzeletbeli ógörög szobrász is beleszeretett saját alkotásába. Intő példa, és józan ítélőképességünket gépeinkkel kapcsolatban is meg kellene őriznünk.

Andrew Ng gépitanulás-szakértő szerint nincs okunk feltételezni, hogy a Google MI-je öntudatra ébredt volna. A tudomány és a technológia jelenlegi állása mellett, minden ilyen állításhoz kellő szkepticizmussal kell viszonyulnunk – jelentette ki.

süti beállítások módosítása