Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Alkalmazottaik agyában olvashatnak a jövő munkaadói

2023. február 22. - ferenck

A jövőben vállalatok és kormányok képesek lesznek alkalmazottaik és állampolgáraik elméjében olvasni, sőt, az agyhullámokat, agytevékenységet dekódoló technika már most valóság – a csúcstechnológiák jogi és etikai hatásait kutató Nita Farahany (Duke Egyetem) erről a disztópikus témáról tartott előadást Davosban, a Világgazdasági Fórumon.

Nem beültetett, hanem hordozható, magunkon viselhető eszközökről – „FitBits az agyunkban” – beszélt. Komplex gondolatokat egyelőre nem tudnak megfejteni, de az is csak idő kérdése.

agyolvasas.jpg

Jövőképét tragikus balesettel szemléltette: sofőr elaludt a volán mellett, a karambolban többen meghaltak, ő is. Ha csak egy, alkalmazóival kapcsolatban álló intelligens sapkát visel, rajta az agyát monitorozó elektródákkal, a tragédiát el lehetett volna kerülni.

Másik, kevésbé tragikus, de hátborzongató példája: jelenleg világszerte kb. ötezer munkaadó figyeli folyamatosan okos eszközökkel az alkalmazottak agytevékenységét. Fáradtságukat tesztelik, mint például az egyik legnagyobb bányászati vállalatnál egy baseball-sapkaszerű szerkezettel. Az agyfürkészés célja a munka hatékonyságának, az egyes gazdasági körökben fetisizált termelékenységnek és a cégbevételeknek a növelése.

agyolvasas0.jpg

Farahany szerint ez a fajta megfigyelés sok munkahelyen már normává vált, és támogatja a bossware jelenséget, amikor speciális szoftverek a dolgozó számítógépes tevékenységét monitorozzák. Távmunkások esetében ez még a hivataloknál is sűrűbben fordul elő. Egyes füldugók szintén meg tudják állapítani, hogy viselőjük mire összpontosít: munkára vagy webes böngészésre.

Az ideális megoldást reszponzív munkahelyben látja, ahol emberek, robotok és mesterséges intelligencia gördülékenyen és folyamatosan dolgoznak egymás mellett, egyik-másik robot például a humán alkalmazottak stressz-szintjét méri okkurátusan.

A jól kivitelezett neurotechnológiában óriási a potenciál, a rosszul kivitelezett a történelem legelnyomóbb módszere lehet. A kutatónő szerint most még mi magunk dönthetünk erről, és ha a jót választjuk, az mindenképpen az egyén épülését segíti.

A harmadik lehetőségről megfeledkezett. Elképzelhető, hogy ezeket a megoldásokat, agyunk fürkészését se jó, se rossz formában nem akarjuk, és azt választjuk, hogy nem kérünk belőlük.

Keresőmotorok háborúja

A jövő internetes keresését mostani és majdani technológiák egyformán alakítják. E technológiák egyike, a nagy nyelvmodellek (LLM) gyakori problémája a ténybeli pontatlanság, a szöveggenerálás dokumentum-visszakereséssel való párosításában viszont komoly a fejlődési potenciál, megoldást jelenthet a problémák egy részére. Ráadásul a szövegek előállítási költségei szintén csökkennek.

A keresőmotorok a hirdetésekből csinálnak pénzt az üzemeltető nagyvállalatoknak. Ha viszont egy chatbot kielégítő választ ad a felhasználó kérdéseire, meg is állhatunk ezen a ponton, és a szolgáltató kevesebb bevételre tesz szert. Egyelőre bizonytalan, hogy a chatbot interfészen mi a hirdetésmegjelenítés ideális módja.

keresomotorhaboru.jpg

A chatbotok körüli hype-ot más tények is tompítják: az LLM-ek pontatlanságai, valamint a működtetésükhöz szükséges számítási kapacitás sokkal nagyobb, mint a keresőalgoritmusoknál. Ha a Google keresőjét LLM-alapú chatbottal egészítik ki, évi kb. 16 milliárd pluszkiadást, az éves bevétel 65 százalékát költenék rá. Mindezek mellett egyes országokban, például Kínában nagyon szigorúan szabályozzák, korlátozzák az MI-vel generált szövegeket.

A Google-t húsz éve egyeduralkodó keresőmotora repítette az infokom világ élére. Ma a keresőalapú globális internetforgalom 93 százaléka az övék, a Microsoft Bingje három, a Kína kétharmadát kiszolgáló, helyi fejlesztésű Baidu egy százalékot jegyez. A számok magukért beszélnek. A Microsoft vezetősége közölte is a részvényeseivel, hogy minden egyes plusz-százalék évi kétmilliárd dollár pluszbevétel.

keresomotorhaboru0.jpg

A Google, a Microsoft és a Baidu is az újgenerációs, LLM-alapú chatbotokkal finomhangolja a keresést. A Google-nál az Imagen kép-, a MusicLM zene- és a LaMDA beszélgetés-generátorok mellett természetesen a PaLM nyelvmodell játssza a főszerepet. Chatbotjukat a LaMDA működteti, de miután egy űrhajós közölte, hogy Bard félreértette és -értelmezte a James Web Űrteleszkóp eredményeit, a nagyvállalat nyolc százalékot veszített piaci értékéből.

A Microsoft és a ChatGPT-t fejlesztő OpenAI együttműködése jócskán felturbózta a Binget, viszont még nem közölték, hogy a megújult kereső mikor áll mindenki rendelkezésére. A Sydney kódnevű chatbotból a Bing mellett az Edge böngésző és a Teams konferencia-alkalmazás is profitálni fog, Prometheus nevű rétege pedig a nem megfelelő, pontatlan keresési eredményeket hivatott kiszűrni. Míg Bard hibái hamar kiderültek, a Microsoft majdnem megúszta, de pár nappal a hivatalos bejelentés után egy MI-kutató hasonló pontatlanságokat, melléfogásokat állapított meg.

A „keresőmotor-háború” legújabb lépéseként, a Baidu szintén bejelentette a maga chatbotját, Wenxin Yiyant. A belső teszteket márciusra, az üzembe állítást rögtön a tesztek után tervezik. Kérdés, hogy a megújuló rendszer hogyan kezeli majd a szigorú kínai szabályozást.  

Mesterséges intelligencia a propaganda szolgálatában

2019-ben politikai botrányt váltott ki az a hamisított videó, amelyben egy maláj politikus szexuális kalandjáról beszélt. 2022-ben a dél-koreai elnökválasztás mindkét jelöltje mesterséges intelligenciával létrehozott hasonmásokkal is kampányolt. Nem sokkal Ukrajna orosz inváziójának kezdete után, hackerek Zelenszkij elnökről posztolt kamuvideójában, az ukrán államférfi megadásra bíztatta az ország fegyveres erőit.

Sokan és régóta félnek attól, hogy a mesterséges intelligencia, pozitív hatásai mellett, a propaganda aranykorát is elhozza. Kamuanyagok (deepfakes) egyre könnyebb létrehozásával, a politika „rosszfiúi” soha nem látott lehetőséghez jutottak: színészek és mérnökök alkalmazása nélkül indíthatnak hazugságokon alapuló, megtévesztő médiakampányokat.

synthesia.jpg

A Georgetown Egyetem, a Stanford és az OpenAI kutatói több potenciális intézkedést (kormányzati szigorításokat, fejlesztői irányelveket, közösségimédia-szabályokat stb.) vázoltak fel a digitális propaganda megfékezésére. A legegyszerűbb persze a lakosság megfelelő tájékoztatása lenne, hogy az igazságot meg tudjuk különböztetni a részigazságokon, vagy teljes valótlanságokon alapuló propagandától.

A félretájékoztatás, az azzal való befolyásolás terjedését figyelő New Yorki Graphika dezinformációs hálózathoz tartozó fiókokról posztolt YouTube videókra lett figyelmes januárban.

synthesia0.jpg

Az egyiken a fegyveres erőszak amerikai terjedése miatt vádolják a kormányt, a másik az USA és Kína közötti együttműködést, szorosabb kapcsolatok kiépítését promótálja. Mindegyik mozgóképanyagon fiktív médiacég, a Wolf News logója szerepel. Egyelőre nem értek el különösebb hatást, mert a videókat csak párszázan látták.

Januárban egy Afrika-szakértő furcsa videót talált: magukat amerikai állampolgároknak beállító szintetikus karakterek Burkina Faso tavaly katonai puccsal hatalomra került vezetője, Ibrahim Traoré támogatására szólítottak fel (második kép). Más klipekben mesterséges intelligenciával készített karakterek az USA ellen, külföldi kormányok érdekében szónokolnak.

Az anyagokban látható szintetikus avatárok nagy részét a brit Synthesia startup készíti. Jelenleg nyolcvanöten vannak, mindegyik húsvér színészen alapul, százhúsz nyelven használhatók. A cég szolgáltatási feltételei alapján politikai, szexuális, személyes, bűnös és diszkriminatív tartalmakhoz nem használhatók, négy alkalmazottjuk folyamatosan figyeli a feltételek megszegését, és a Wolf News fiókját már fel is függesztették.

A legújabb klipek mindenesetre túlmutatnak az egyedi fejlesztéseket igénylő korábbiakon, például a 2019-es malájon, a dél-koreai elnökjelölteken, a tavalyi Zelenszkij kamun, és sajnos a probléma eszkalálódását jelentik.

A Microsoft vezérigazgatója szerint nem szabadul el a mesterséges intelligencia

A Google teljesen uralja a keresőmotor-piacot, a területen lényegében egyeduralkodó. Az állóvizet borzolhatja, hogy a Microsoft mesterséges intelligenciát integrált a megújított Bing keresőbe, ráadásul nem is akármilyen MI működteti, hanem az OpenAI híres ChatGPT-jének az egyik változata.

A chatbothoz hasonló beszélgető formában az új Bing szinte minden kérdésre érdekes és érthető válaszokat ad, bár a pontossággal akadnak még problémák. Satya Nadella, a Microsoft vezérigazgatója megvédte az MI nyilvánossá tételére vonatkozó döntést, ugyanakkor elismerte: vannak még hiányosságai, időnként lassú, esetleg nem válaszol, vagy pontatlan.

microsoft_ai.jpg

A vállalat előtt viszont óriási lehetőség áll, hogy ismét az innováció élén legyen – nyilatkozta. Technológiájuk folyamatos felhasználói, emberi visszajelzésekkel javítható, tökéletesíthető.

„Új verseny van a legfontosabb vagy a legnagyobb szoftverkategóriában, a keresésben. A Google az uralkodó, de most örülünk a Bingnek, és vele a verseny elindításának” – jelentette ki egy interjúban.

Mesterséges intelligencia esetében különösen fontos, hogy az egyéni és a társadalmi normákat figyelembe véve, összhangban legyen az emberi preferenciákkal. Abszolút biztonságra törekednek, az MI ne okozhasson semmiféle kárt, de ezt, minden más technológiai újításhoz hasonlóan, csak a való világban tudják megvalósítani.

Nadella azt is elmondta, hogy a rendszerbe a részrehajlást, elfogultságot, az általa okozott károkat elkerülendő, sok ezeket megakadályozó mechanizmust építettek be. Elismeri, hogy egy MI valóban az emberiség ellen fordulhat, egyszer tényleg elszabadulhat, a félelemnek van valóságalapja. Ennek megfelelően kell fejleszteni, és akkor elkerüljük a potenciális veszélyeket – állítja a vezérigazgató.

Az embernek pedig úgy kell használnia a mesterséges intelligenciát, hogy elkerülhessük a disztópikus jövőt, a gépi értelemmel való ellentéteket.

Ennek értelmében először azokban a kategóriákban kell használni a fejlett MI-modelleket, amelyekben egyértelműen és kétségbe vonhatatlanul mi járunk élen, a mi kezünkben a felelősség. Mindaddig, amíg így teszünk, a modellek még biztonságosabbá, megmagyarázhatóbbá válnak, és csak utána gondolkozhatunk másfajta használatokon – összegez Nadella.

Nagyon furcsa az észak-koreai YouTube

Egy YouTube videón iskoláskorú lány újságolja el, hogy a Harry Potter a kedvenc könyve. Egy másikon fiatal nő vesz ki jégkrémeket a hűtőszekrényből, és elmondja melyik milyen ízű, milyen cuki a rajtuk lévő kép, végül kiválaszt egyet, és megjegyzi, mennyire finom.

Utóbbit 41 ezren látták, és az anyag minden csak nem közönséges vlog. A benne szereplő hölgy YuMi-nek nevezi magát, az anyagot Észak-Koreában a világ talán legelzártabb országában vették fel. Tavaly júniusban létrehozott YouTube-csatornája egyike az utóbbi egy-két évben felbukkant észak-koreai közösségimédia-anyagoknak. Ezekben a videókban helyi lakosok osztják meg mindennapjaikat a nézőkkel, előfizetőkkel.

eszakkorea_1.jpg

Az anyagokat ugyan csak néhány tízezren látták, de az országot ismerő szakértők szerint, ha nem is teljes mértékben hamisítványok, az egyértelmű, hogy készítőik az országot a valósnál sokkal jobb színben igyekeznek bemutatni. Mintha az észak-koreai vezetőség lenne a rendező, valószínűleg ők is állnak a videók mögött.

Park Seong-cheol, az Észak-koreai Emberi Jogok Adatbázis Központjának kutatója szerint a mozgóképek úgy néznek ki, mint a „jól előkészített játékok.”

eszakkorea0_1.jpg

Egy harmadik anyagon az egyik lány megmártózik egy élménypark hullámvizes medencéjében. A valóságban ilyen létesítmények nem állnak a nagyközönség rendelkezésére, ráadásul ha egy-egy ki is nyit, a fejletlen infrastruktúra miatt csak ritkán – esetleg hétvégéken, de még inkább ünnepnapokon, vagy speciális napokon, mint a filmforgatás – üzemel.

Park elmondta, hogy az energiaellátás nem áll az élményparkok gördülékeny működtetéséhez szükséges színvonalon. Az áramszünet és az áramhiány mindennapos jelenség, sőt, állítólag a lakosság mindössze negyede fér hozzá az elektromossághoz.

Tehát a YouTube anyagok minden bizonnyal fabrikált videók, és egyben jól szemléltetik, hogy a kommunista diktatúra vezetői a propaganda új formáira váltottak. A videókkal a járvány utáni világban megélénkülő turizmusra is gondolnak. Kérdés, mennyire sikerül meggyőzniük az Észak-Korea viszonyaival általában tisztában lévő utazókat.

David Guetta mesterséges intelligenciával „alkotta újra” Eminem hangját egy új számhoz

David Guetta, világhírű francia DJ és producer egy partin, hatalmas közönség előtt új számot adott elő, és a számban a – szintén szupersztár – rapper, Marshall „Eminem” Mathers „szerepelt”, akinek egyébként semmi köze az ominózus darabhoz.

A DJ ugyanis generatív mesterséges intelligenciával hozott létre szöveget – hangot, mindent Eminem stílusában.

guetta_eminem0.jpg

„Hadd mutassam be Emin-AI-em-et” – fűzte hozzá a videóhoz, majd a következőket írta a Twitteren: „Eminem bro, viccet csináltam valamiből, és olyan jól működik, hogy el sem hiszem. Alapvetően bármelyik szeretett művész stílusában írhatunk verset, így begépeltem az MI-nek: írj Eminem stílusában jövőbeli rave-ről. Utána egy másik MI-honlapra mentem, ahol újraalkothattam a hangot. Összeraktam a szöveggel, majd lejátszottam egy partin, és az emberek megőrültek érte.”

A klip alapján a közönségnek valóban tetszett a zene, Guetta viszont nem közölte velük, hogy mesterséges intelligencia által generált muzsikát hallanak, és arról sincs hír, hogy Eminem miként reagált az egészre, „hangja” valószínűleg engedély nélküli használatára.

guetta_eminem_1.jpg

Guetta közölte: a szám nem fog kereskedelmi forgalomba kerülni. De ha nem is árusítják a darabot, több etikai kérdést felvet.

A DJ a partin így vagy úgy, de mindenképpen profitált a rapper hangjából. Ráadásul terjed a hírességek ilyen jellegű, egyébként elkerülhetetlen megszemélyesítése, és ezzel együtt a hanggeneráló MI-k lehetőségeitől való félelem.

Ha egy DJ remixel egy más által írt és előadott számot, az nagyon nem ugyanaz, mintha az illetővel (annak tudta nélkül) létrehoz egy teljesen új darabot. Az MI a megszemélyesített művésztől távol álló szöveget is adhat a szájába: uszíthat, gyűlöletet kelthet, mások ellen beszélhet stb. De az is előfordulhat, hogy az illetőnek egyszerűen nem tetszik, ha mások megszemélyesítik.

Eminemről köztudott, hogy szereti a csúcstechnológiákat, web3-termékeket, metaverzumot, Guetta viszont még így is ismeretlen területre lépett. A világ egyik legismertebb DJ-jeként, hatalmas rajongótábora van, közülük is többet inspirálhat a példa.

Emin-AI-em egyébként csak két egyszerű sort rappelt a számban: „This is the future rave sound / I’m getting awesome and underground.”

Szövegből zenét hoz létre a mesterséges intelligencia

A közvélemény egyelőre a mesterséges intelligencia által generált szövegekre, képekre figyel, pedig a zenében is történt előrelépés. A Google és a párizsi Sorbonne Egyetem kutatói ugyanis bemutatták a szöveges leírásokból muzsikát létrehozó MusicLM rendszert.

Természetes nyelvű leírások és zenefelvétel párjaik egyelőre ritkák, ezért joggal merül fel a kérdés: hogyan gyakoroltathatók szöveget zenévé alakító programok?

Eddig a modelleket a kapcsolódó szöveg és zene ugyanahhoz a beágyazáshoz való társítására tanították. Így vált lehetővé a nagy mennyiségű felvétel alapján történő zenegenerálás, pontosabban újjáalkotás. Utána a modell levonta a következtetést, és szöveges utasítást (prompt) készített a zenékhez.

szovegbol_zene_1.jpg

A MusicLM 24 kHz felbontású, harminc másodperces audióklipek újjáalkotását tanulta meg. 280 ezer órányi felvételből álló, nem nyilvános korpuszt használt hozzá.

A kihívás nagyságát érzékelteti, hogy a hangot három különböző aspektusból kellett modelleznie, ami persze árnyalta is a munkáját. A szavak és a zene közti kapcsolat az első. Nagyszabású kompozíció, például egy nyitány a második, amelyben hozzáadott dallamok ismétlődnek. Kisléptékű részletek, például egy dobhang megjelenése és elhalása a harmadik.

A kutatók mindhárom aspektust különféle tokenekkel reprezentálták, amelyeket előzetesen betanított, különböző rendszerek generáltak.

Ugyanabból az audióklipből az egyik (MuLan transzformer) hang-szöveg, a másik (w2v-BERT) szemantikus, a harmadik (SoundStream önkódoló) akusztikus tokeneket dolgozott ki. A hang-szövegesekből transzformerek szemantikusokat, a szemantikusokból és a hang-szövegesekből egy másik transzformer csoport akusztikusokat hozott létre. SoundStream dekódolója a második csoport tokenjeiből generált zenei klipet.

A fejlesztők egy szöveg-zene adatsor ezer leírását MusicLM-be és két másik hasonló modellbe, Riffusionbe és Mubertbe táplálták. A hallgatóknak el kellett dönteniük, melyik passzol leginkább az adott szöveghez. Az adatsor hivatásos zenészekkel felvett eredeti anyagait is választhatták.

Mubert 9,3, Riffusion 15,2, MusicLM 30 százalékot ért el. Legjobban, 45,4 százalékot a humán muzsikusok teljesítettek. A hallgatóság nem a zene minősége, hanem kizárólag a szöveghez való kapcsolódás alapján döntött.   

Ellenszélben San Francisco robottaxijai

A Cruise 2020-ban, a Waymo 2022-ben indított biztonsági sofőr nélküli taxiszolgáltatást San Franciscóban. A város 2022-ben engedélyezte, hogy anyagi ellenszolgáltatást kérjenek a fuvarért. Ezt követően, miután az összeköttetés megszakadt a központi szerverrel, a Cruise járművei több dugót okoztak az utakon.

A San Franciscói Városi Közlekedési Ügynökség, a megye Közlekedési Hatósága és a polgármesteri hivatal nyílt levélben sürgeti Kalifornia szövetségi állam illetékeseit az önvezető járművekre vonatkozó jelenlegi korlátozások fenntartására mindaddig, amíg működtetésük bizonyos feltételeknek meg nem felel.

sanfrancisco.jpg

A két cég robottaxijai csak a város meghatározott részein és meghatározott napszakokban működhetnek. 2022 decemberében a Cruise a tér- és az időbeli lehetőségek bővítését kérvényezte. A kérvényt elutasító nyílt levélben az érintettek 2022. május 29. és december 31. közötti kilencvenkét esetre hivatkoztak, amelyeket az önvezető járművek nem tervezett fékezései, megállásai okoztak.

Más autókat, a tömegközlekedést, kerékpárosokat és a gyalogosokat is zavarták ezekkel.

A nyílt levél szerzői hangsúlyozzák, hogy a jelenlegi korlátozások mindaddig maradjanak fenn, amíg a robotjárművek több hónapon keresztül nem zavarják meg a közlekedést. A flották csak ebben az esetben, és akkor is lépésről lépésre növelhetők, például egy cégnek maximum száz önvezető taxija lehessen egyszerre az utakon.

A Cruise-t és a Waymo-t egyaránt kötelezik a nem tervezett fékezések hatásának kiértékelését lehetővé tevő adatszolgáltatásra: mennyi kilométer van a járműben, hány és mennyi ideig tartottak a nem tervezett megállások. Az adatokat nyilvánossá teszik, bárki hozzájuk férhet – ma nincs így, mert például a Cruise korlátozott adatmennyiséget bocsát az érintett hatóságok rendelkezésére. A nyilvánosságnak legalább harminc napot kell adni az adatok tanulmányozására, és a város csak azt követően engedélyezheti az adott cégnek az esetleges terjeszkedést.

A Google hivatalosan bejelentette Bardot, a ChatGPT vetélytársát

Sundar Pichai, a Google vezérigazgatója február hatodikai blogposztban jelentette be a cég lekérdezéseket megválaszoló, csevegésben részt vevő kísérleti beszélgető mesterségesintelligencia-szolgáltatását. A Bard nevű szoftvert most „megbízható tesztelők” csoportja használja, pár héten belül szélesebb körben is hozzáférhető lesz.

Egyelőre nem tudni, mire képes, de valószínűleg elvileg ugyanannyian használhatják majd, mint az OpenAI ChatGPT-jét. Képernyőkép alapján praktikus kérdéseket tehetünk fel neki, például hogyan készítsük el megadott alapanyagokból a reggelit.

bard0.jpg

Pichai szerint Bard segít a kreativitás kibontakoztatásában, kíváncsiságunkat növeli, gyerekek számára is érthetően magyaráz el tudományos felfedezéseket, vagy azt, hogy kik jelenleg a világ legjobb támadó focistái. Hozzájárul képességeink továbbfejlesztéséhez.

Az információkat a webről szedi össze, azok alapján ad „naprakész, kiváló minőségű” válaszokat, ami azt sugallja, hogy néhány napos, még friss eseményekről is tájékoztat. ChatGPT számára ez (egyelőre) problémát jelent.

bard.jpg

A Google gyors lépése reakció is a nyilvánosan hozzáférhető automatizált szöveggeneráló OpenAI chatbot – és a mögötte álló Microsoft – akár az internetes keresés jövőjét is befolyásoló, óriási sikerére.

A többi techóriáshoz hasonlóan, a Google szintén tart a nagy nyelvmodellek (LLM) esetleges – és jól dokumentált – káros megnyilvánulásaitól, például hamis információk terjesztésétől vagy a gyűlöletbeszédtől. Bard nyilvánossá tétele irányváltás lehet, bár Pichai hangsúlyozza: a külsős visszajelzésekkel és a belső tesztekkel mindent megtesznek a chatbot által közöltek magas minőségi, biztonsági szintjéért, megalapozottságukért és a tartalom valódiságáért. Ezek ellenére persze többé-kevésbé garantálható, hogy a chatbot fog hibázni, lesznek ordító tévedései.

A nagyvállalat évek óta hangsúlyozza, hogy az MI-t beépíti termékeibe, a keresésbe is. A mesterséges intelligencia egyre több keresési eredményt foglal össze könnyen emészthető formában, több perspektívából nézve ahelyett, hogy a felhasználót hagyná rákattintani a forrásokra. Ezek a funkciók a jövőben egyre fontosabbak lesznek.

Új csalási lehetőségek az e-sportokban

Mivel az e-sport és az alapját adó videójátékok óriási üzlet, az alkalmi, kezdő játékosok élményét leromboló csalások komoly negatív hatással lehetnek az eladásokra, és az adott játék hírnevének is nagyon rosszat tesznek. Ez fokozottan érvényesül, ha olyanokról van szó, mint például a profik által űzött, topversenyzőknek dollármilliókat hozó Rocket League.

Klasszikus asztali játékoknál, mint a go, vagy egyes videójátékok, például a Star Craft II esetén működik a megerősítéses tanulás, az MI tisztességesen elsajátítja a tudományt, és ha úgy adódik, nyer. Mostanában viszont egyre többször használják más célra, csalásra a mesterséges intelligenciát.

ai_cheater.jpg

Az első személyű lövöldöző játékokban a célpontra automatikusan rászegeződő és azt lelövő csaló botot (cheatbot) fejlesztő Userviz, az MI YOLO implementációban történt felfedezését és az Activision kiadó jogi intézkedését követően, megszüntette a bothoz való hozzáférést.

A Rocket League-ben, az egyik legnépszerűbb e-sportban szintén elszaporodtak az eredetileg a versenyzők trenírozására fejlesztett mesterséges intelligenciát eredeti módon – „kreatívan” – használó csalók.

ai_cheater0.jpg

A szabályok a labdarúgáshoz hasonlók: az ellenfélnek a pálya másik végén lévő kapujába kell juttatni a labdát. Csakhogy azt nem feltétlenül rúgják, hanem versenyautók viszik oda, amihez a környezet sajátos fizikáját is uralni kell: a járművek felhajthatnak az aréna falára, az autókat turbómeghajtásra kapcsolhatják, vagy akár felemelhetik a levegőbe.

A csalást az edzőeszköznek fejlesztett Nexto bot teszi lehetővé. Ő és a hasonló botok használatát szigorú szabályok rögzítik, eleve úgy kódolják mindet, hogy versenyjátékokban például ne lehessen bevetni egyiket sem. A megerősítéses tanulással csúcsjátékossá gyakoroltatott Nextot viszont módosította valaki, és már meg tudja kerülni a szabályokat, azaz az eredetileg tiltott területen is alkalmazható.

A bot jelenlegi szintje a legfelső kategóriát jelentő egy százalék, tehát senki ellen sem esélytelen, a játékosok zömét pedig eleve megveri. Könnyen elképzelhető, hogy mi történik akkor, ha csalók irányítják.

Fejlesztői jelenleg új boton dolgoznak, és a csalásokat megelőzendő, rajtuk kívül senki más számára nem lesz elérhető. A Rocket League egyébként már le is tiltott a Nextot és más hasonló botokat bizonyítottan használó játékosokat – csalókat.

süti beállítások módosítása