Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Új csalási lehetőségek az e-sportokban

2023. február 09. - ferenck

Mivel az e-sport és az alapját adó videójátékok óriási üzlet, az alkalmi, kezdő játékosok élményét leromboló csalások komoly negatív hatással lehetnek az eladásokra, és az adott játék hírnevének is nagyon rosszat tesznek. Ez fokozottan érvényesül, ha olyanokról van szó, mint például a profik által űzött, topversenyzőknek dollármilliókat hozó Rocket League.

Klasszikus asztali játékoknál, mint a go, vagy egyes videójátékok, például a Star Craft II esetén működik a megerősítéses tanulás, az MI tisztességesen elsajátítja a tudományt, és ha úgy adódik, nyer. Mostanában viszont egyre többször használják más célra, csalásra a mesterséges intelligenciát.

ai_cheater.jpg

Az első személyű lövöldöző játékokban a célpontra automatikusan rászegeződő és azt lelövő csaló botot (cheatbot) fejlesztő Userviz, az MI YOLO implementációban történt felfedezését és az Activision kiadó jogi intézkedését követően, megszüntette a bothoz való hozzáférést.

A Rocket League-ben, az egyik legnépszerűbb e-sportban szintén elszaporodtak az eredetileg a versenyzők trenírozására fejlesztett mesterséges intelligenciát eredeti módon – „kreatívan” – használó csalók.

ai_cheater0.jpg

A szabályok a labdarúgáshoz hasonlók: az ellenfélnek a pálya másik végén lévő kapujába kell juttatni a labdát. Csakhogy azt nem feltétlenül rúgják, hanem versenyautók viszik oda, amihez a környezet sajátos fizikáját is uralni kell: a járművek felhajthatnak az aréna falára, az autókat turbómeghajtásra kapcsolhatják, vagy akár felemelhetik a levegőbe.

A csalást az edzőeszköznek fejlesztett Nexto bot teszi lehetővé. Ő és a hasonló botok használatát szigorú szabályok rögzítik, eleve úgy kódolják mindet, hogy versenyjátékokban például ne lehessen bevetni egyiket sem. A megerősítéses tanulással csúcsjátékossá gyakoroltatott Nextot viszont módosította valaki, és már meg tudja kerülni a szabályokat, azaz az eredetileg tiltott területen is alkalmazható.

A bot jelenlegi szintje a legfelső kategóriát jelentő egy százalék, tehát senki ellen sem esélytelen, a játékosok zömét pedig eleve megveri. Könnyen elképzelhető, hogy mi történik akkor, ha csalók irányítják.

Fejlesztői jelenleg új boton dolgoznak, és a csalásokat megelőzendő, rajtuk kívül senki más számára nem lesz elérhető. A Rocket League egyébként már le is tiltott a Nextot és más hasonló botokat bizonyítottan használó játékosokat – csalókat.

Gyakorló adatsorok képeiért fizet a művészeknek a Shutterstock MI-je

Egyre több vitát vált ki a képgeneráló mesterséges intelligenciák által tanuláshoz használt adatsorokban lévő alkotások szerzőinek anyagi kompenzálása. A viták egyelőre főként arra összpontosítanak, hogy mi a törvényes, pedig célszerűbb lenne, közelebb vinne a megoldáshoz, ha a törvényes helyett a korrekten lenne a hangsúly.

Ha eljutunk eddig, a szabályozók, a mesterségesintelligencia-appokkal teli digitális világ szellemében, ahhoz alkalmazkodva, és nem mögötte kullogva, ténylegesen, értelmesen frissíthetik a szerzői jogi törvényeket.

image_generator.jpg

A stockfotókat szolgáltató Getty Images szeptemberben tiltotta meg az MI által generált alkotások feltöltését és engedélyezését, majd bejelentette, hogy jogi eljárást indít a szövegből képet generáló Stable Diffusion fejlesztője, a Stability AI ellen, mert a modell többmillió gyakorlóképe közül jó pár az ő tulajdonuk, amelyeket engedély nélkül használnak.

A Getty legnagyobb riválisa, a Shutterstock más utat választott, képgeneráló szolgáltatása, azaz egy MI anyagilag kárpótolni fogja az adatsorokban érintett alkotókat. A vállalat szövegből képet készítő, az eddigi szolgáltatásokat kiegészítő mesterséges intelligenciát állított munkába, és a bevételeket megosztják az alkalmazás trenírozásában képekkel közreműködő művészekkel.

image_generator0.jpg

A Shutterstock éves bevétele 2021-ben 773 millió dollár volt (2022-es adat még nincs). A képgenerálók, például a DALL-E-2 több százmillió képen tanulnak. Ez a két szám azt sugallja, hogy az előrelátható jövőben az alkotók minimális, inkább jelképes, mint valós szerzői tiszteletdíjra számíthatnak.

A képgeneráló MI-technológia nagyon megbolygathatja a stockfotók licenszelési üzletét. Például miért fizessünk, ha mi magunk is fillérekért készíthetünk képeket?

A Shutterstock proaktívan közelíti meg a kérdést. Modelljük olyan művészek képein és a kapcsolódó metaadatokon tanul, akiknek a munkáit a cég további felhasználásra engedélyezi. A közreműködők aztán eldönthetik, hogy képeik szerepelhetnek-e jövőbeli gyakorló adatsorokban, vagy sem.

Minden egyes képért egyelőre nem pontosított összeget kapnak. Ha az adatsort más félnek licencelik, ugyanannyi jár nekik. A pénzt félévente kapják meg.

A fiókot nyitó felhasználók maximum napi hat képet tölthetnek fel, amiért minimális összeget fizetniük kell. A Shutterstock MI-je közreműködésével generált képeket szintén feltölthetnek, más cég MI-je segítségével alkotott darabokat viszont nem.

Elon Musk hazudott az önvezetésről

Techcégek gyakran reklámozzák termékeiket olyan funkciókkal, amelyekre még nem képesek. Általában immateriális javak, a lakosság bizalma vagy a befektetők bankszámlái bánják a félretájékoztatást. Önvezető járművek esetében viszont halálosak lehetnek a nem egészen korrekt infók.

Az NHTSA, az USA közúti biztonságért felelős hivatala vizsgálja, hogy a Tesla Autopilot módban vezetett járműve, 2022-ben egy alkalommal nyolc autó összekoccanását okozta. Az eset csak órákkal azt követően történt, hogy Elon Musk az Autopilot hozzáférhetőségéről tweetelt: opcionálisan mindenki számára megvásárolható Észak-Amerikában. Korábban csak biztonságosan vezető sofőröknek volt rá lehetősége.

tesla_7.jpg

A hivatal Tesla járművek felelőtlen fékezésével kapcsolatos többszáz panaszt vizsgál. Úgy tűnik, hogy a gyártó önvezető autóját szándékosan megtévesztő módon reklámozta.

Musk cége 2016-ban lakás kihajtójától vállalati parkolóig menő autóról a következő felirattal tett közkinccsé videót: „A vezetőülésben tartózkodó személy, csak jogi okok miatt van ott. Nem tesz semmit. Maga a jármű csinál mindent.”

tesla0_4.jpg

Belső céges elektronikus levelezésből (több e-mail a Bloomberg birtokába került) kiderült, hogy a mérnökök Musk nyomására hamisították meg a videót. Azt ígérte nekik, hogy a nézőkkel közölni fogja: a videó a jövőt, és nem a jelent mutatja. Ehelyett, a mozgókép-anyag közzétételekor a következőt tweetelte: „A Tesla (bárminemű emberi input nélkül) önmagát vezeti városi utcákon keresztül az autópályához, onnan vissza az utcákhoz, majd megtalálja a parkolóhelyet.”

A Tesla autó 2018-as fatális karambolja miatti bírósági eljárás során az Autopilot szoftverrészleg vezetője elmondta, hogy a videót részben fabrikálták.

„A videó célja nem a 2016-ban az ügyfelek számára hozzáférhető dolgok pontos bemutatása volt, hanem az, hogy mi építhető be a rendszerbe”állította a bíróságon.

A New York Times 2021 végén cikket közölt az ominózus videó készítéséről. Kiderült, hogy mérnökök előzetesen speciálisan és gondosan feltérképezték az útvonalat, de a jármű ennek ellenére, legalább egyszer karambolozott felvétel közben.

A nagy nyelvmodellek vezetnek az általános mesterséges intelligenciához?

A nagy nyelvmodellek (large language models, LLM), például a ChatGPT utóbbi időkben elért látványos sikerei régi vitát élesztettek fel az MI-fejlesztő közösségben: milyen fajta információ kell a tanulóalgoritmusoknak az intelligenciához?

Az emberi tapasztalat zöme, mint az étel íze, a napfelkelte szépsége vagy az érintés független a nyelvtől. Az LLM-ek viszont ékesen példázzák, hogy az emberi tapasztalat nagy részét az embernél jóval több nyelv „fogyasztásával” mégis képesek utánozni.

ai_language.JPG

Az LLM-ek előtt az MI-közösség a szövegeket korlátozott információforrásnak tartotta az általános MI-hez (artificial general intelligence, AGI) vezető úton – magyarázza Andrew Ng gépitanulás-szakértő. Az állatok nyelvhasználat nélkül váltak intelligenssé, az intelligencia pedig a világ látvány, hangok és más érzékszervi élmények általi észlelését jelenti, amelyek alapján tudjuk, hogyan mozogjunk a testünkkel, általában értjük a fizikát, azaz miként szedjük le a gyümölcsöt a fáról, találjunk szállást, párt. Az írás csak 5500, a beszélt nyelv 100 ezer éves, az emlősök viszont 200 ezer éve vannak itt.

Ha az MI-fejlődés az evolúciót követi, előbb rovar-, aztán egér-, macska-, főemlős-, végül emberszintű gépi intelligenciát kell építenünk, és a nyelv előtt olyan képességekre összpontosítunk, mint a látás és a pszichomotorikus adottságok.

Az LLM-ek viszont azt vetítik előre, hogy ha gigantikus mennyiségben hozzáférnek a nyelvhez, az információforrás korlátai, de legalábbis a korlátok jelentős része megszűnik. Ha egy ember 7/24, percenkénti 250 szó tempóban olvas, akkor évi 131.400.000 szóig jut el (ami ugye lehetetlen, mert aludni, enni, inni stb. is szoktunk). A GPT-3-at viszont 500 millió szón trenírozták, egy személynek több élet kellene ennyihez.

A weben lévő szövegek összessége embermilliárdok munkája, az LLM-ek pedig ezeken a szövegeken ismernek meg valamit a mi tapasztalatainkból. Hiába nem látott még egy modell napfelkeltét, annyit olvasott róla, hogy meggyőzően le tudja írni.

És a nyelv hiába csak kis része az emberi tapasztalatnak, az LLM-ek rengeteget megtanulnak rajta keresztül a világról, azaz az „intelligenciaépítés” több útja lehetséges, és gépi rendszerek esetében talán nem az evolúció vagy a gyerekeké a leghatékonyabb.

Ha csak szövegeken keresztül látjuk a világot, szegényebb a valóságélményünk. Viszont a csak szövegalapú mesterségesintelligencia-fejlesztés már messzire eljutott, és Ng szerint a következő években nagyon látványos fejlődésnek leszünk a tanúi ezen a területen.

Kína szabályozza a kamuképeket

Médiatartalmakat generáló modellek egyre gyakrabban használnak mesterséges intelligenciát. A fejlődés gyors és izgalmas, viszont komoly kérdéseket is felvet: hogyan maradhat a tartalom korrekt, miként kerülhetők el, illetve csökkenthetők a károk, milyen szabályozásra van szükség?

A kínai kormány egy ideje kifejezetten proaktív a potenciálisan kárt is okozó generatív MI-alkalmazások korlátozásában. Máshol kevésbé proaktívan, az oktatás, a művészetek, kulturális és gazdasági területek „megzavarásáért” kárhoztatják ezt a fajta mesterséges intelligenciát.

china_deepfakes_1.jpg

Kína legújabb lépése, hogy az ország Cybertér Hatósága a szintetikus médiát szabályozó, az eddigi tendenciát megerősítő, az MI-használatot szigorító új támpontokat dolgozott ki. A kamuképeket és videókat (deepfakes), a dezinformációt hátra szorítandó, a felhasználóknak egyébként eddig is saját néven kellett regisztrálniuk, és a hamis hírek (fake news) terjesztőit börtönbüntetésre is ítélhetik.

A deepfakes jelenséget máshol is igyekeznek minimalizálni. Az USA egyes államai szintén szigorítottak, és 2022-től az EU is a dezinformáció felcímkézésére, az azokat terjesztők hirdetési bevételeinek korlátozására kötelezi a közösségimédia-cégeket.

china_deepfakes0.jpg

A január tizedikén törvényerőre emelkedett új kínai szabályozás sokkal szigorúbb, tényleg jelentősen korlátozza a mesterséges intelligenciával történő szövegek, hanganyagok, képek, videók, 3D digitális anyagok készítését, szerkesztését, az úgynevezett „mélyszintézis-szolgáltatásokat.”

MI-vel nem hozható létre a nemzetbiztonságot veszélyeztető, a gazdasági és a társadalmi rendet megzavaró, Kína összképére káros output. Az arcokat generáló és szerkesztő MI-modellek szolgáltatóinak az illető személyek engedélyére és azonosításukra szükségük van a képek stb. gyakorlóadatokként történő használatához.

A szolgáltatóknak egyértelműen fel kell címkézniük a nyilvánosságot hamis információval megtévesztő, félrevezető MI által létrehozott médiatermékeket. A modelljeik által generált hamis információt el kell tüntetniük, az incidensekről értesíteniük kell a hatóságokat, és a törvénysértéseket rögzíteniük kell.

Az algoritmusok időszakonkénti felülvizsgálata szintén kötelező.

A kormány és a hatóságok saját vizsgálatokat folytathatnak, a szolgáltatók új felhasználók regisztrálásának megtiltásával, a szolgáltatás felfüggesztésével, vagy a vonatkozó törvények szerinti büntetőjogi eljárásokkal sújthatók.

Ingatlanközvetítés a ChatGPT közreműködésével

Úgy tűnik, hogy ingatlanközvetítők előszeretettel használják az OpenAI sokat dicsért és vitatott, tavaly év végén a közhasználatba berobbant mesterségesintelligencia-szoftverét, a ChatGPT-t. A hirdetésekből törvényszerűen ki akarják hozni a legtöbbet vele. A gátlástalanabb ügynökök pedig a leendő tulajdonosok minél nagyobb megkopasztására vetik be a mesterséges intelligenciát.

„Rengeteg időt spórolt meg nekem” – nyilatkozta az iowai JJ Johannes ingatlanügynök.

chatgpt.jpg

Johannes januárban a ChatGPT használatát elmagyarázó videót is posztolt a Twitterre. Leírta benne, hogyan készít listákat vele. Szerinte a szoftver még nem tökéletes hirdetésírásra, de ennek ellenére nagyon hasznos, mert máskülönben „sok időbe telik ékesszóló szöveget készíteni.” 

Johannes humorosan válaszolt a kommentszekcióban valakinek, aki, sokakhoz hasonlóan, az egész ingatlanszektorral szemben szkeptikus, és az MI valójában – így a troll – a lerobbant házak értékesnek mutatásával, a megtévesztés művészetével forradalmasíthatja a területet.

chatgpz0.jpg

„A ChatGPT tökéletes lesz ingatlanhirdetések létrehozásához. Csak meg kell tanítani neki, hogy szűk viskókat kényelmes palotaként, a rohadó faforgácsot némi javításra szoruló felső szintként írja le, és mehet is” – írta szarkasztikusan a kommentelő.

Az ügynök nevető emotikonnal reagált, majd arról elmélkedett, hogy az általános hívószavak, elcsépelt mondatok helyett bármi jöhet, ami pontosabban leírja az ingatlant. És ebben sokat segíthet a ChatGPT.

A trollnak abban mindenesetre igaza van, hogy a szoftverrel jóval könnyebb félrevezető hirdetéseket készíteni egy, a „ragadozó természetéről” és gyakorlatáról ismert szektorban.

Ugyanezen a területen a ChatGPT pozitív célokra, például elviselhetetlen tulajdonosokkal küszködők támogatására, vagy a kötelező felújítást halogató, arról megfeledkező szakemberek sürgetésére, figyelmeztetésére szintén használható.

ChatGPT írt már ablakot kicserélni nagyon nem akaró felújítónak jogi eljárással fenyegető levelet. Valószínűleg pontosabbat és tárgyilagosabbat, mint tette volna a dühös ügyfél.

Az ablakot hirtelen és gyorsan kicserélték.

Homokos strandon fut a dél-koreai robotkutya

A dél-koreai KAIST (Korea Advanced Institute of Science & Technology) kutatói homokos strandokon ügyesen keresztülmenő/futó négylábú robotkutyát fejlesztettek. A gép neve RaiBo.

Szimulálták a szemcsés talajból a robotra ható erőket, majd mesterséges ideghálón alapuló kontrollert terveztek hozzá. A kontroller változatos terepekhez történő alkalmazkodáshoz, előzetes információk nélkül, séta, futás közben hoz valósidejű döntéseket.

robotkutya_3.jpg

Az ideghálót megerősítéses tanulással gyakoroltatták. Mivel ehhez a gépitanulás-típushoz rengeteg adat szükséges, általában a fizikai valóság és közeg jelenségeihez hasonló szimulációban gyűjtenek adatokat hozzá. Ez a legelterjedtebb módszer, a tanulásalapú és a „valóvilágban” alkalmazott, mozgó robotokat működtető kontrollereket szinte mindig szimulált környezetben gyakoroltatják.

A szimulációnak azért kell nagyon hasonlítania a valósághoz, hogy a kontroller – és a robot – teljesítménye ne romoljon látványosan.

robotkutya0_3.jpg

A minden egyes időpillanatban az egy vagy több érintkezés által keletkező erő, a kontaktusok kiszámításával göröngyös, deformálható terepek is hatékonyan modellezhetők. Az idegháló az időben folyamatos szenzorikus adatokat elemezve jelzi előre a terep tulajdonságait.

A hálóval megtaníttatták azt is, hogy a robot egyensúlyvesztés nélkül – egyenes irányú mozgás mellett – hogyan forduljon meg, változtasson irányt különböző terepeken.

Miután a kutatók rászerelték a kontrollert, RaiBo másodpercenkénti maximális 3,03 méter sebességgel futott a homokon, miközben lába teljesen belesüppedt a szemcsés anyagba. A fordulást másodpercenkénti kilencven fokos tempóban kivitelezte. Bebizonyosodott még az is, hogy hirtelen puhává váló terepen is elboldogul.

A KAIST kutatói által kidolgozott szimuláció és tanulási módszertan más robotok praktikusfeladat-végrehajtására, terepekhez való jobb alkalmazkodásukra is komoly hatással lehet.

Betartja a szabályokat a Google chatbotja

A Google által felvásárolt londoni DeepMind kutatói tanulmányban írták le, hogyan finomhangolhatók nyelvmodelljeik. Azért van szükség erre, hogy a modelleken alapuló chatbotok beszélgetések során ne legyenek sértők, ne fogalmazzanak meg a témától eltérő és valótlan állításokat.

Emberi visszajelzés alapján úgy gyakoroltatták az osztályozókat, hogy vegyék észre, ha a saját fejlesztésű Sparrow chatbot szabályokat sért, és jutalmazzák, ha jól teljesít, valamint mindig úgy járjon el, ahogy kell, és folyamatosan keresse a válaszai minőségét javító infókat.

sparrow.jpg

Chatbotokkal folytatott beszélgetéseink meghatározott szabálysorok szerint történnek. Utána pontozhatjuk, hogy mennyire tartotta be azokat, és a hibáira is felhívhatjuk a figyelmet. Az osztályozókat e beszélgetések alapján gyakoroltatják, és képesek megmondani, hogy a bot mikor szeg szabályt, majd elsajátítja, hogyan generáljon azokkal összhangban lévő outputot.

Sparrow-t a hetvenmilliárd paraméteres „tanult” Chinchilla nyelvmodellel kezdték. A beszélgetéshez leírták a funkcióját (a legjobbját nyújtja a felhasználói kérdések megválaszolásához), a modorát (tiszteletteljes, udvarias, befogadó) és a lehetőségeit (ha külső ismeretekre van szüksége, használja a Google-t), majd példa chat következett.

Huszonhárom szabály alapján definiálták, hogyan lehet segítőkész, korrekt, hogyan nem okozhat kárt: nem szabad elkalandoznia a témától, kerülje el az ismétlést és a félretájékoztatást stb. Nem használhat közhelyeket, nem fejezheti ki preferenciáit, véleményét, és nem mutatkozhat emberként.

sparrow0.jpg

Beszélgetés közben a Google keresője általi találatok a válaszai mellett jelentek meg, megerősítve azokat.

A modell a társalgás minden egyes fordulatához több választ generált. Humán jegyzetelők pontozták a legjobbat, és hozzáfűzték, hogy megállja-e a helyét, vagy Sparrow inkább kutakodjon a weben, aztán a keresési eredményt is értékelték.

Egy külön Chinchillát az osztályozás alapján finomhangoltak, majd azt is kiértékelték. Utána valamelyik szabály megszegésére biztatták Sparrow-t, majd az alapján egy megint másik Chinchillát finomhangoltak, hogy osztályozza a megszegett szabályokat.

Következő lépésben, megerősítéses tanulás segítségével Sparrow-t finomhangolták. A beszélgetést az addigi visszajelzéseket feldolgozva folytatta.

A humán jegyzetelők az esetek 78 százalékában hitelesnek és bizonyítottnak tartották Sparrow-t, míg az alap Chinchilla 61 százalékot ért el. Csak az esetek nyolc százalékában szegte meg a szabályokat akkor, amikor a jegyzetelők ezt akarták elérni – az alapmodellnél húsz százalék volt ez a mutató.

A keresési opció és a finomhangolás ellenére Sparrow időnként mégis generált rossz válaszokat, máskor a keresési eredményt felejtette el a válaszba foglalni, időnként pedig a témához nem tartozó feleletet adott. Érdekes módon, a finomhangolással markánsabb lett a nem óhajtott viselkedés (már amikor ezt próbálták kiváltani a botból): -1 és 1 közötti skálán 0,10-et, az alap Chinchilla 0,6-ot ért el. Összességében azonban a felturbózott chatbot sokkal inkább megfelel az elvárásoknak, mint a korábbi változatok.

Szorosabb lett a kapcsolat két mesterségesintelligencia-nagyhatalom között

Január első felében került nyilvánosságra, hogy a Microsoft a ChatGPT-vel kiegészített Bing kereső új változatát tervezi elindítani, és az Office-ba is integrálná a nyelvmodellt.

Január második felében a redmondi nagyvállalat megerősítette a híreszteléseket: további befektetésekkel támogatja a ChatGPT-t és más mesterségesintelligencia-projekteket jegyző OpenAI-t.

microsoft_openai.jpg

A pénzügyi részleteket nem tették közzé, de a Semafor tech híroldalnak anonim források tízmilliárd dollárról beszéltek. A Microsoftot a kutatócég bevételeinek 75 százaléka illeti meg a befektetés megtérültéig, utána pedig 49 százalékos tulajdonos lesz.

Az együttműködés 2019-ben, a Microsoft egymilliárd dolláros befektetésével kezdődött, aztán valamikor 2019 és 2023 között további kétmilliárdot folyósítottak az OpenAI-nak. Mindkét fél jól járt: a Microsoft az MI-modellek kereskedelmi hasznosításából jutott anyagiakhoz, az OpenAI pedig használhatja a mamutvállalat masszív számítási erőforrásait.

Az új megállapodás értelmében a Microsoft kereskedelmi és vállalati termékeibe integrálja az OpenAI modelljeit, rájuk épülő új termékeket indít. Az Azure felhőszolgáltatás lehetővé teszi fejlesztőknek az OpenAI jövőbeli modelljeinek használatát is. Az Azure felhasználói jelenleg a GPT-3.5-höz, a DALL-E 2-höz és a Codex kódgenerátorhoz férnek hozzá.

A Microsoft plusz számítási infrastruktúrát bocsájt az OpenAI rendelkezésére, amelyet a startup modelljeinek futtatására és gyakoroltatására fog használni.

Az általánosságok szintjén elmondták, hogy a két cég folytatja a biztonságos és felelős mesterségesintelligencia-fejlesztésekben az eddigi együttműködést.

A mostani befektetéssel az OpenAI újításainak egyesek által megkérdőjelezett piaci értéke is validálódik. Emellett új fejezet nyílik a Microsoft és a Google több évtizedes rivalizálásának történetében.

Ez a fejezet nagyrészt a mesterséges intelligenciáról fog szólni.

Szerzői jogok illetik meg az alkotó mesterséges intelligenciákat?

Stephen Thaler, a St. Louis-i (Missouri állam) Imagination Engines alapító-főmérnöke, ismert számítástudományi szakember január tizedikén Washington D.C.-ben, egy szövetségi bíróságon kérelmezte, hogy mesterségesintelligencia-rendszerét illessék meg az általa készített művészi alkotásokért járó szerzői jogok.

Egy tavaly júniusban megindított perben, tárgyalás előtti győzelem reményében, a fővárosi bíróságtól el szeretné érni az Egyesült Államok Szerzői Jogi Hivatala döntésének megsemmisítését, melynek értelmében kreatív munkákkal csak akkor járnak jogdíjak, ha ember az alkotó.

copyright.jpg

A témában ez az egyik első ügy, de a mesterségesintelligencia-alapú kreatív rendszerek, programok és alkalmazások, mint a ChatGPT, a DALL-E és a többiek gyors elterjedésével a jövőben rengeteg hasonló pereskedés, jogorvoslat várható.

Thaler ügyvédei szerint a probléma pénzügyi szempontból is fontos, míg egy-két éve ez nem volt még ennyire egyértelmű. Állításuk alapján a mesterséges intelligenciával létrehozott művészet védelme elősegítené a szerzői jogi törvény céljainak érvényesítését, és egy évtized múlva bizarrnak fog tűnni, hogy ezekért kell most pereskedni.

copyright0.jpg

A Szerzői Jogi Hivatal nem fogadja el az ügyvédek álláspontját.

Thaler a világ tizennyolc joghatóságánál külön-külön igyekszik elérni rendszere jogi védelmét, de eddig (USA, Egyesült Királyság, EU, Ausztrália) nem ért el eredményt. Egy brit bíróság márciusban tárgyalja az ügyet.

Már 2018-ban is szerzői jogi védelmet kért a Creativity Machine rendszere által generált „A Paradicsom új bejárata” képhez, amelynek alkotója a beadvány szerint a rendszer volt. A beadványt az érvényben lévő törvényre, bírósági precedensekre, a szervezet gyakorlatára és a humán alkotó hiányára hivatkozva, tavaly februárban utasította vissza a Szerzői Jogi Hivatal.

Thaler szerint a hivatal rosszul értelmezi a szerzői jogi törvényt, és a döntést idejétmúlt bírósági precedensek alapján hozták. A kreativitásra a hagyományok alapján romantikusan és emberközpontúan gondolnak – állítja.     

süti beállítások módosítása