Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Szövegből zenét hoz létre a mesterséges intelligencia

2023. február 14. - ferenck

A közvélemény egyelőre a mesterséges intelligencia által generált szövegekre, képekre figyel, pedig a zenében is történt előrelépés. A Google és a párizsi Sorbonne Egyetem kutatói ugyanis bemutatták a szöveges leírásokból muzsikát létrehozó MusicLM rendszert.

Természetes nyelvű leírások és zenefelvétel párjaik egyelőre ritkák, ezért joggal merül fel a kérdés: hogyan gyakoroltathatók szöveget zenévé alakító programok?

Eddig a modelleket a kapcsolódó szöveg és zene ugyanahhoz a beágyazáshoz való társítására tanították. Így vált lehetővé a nagy mennyiségű felvétel alapján történő zenegenerálás, pontosabban újjáalkotás. Utána a modell levonta a következtetést, és szöveges utasítást (prompt) készített a zenékhez.

szovegbol_zene_1.jpg

A MusicLM 24 kHz felbontású, harminc másodperces audióklipek újjáalkotását tanulta meg. 280 ezer órányi felvételből álló, nem nyilvános korpuszt használt hozzá.

A kihívás nagyságát érzékelteti, hogy a hangot három különböző aspektusból kellett modelleznie, ami persze árnyalta is a munkáját. A szavak és a zene közti kapcsolat az első. Nagyszabású kompozíció, például egy nyitány a második, amelyben hozzáadott dallamok ismétlődnek. Kisléptékű részletek, például egy dobhang megjelenése és elhalása a harmadik.

A kutatók mindhárom aspektust különféle tokenekkel reprezentálták, amelyeket előzetesen betanított, különböző rendszerek generáltak.

Ugyanabból az audióklipből az egyik (MuLan transzformer) hang-szöveg, a másik (w2v-BERT) szemantikus, a harmadik (SoundStream önkódoló) akusztikus tokeneket dolgozott ki. A hang-szövegesekből transzformerek szemantikusokat, a szemantikusokból és a hang-szövegesekből egy másik transzformer csoport akusztikusokat hozott létre. SoundStream dekódolója a második csoport tokenjeiből generált zenei klipet.

A fejlesztők egy szöveg-zene adatsor ezer leírását MusicLM-be és két másik hasonló modellbe, Riffusionbe és Mubertbe táplálták. A hallgatóknak el kellett dönteniük, melyik passzol leginkább az adott szöveghez. Az adatsor hivatásos zenészekkel felvett eredeti anyagait is választhatták.

Mubert 9,3, Riffusion 15,2, MusicLM 30 százalékot ért el. Legjobban, 45,4 százalékot a humán muzsikusok teljesítettek. A hallgatóság nem a zene minősége, hanem kizárólag a szöveghez való kapcsolódás alapján döntött.   

Ellenszélben San Francisco robottaxijai

A Cruise 2020-ban, a Waymo 2022-ben indított biztonsági sofőr nélküli taxiszolgáltatást San Franciscóban. A város 2022-ben engedélyezte, hogy anyagi ellenszolgáltatást kérjenek a fuvarért. Ezt követően, miután az összeköttetés megszakadt a központi szerverrel, a Cruise járművei több dugót okoztak az utakon.

A San Franciscói Városi Közlekedési Ügynökség, a megye Közlekedési Hatósága és a polgármesteri hivatal nyílt levélben sürgeti Kalifornia szövetségi állam illetékeseit az önvezető járművekre vonatkozó jelenlegi korlátozások fenntartására mindaddig, amíg működtetésük bizonyos feltételeknek meg nem felel.

sanfrancisco.jpg

A két cég robottaxijai csak a város meghatározott részein és meghatározott napszakokban működhetnek. 2022 decemberében a Cruise a tér- és az időbeli lehetőségek bővítését kérvényezte. A kérvényt elutasító nyílt levélben az érintettek 2022. május 29. és december 31. közötti kilencvenkét esetre hivatkoztak, amelyeket az önvezető járművek nem tervezett fékezései, megállásai okoztak.

Más autókat, a tömegközlekedést, kerékpárosokat és a gyalogosokat is zavarták ezekkel.

A nyílt levél szerzői hangsúlyozzák, hogy a jelenlegi korlátozások mindaddig maradjanak fenn, amíg a robotjárművek több hónapon keresztül nem zavarják meg a közlekedést. A flották csak ebben az esetben, és akkor is lépésről lépésre növelhetők, például egy cégnek maximum száz önvezető taxija lehessen egyszerre az utakon.

A Cruise-t és a Waymo-t egyaránt kötelezik a nem tervezett fékezések hatásának kiértékelését lehetővé tevő adatszolgáltatásra: mennyi kilométer van a járműben, hány és mennyi ideig tartottak a nem tervezett megállások. Az adatokat nyilvánossá teszik, bárki hozzájuk férhet – ma nincs így, mert például a Cruise korlátozott adatmennyiséget bocsát az érintett hatóságok rendelkezésére. A nyilvánosságnak legalább harminc napot kell adni az adatok tanulmányozására, és a város csak azt követően engedélyezheti az adott cégnek az esetleges terjeszkedést.

A Google hivatalosan bejelentette Bardot, a ChatGPT vetélytársát

Sundar Pichai, a Google vezérigazgatója február hatodikai blogposztban jelentette be a cég lekérdezéseket megválaszoló, csevegésben részt vevő kísérleti beszélgető mesterségesintelligencia-szolgáltatását. A Bard nevű szoftvert most „megbízható tesztelők” csoportja használja, pár héten belül szélesebb körben is hozzáférhető lesz.

Egyelőre nem tudni, mire képes, de valószínűleg elvileg ugyanannyian használhatják majd, mint az OpenAI ChatGPT-jét. Képernyőkép alapján praktikus kérdéseket tehetünk fel neki, például hogyan készítsük el megadott alapanyagokból a reggelit.

bard0.jpg

Pichai szerint Bard segít a kreativitás kibontakoztatásában, kíváncsiságunkat növeli, gyerekek számára is érthetően magyaráz el tudományos felfedezéseket, vagy azt, hogy kik jelenleg a világ legjobb támadó focistái. Hozzájárul képességeink továbbfejlesztéséhez.

Az információkat a webről szedi össze, azok alapján ad „naprakész, kiváló minőségű” válaszokat, ami azt sugallja, hogy néhány napos, még friss eseményekről is tájékoztat. ChatGPT számára ez (egyelőre) problémát jelent.

bard.jpg

A Google gyors lépése reakció is a nyilvánosan hozzáférhető automatizált szöveggeneráló OpenAI chatbot – és a mögötte álló Microsoft – akár az internetes keresés jövőjét is befolyásoló, óriási sikerére.

A többi techóriáshoz hasonlóan, a Google szintén tart a nagy nyelvmodellek (LLM) esetleges – és jól dokumentált – káros megnyilvánulásaitól, például hamis információk terjesztésétől vagy a gyűlöletbeszédtől. Bard nyilvánossá tétele irányváltás lehet, bár Pichai hangsúlyozza: a külsős visszajelzésekkel és a belső tesztekkel mindent megtesznek a chatbot által közöltek magas minőségi, biztonsági szintjéért, megalapozottságukért és a tartalom valódiságáért. Ezek ellenére persze többé-kevésbé garantálható, hogy a chatbot fog hibázni, lesznek ordító tévedései.

A nagyvállalat évek óta hangsúlyozza, hogy az MI-t beépíti termékeibe, a keresésbe is. A mesterséges intelligencia egyre több keresési eredményt foglal össze könnyen emészthető formában, több perspektívából nézve ahelyett, hogy a felhasználót hagyná rákattintani a forrásokra. Ezek a funkciók a jövőben egyre fontosabbak lesznek.

Új csalási lehetőségek az e-sportokban

Mivel az e-sport és az alapját adó videójátékok óriási üzlet, az alkalmi, kezdő játékosok élményét leromboló csalások komoly negatív hatással lehetnek az eladásokra, és az adott játék hírnevének is nagyon rosszat tesznek. Ez fokozottan érvényesül, ha olyanokról van szó, mint például a profik által űzött, topversenyzőknek dollármilliókat hozó Rocket League.

Klasszikus asztali játékoknál, mint a go, vagy egyes videójátékok, például a Star Craft II esetén működik a megerősítéses tanulás, az MI tisztességesen elsajátítja a tudományt, és ha úgy adódik, nyer. Mostanában viszont egyre többször használják más célra, csalásra a mesterséges intelligenciát.

ai_cheater.jpg

Az első személyű lövöldöző játékokban a célpontra automatikusan rászegeződő és azt lelövő csaló botot (cheatbot) fejlesztő Userviz, az MI YOLO implementációban történt felfedezését és az Activision kiadó jogi intézkedését követően, megszüntette a bothoz való hozzáférést.

A Rocket League-ben, az egyik legnépszerűbb e-sportban szintén elszaporodtak az eredetileg a versenyzők trenírozására fejlesztett mesterséges intelligenciát eredeti módon – „kreatívan” – használó csalók.

ai_cheater0.jpg

A szabályok a labdarúgáshoz hasonlók: az ellenfélnek a pálya másik végén lévő kapujába kell juttatni a labdát. Csakhogy azt nem feltétlenül rúgják, hanem versenyautók viszik oda, amihez a környezet sajátos fizikáját is uralni kell: a járművek felhajthatnak az aréna falára, az autókat turbómeghajtásra kapcsolhatják, vagy akár felemelhetik a levegőbe.

A csalást az edzőeszköznek fejlesztett Nexto bot teszi lehetővé. Ő és a hasonló botok használatát szigorú szabályok rögzítik, eleve úgy kódolják mindet, hogy versenyjátékokban például ne lehessen bevetni egyiket sem. A megerősítéses tanulással csúcsjátékossá gyakoroltatott Nextot viszont módosította valaki, és már meg tudja kerülni a szabályokat, azaz az eredetileg tiltott területen is alkalmazható.

A bot jelenlegi szintje a legfelső kategóriát jelentő egy százalék, tehát senki ellen sem esélytelen, a játékosok zömét pedig eleve megveri. Könnyen elképzelhető, hogy mi történik akkor, ha csalók irányítják.

Fejlesztői jelenleg új boton dolgoznak, és a csalásokat megelőzendő, rajtuk kívül senki más számára nem lesz elérhető. A Rocket League egyébként már le is tiltott a Nextot és más hasonló botokat bizonyítottan használó játékosokat – csalókat.

Gyakorló adatsorok képeiért fizet a művészeknek a Shutterstock MI-je

Egyre több vitát vált ki a képgeneráló mesterséges intelligenciák által tanuláshoz használt adatsorokban lévő alkotások szerzőinek anyagi kompenzálása. A viták egyelőre főként arra összpontosítanak, hogy mi a törvényes, pedig célszerűbb lenne, közelebb vinne a megoldáshoz, ha a törvényes helyett a korrekten lenne a hangsúly.

Ha eljutunk eddig, a szabályozók, a mesterségesintelligencia-appokkal teli digitális világ szellemében, ahhoz alkalmazkodva, és nem mögötte kullogva, ténylegesen, értelmesen frissíthetik a szerzői jogi törvényeket.

image_generator.jpg

A stockfotókat szolgáltató Getty Images szeptemberben tiltotta meg az MI által generált alkotások feltöltését és engedélyezését, majd bejelentette, hogy jogi eljárást indít a szövegből képet generáló Stable Diffusion fejlesztője, a Stability AI ellen, mert a modell többmillió gyakorlóképe közül jó pár az ő tulajdonuk, amelyeket engedély nélkül használnak.

A Getty legnagyobb riválisa, a Shutterstock más utat választott, képgeneráló szolgáltatása, azaz egy MI anyagilag kárpótolni fogja az adatsorokban érintett alkotókat. A vállalat szövegből képet készítő, az eddigi szolgáltatásokat kiegészítő mesterséges intelligenciát állított munkába, és a bevételeket megosztják az alkalmazás trenírozásában képekkel közreműködő művészekkel.

image_generator0.jpg

A Shutterstock éves bevétele 2021-ben 773 millió dollár volt (2022-es adat még nincs). A képgenerálók, például a DALL-E-2 több százmillió képen tanulnak. Ez a két szám azt sugallja, hogy az előrelátható jövőben az alkotók minimális, inkább jelképes, mint valós szerzői tiszteletdíjra számíthatnak.

A képgeneráló MI-technológia nagyon megbolygathatja a stockfotók licenszelési üzletét. Például miért fizessünk, ha mi magunk is fillérekért készíthetünk képeket?

A Shutterstock proaktívan közelíti meg a kérdést. Modelljük olyan művészek képein és a kapcsolódó metaadatokon tanul, akiknek a munkáit a cég további felhasználásra engedélyezi. A közreműködők aztán eldönthetik, hogy képeik szerepelhetnek-e jövőbeli gyakorló adatsorokban, vagy sem.

Minden egyes képért egyelőre nem pontosított összeget kapnak. Ha az adatsort más félnek licencelik, ugyanannyi jár nekik. A pénzt félévente kapják meg.

A fiókot nyitó felhasználók maximum napi hat képet tölthetnek fel, amiért minimális összeget fizetniük kell. A Shutterstock MI-je közreműködésével generált képeket szintén feltölthetnek, más cég MI-je segítségével alkotott darabokat viszont nem.

Elon Musk hazudott az önvezetésről

Techcégek gyakran reklámozzák termékeiket olyan funkciókkal, amelyekre még nem képesek. Általában immateriális javak, a lakosság bizalma vagy a befektetők bankszámlái bánják a félretájékoztatást. Önvezető járművek esetében viszont halálosak lehetnek a nem egészen korrekt infók.

Az NHTSA, az USA közúti biztonságért felelős hivatala vizsgálja, hogy a Tesla Autopilot módban vezetett járműve, 2022-ben egy alkalommal nyolc autó összekoccanását okozta. Az eset csak órákkal azt követően történt, hogy Elon Musk az Autopilot hozzáférhetőségéről tweetelt: opcionálisan mindenki számára megvásárolható Észak-Amerikában. Korábban csak biztonságosan vezető sofőröknek volt rá lehetősége.

tesla_7.jpg

A hivatal Tesla járművek felelőtlen fékezésével kapcsolatos többszáz panaszt vizsgál. Úgy tűnik, hogy a gyártó önvezető autóját szándékosan megtévesztő módon reklámozta.

Musk cége 2016-ban lakás kihajtójától vállalati parkolóig menő autóról a következő felirattal tett közkinccsé videót: „A vezetőülésben tartózkodó személy, csak jogi okok miatt van ott. Nem tesz semmit. Maga a jármű csinál mindent.”

tesla0_4.jpg

Belső céges elektronikus levelezésből (több e-mail a Bloomberg birtokába került) kiderült, hogy a mérnökök Musk nyomására hamisították meg a videót. Azt ígérte nekik, hogy a nézőkkel közölni fogja: a videó a jövőt, és nem a jelent mutatja. Ehelyett, a mozgókép-anyag közzétételekor a következőt tweetelte: „A Tesla (bárminemű emberi input nélkül) önmagát vezeti városi utcákon keresztül az autópályához, onnan vissza az utcákhoz, majd megtalálja a parkolóhelyet.”

A Tesla autó 2018-as fatális karambolja miatti bírósági eljárás során az Autopilot szoftverrészleg vezetője elmondta, hogy a videót részben fabrikálták.

„A videó célja nem a 2016-ban az ügyfelek számára hozzáférhető dolgok pontos bemutatása volt, hanem az, hogy mi építhető be a rendszerbe”állította a bíróságon.

A New York Times 2021 végén cikket közölt az ominózus videó készítéséről. Kiderült, hogy mérnökök előzetesen speciálisan és gondosan feltérképezték az útvonalat, de a jármű ennek ellenére, legalább egyszer karambolozott felvétel közben.

A nagy nyelvmodellek vezetnek az általános mesterséges intelligenciához?

A nagy nyelvmodellek (large language models, LLM), például a ChatGPT utóbbi időkben elért látványos sikerei régi vitát élesztettek fel az MI-fejlesztő közösségben: milyen fajta információ kell a tanulóalgoritmusoknak az intelligenciához?

Az emberi tapasztalat zöme, mint az étel íze, a napfelkelte szépsége vagy az érintés független a nyelvtől. Az LLM-ek viszont ékesen példázzák, hogy az emberi tapasztalat nagy részét az embernél jóval több nyelv „fogyasztásával” mégis képesek utánozni.

ai_language.JPG

Az LLM-ek előtt az MI-közösség a szövegeket korlátozott információforrásnak tartotta az általános MI-hez (artificial general intelligence, AGI) vezető úton – magyarázza Andrew Ng gépitanulás-szakértő. Az állatok nyelvhasználat nélkül váltak intelligenssé, az intelligencia pedig a világ látvány, hangok és más érzékszervi élmények általi észlelését jelenti, amelyek alapján tudjuk, hogyan mozogjunk a testünkkel, általában értjük a fizikát, azaz miként szedjük le a gyümölcsöt a fáról, találjunk szállást, párt. Az írás csak 5500, a beszélt nyelv 100 ezer éves, az emlősök viszont 200 ezer éve vannak itt.

Ha az MI-fejlődés az evolúciót követi, előbb rovar-, aztán egér-, macska-, főemlős-, végül emberszintű gépi intelligenciát kell építenünk, és a nyelv előtt olyan képességekre összpontosítunk, mint a látás és a pszichomotorikus adottságok.

Az LLM-ek viszont azt vetítik előre, hogy ha gigantikus mennyiségben hozzáférnek a nyelvhez, az információforrás korlátai, de legalábbis a korlátok jelentős része megszűnik. Ha egy ember 7/24, percenkénti 250 szó tempóban olvas, akkor évi 131.400.000 szóig jut el (ami ugye lehetetlen, mert aludni, enni, inni stb. is szoktunk). A GPT-3-at viszont 500 millió szón trenírozták, egy személynek több élet kellene ennyihez.

A weben lévő szövegek összessége embermilliárdok munkája, az LLM-ek pedig ezeken a szövegeken ismernek meg valamit a mi tapasztalatainkból. Hiába nem látott még egy modell napfelkeltét, annyit olvasott róla, hogy meggyőzően le tudja írni.

És a nyelv hiába csak kis része az emberi tapasztalatnak, az LLM-ek rengeteget megtanulnak rajta keresztül a világról, azaz az „intelligenciaépítés” több útja lehetséges, és gépi rendszerek esetében talán nem az evolúció vagy a gyerekeké a leghatékonyabb.

Ha csak szövegeken keresztül látjuk a világot, szegényebb a valóságélményünk. Viszont a csak szövegalapú mesterségesintelligencia-fejlesztés már messzire eljutott, és Ng szerint a következő években nagyon látványos fejlődésnek leszünk a tanúi ezen a területen.

Kína szabályozza a kamuképeket

Médiatartalmakat generáló modellek egyre gyakrabban használnak mesterséges intelligenciát. A fejlődés gyors és izgalmas, viszont komoly kérdéseket is felvet: hogyan maradhat a tartalom korrekt, miként kerülhetők el, illetve csökkenthetők a károk, milyen szabályozásra van szükség?

A kínai kormány egy ideje kifejezetten proaktív a potenciálisan kárt is okozó generatív MI-alkalmazások korlátozásában. Máshol kevésbé proaktívan, az oktatás, a művészetek, kulturális és gazdasági területek „megzavarásáért” kárhoztatják ezt a fajta mesterséges intelligenciát.

china_deepfakes_1.jpg

Kína legújabb lépése, hogy az ország Cybertér Hatósága a szintetikus médiát szabályozó, az eddigi tendenciát megerősítő, az MI-használatot szigorító új támpontokat dolgozott ki. A kamuképeket és videókat (deepfakes), a dezinformációt hátra szorítandó, a felhasználóknak egyébként eddig is saját néven kellett regisztrálniuk, és a hamis hírek (fake news) terjesztőit börtönbüntetésre is ítélhetik.

A deepfakes jelenséget máshol is igyekeznek minimalizálni. Az USA egyes államai szintén szigorítottak, és 2022-től az EU is a dezinformáció felcímkézésére, az azokat terjesztők hirdetési bevételeinek korlátozására kötelezi a közösségimédia-cégeket.

china_deepfakes0.jpg

A január tizedikén törvényerőre emelkedett új kínai szabályozás sokkal szigorúbb, tényleg jelentősen korlátozza a mesterséges intelligenciával történő szövegek, hanganyagok, képek, videók, 3D digitális anyagok készítését, szerkesztését, az úgynevezett „mélyszintézis-szolgáltatásokat.”

MI-vel nem hozható létre a nemzetbiztonságot veszélyeztető, a gazdasági és a társadalmi rendet megzavaró, Kína összképére káros output. Az arcokat generáló és szerkesztő MI-modellek szolgáltatóinak az illető személyek engedélyére és azonosításukra szükségük van a képek stb. gyakorlóadatokként történő használatához.

A szolgáltatóknak egyértelműen fel kell címkézniük a nyilvánosságot hamis információval megtévesztő, félrevezető MI által létrehozott médiatermékeket. A modelljeik által generált hamis információt el kell tüntetniük, az incidensekről értesíteniük kell a hatóságokat, és a törvénysértéseket rögzíteniük kell.

Az algoritmusok időszakonkénti felülvizsgálata szintén kötelező.

A kormány és a hatóságok saját vizsgálatokat folytathatnak, a szolgáltatók új felhasználók regisztrálásának megtiltásával, a szolgáltatás felfüggesztésével, vagy a vonatkozó törvények szerinti büntetőjogi eljárásokkal sújthatók.

Ingatlanközvetítés a ChatGPT közreműködésével

Úgy tűnik, hogy ingatlanközvetítők előszeretettel használják az OpenAI sokat dicsért és vitatott, tavaly év végén a közhasználatba berobbant mesterségesintelligencia-szoftverét, a ChatGPT-t. A hirdetésekből törvényszerűen ki akarják hozni a legtöbbet vele. A gátlástalanabb ügynökök pedig a leendő tulajdonosok minél nagyobb megkopasztására vetik be a mesterséges intelligenciát.

„Rengeteg időt spórolt meg nekem” – nyilatkozta az iowai JJ Johannes ingatlanügynök.

chatgpt.jpg

Johannes januárban a ChatGPT használatát elmagyarázó videót is posztolt a Twitterre. Leírta benne, hogyan készít listákat vele. Szerinte a szoftver még nem tökéletes hirdetésírásra, de ennek ellenére nagyon hasznos, mert máskülönben „sok időbe telik ékesszóló szöveget készíteni.” 

Johannes humorosan válaszolt a kommentszekcióban valakinek, aki, sokakhoz hasonlóan, az egész ingatlanszektorral szemben szkeptikus, és az MI valójában – így a troll – a lerobbant házak értékesnek mutatásával, a megtévesztés művészetével forradalmasíthatja a területet.

chatgpz0.jpg

„A ChatGPT tökéletes lesz ingatlanhirdetések létrehozásához. Csak meg kell tanítani neki, hogy szűk viskókat kényelmes palotaként, a rohadó faforgácsot némi javításra szoruló felső szintként írja le, és mehet is” – írta szarkasztikusan a kommentelő.

Az ügynök nevető emotikonnal reagált, majd arról elmélkedett, hogy az általános hívószavak, elcsépelt mondatok helyett bármi jöhet, ami pontosabban leírja az ingatlant. És ebben sokat segíthet a ChatGPT.

A trollnak abban mindenesetre igaza van, hogy a szoftverrel jóval könnyebb félrevezető hirdetéseket készíteni egy, a „ragadozó természetéről” és gyakorlatáról ismert szektorban.

Ugyanezen a területen a ChatGPT pozitív célokra, például elviselhetetlen tulajdonosokkal küszködők támogatására, vagy a kötelező felújítást halogató, arról megfeledkező szakemberek sürgetésére, figyelmeztetésére szintén használható.

ChatGPT írt már ablakot kicserélni nagyon nem akaró felújítónak jogi eljárással fenyegető levelet. Valószínűleg pontosabbat és tárgyilagosabbat, mint tette volna a dühös ügyfél.

Az ablakot hirtelen és gyorsan kicserélték.

Homokos strandon fut a dél-koreai robotkutya

A dél-koreai KAIST (Korea Advanced Institute of Science & Technology) kutatói homokos strandokon ügyesen keresztülmenő/futó négylábú robotkutyát fejlesztettek. A gép neve RaiBo.

Szimulálták a szemcsés talajból a robotra ható erőket, majd mesterséges ideghálón alapuló kontrollert terveztek hozzá. A kontroller változatos terepekhez történő alkalmazkodáshoz, előzetes információk nélkül, séta, futás közben hoz valósidejű döntéseket.

robotkutya_3.jpg

Az ideghálót megerősítéses tanulással gyakoroltatták. Mivel ehhez a gépitanulás-típushoz rengeteg adat szükséges, általában a fizikai valóság és közeg jelenségeihez hasonló szimulációban gyűjtenek adatokat hozzá. Ez a legelterjedtebb módszer, a tanulásalapú és a „valóvilágban” alkalmazott, mozgó robotokat működtető kontrollereket szinte mindig szimulált környezetben gyakoroltatják.

A szimulációnak azért kell nagyon hasonlítania a valósághoz, hogy a kontroller – és a robot – teljesítménye ne romoljon látványosan.

robotkutya0_3.jpg

A minden egyes időpillanatban az egy vagy több érintkezés által keletkező erő, a kontaktusok kiszámításával göröngyös, deformálható terepek is hatékonyan modellezhetők. Az idegháló az időben folyamatos szenzorikus adatokat elemezve jelzi előre a terep tulajdonságait.

A hálóval megtaníttatták azt is, hogy a robot egyensúlyvesztés nélkül – egyenes irányú mozgás mellett – hogyan forduljon meg, változtasson irányt különböző terepeken.

Miután a kutatók rászerelték a kontrollert, RaiBo másodpercenkénti maximális 3,03 méter sebességgel futott a homokon, miközben lába teljesen belesüppedt a szemcsés anyagba. A fordulást másodpercenkénti kilencven fokos tempóban kivitelezte. Bebizonyosodott még az is, hogy hirtelen puhává váló terepen is elboldogul.

A KAIST kutatói által kidolgozott szimuláció és tanulási módszertan más robotok praktikusfeladat-végrehajtására, terepekhez való jobb alkalmazkodásukra is komoly hatással lehet.

süti beállítások módosítása