Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Amerikai kutatók úgy tanítanak egy robotgyereket, mint egy igazit

2023. augusztus 16. - ferenck

Az ember közösségi lény, és már kiskorunktól kezdve egymástól tanulunk. A csecsemők figyelik a szüleiket, testvéreiket, gondozóikat. Képességek és viselkedések megtanulásához nézik, utánozzák, újrajátsszák a tőlük ellesett vizuális élményeket.

A csecsemők tanulási és környezet-megfigyelési módja komoly hatást gyakorolt a Carnegie Mellon Egyetem (CMU) és a Meta AI a robottanulás új módszereit vizsgáló kutatóira. Szimultán akarnak több képességet elsajátíttatni robotokkal, amelyeket korábban nem ismert, mindennapos feladatok megoldásához használhatnak.

cmu_robotgyerek.jpg

Hároméves gyerek környezetét, személyeket és tárgyakat, szó szerint is kezelni tudó adottságaival rendelkező robotikus mesterségesintelligencia-ágenst fejlesztettek hozzá. RoboAgent mesterséges intelligenciája passzív megfigyeléssel és aktív tanulással teszi lehetővé ezeknek az adottságoknak a kialakulását.

A nyílt forráskódú ágens különféle valóvilág-forgatókönyvekben sajátított el tizenkét manipulációs (ügyességi) adottságot. A kutatás változó környezetekhez alkalmazkodó robotplatformokat vetít előre. A korábbi hasonló projektekkel ellentétben szimuláció helyett a robot mindent a valóságban végez, ezért kevesebb adat is kellett hozzá.

Robotok általában saját élményeikből és nem környezetük történéseiből tanulnak, és a közeggel kapcsolatos „vakságuk” erősen korlátozza a rájuk váró tapasztalatok változatosságát, adottságaik új szituációkra történő alkalmazását. A korlátok felszámolása végett, RoboAgent ugyanolyan passzív megfigyeléssel tanul, mint a csecsemők, csak ő internetes videókat néz.

A mozgóképanyagokból sajátítja el, hogy emberek miként folytatnak interakciókat tárgyakkal, és hasznosítják különféle adottságaikat feladatok megoldására. Ha hasonló képességeket figyelnek meg változatos forgatókönyvekben, megtanulják, hogy mi az, kell-e alkalmazni bizonyos feladatokhoz, vagy sem.

Az ilyen típusú tanulásra képes ágenssel közelebb kerülünk különböző feladatokat ismeretlen szcenáriókban megoldó, tapasztalatai miatt folyamatosan fejlődő, nem egyetlen szűk területen, hanem többen jól teljesítő, általános robothoz.

A mesterséges intelligencia ugyanolyan jól diagnosztizálja a mellrákot, mint a radiológusok

Radiológusok az 1980-as évektől használnak mesterséges intelligenciát mellrák diagnosztizálására. Az akkori módszert sokan megkérdőjelezték, az MI viszont maradt és addig fejlődött, mígnem 2020-ban a Google egészségügyi csoportja arról számolt be, hogy túlszárnyalta a radiológusokat. A módszerben azonban megint találtak hiányosságokat.

A svéd Lund Egyetem kutatói idén véletlenszerű, kontrollált klinikai tesztet végeztek, hogy eldöntsék: képes-e MI-rendszer a páciensek veszélyeztetése nélkül időt spórolni radiológusoknak. Ez volt az első alkalom, amikor az MI mellrák-diagnosztikai képességeit az orvosi tesztek „aranysztenderdjének” megfelelő mammogramokon vizsgálták.

rakdiagnozis.jpg

Kiderült, hogy az ember plusz gép kiértékelési folyamattal radiológusoknak lényegesen kevesebb időt kell eltölteniük egy-egy beteggel, miközben a biztonsági feltételek is teljesültek.

A kutatásvezetők 80 ezer svéd nőt véletlenszerűen kontroll- és kísérleti csoportra osztottak.

A kontrollcsoport mammogramjait az Európa legtöbb részén bevett gyakorlat szerint, két radiológus manuálisan értékelte ki. A kísérleti csoportét a mellrák felismerésére gyakoroltatott Transpara konvolúciós neurális háló vizsgálta. A röntgenképeket rákkockázat alapján egytől tízig terjedő skálán pontozta, és a legnagyobb kockázatot jelentő pontoknál (nyolc, kilenc, tíz) megjelölte a képet.

A kísérleti csoport pontjait és jeleit humán radiológusok értékelték ki. Egyikük minden egyes képet átnézett, de azokat már ketten, amelyekre a Transpara tíz pontot adott. Végül mindegyik páciensről eldöntötték, hogy visszahívják-e további vizsgálatra, vagy sem, amellyel kiszűrhették a hamis pozitívokat.

Az MI-vel támogatott diagnózisnál minden ezer személyből 6,1-nél fedeztek fel rákot. A szám hasonló volt a kontrollcsoportéhoz, a biztonság viszont valamivel túllépte a megállapított alsó határt. A radiológusok a kontrollcsoport 2, a kísérleti csoport 2,2 százalékát hívták vissza. Mindkét csoportnál 1,5 százalék volt a hamis pozitívok aránya. A szinte teljesen egyező arányokon kívül az is kiderült, hogy MI segítségével, a radiológusok idejük 44,3 százalékát spórolhatják meg.

Mit ért a világból a mesterséges intelligencia?

Egyre gyakrabban merül fel a kérdés, hogy a nagy nyelvmodellek (LLM-ek) megértik-e a világot, általánosabban fogalmazva: értenek-e valamit a valóságból a mesterségesintelligencia-rendszerek?

Egyelőre nincs semmilyen elfogadott tudományos teszt, amellyel meg lehetne válaszolni a kérdést. Andrew Ng világhírű gépitanulás-szakértő szerint az LLM-ek elég komplex világmodelleket építenek ahhoz, hogy egy bizonyos szintig elmondható róluk: értik a világot. Inkább maguktól kitalálják, milyen valójában a világ, semmint papagájként ismételnek szavakat.

vilag_megertese0.jpg

Egy GPT nyelvmodellen (Othello) dolgozva, Ng és kollégái megfigyelték, hogy az általuk gyakoroltatott változat egy táblás játékot úgy értett meg, hogy senki nem magyarázta el neki a szabályokat. Rengeteg gyakorlás után viszonylag pontos előrejelzéseket tett a következő lépésekről. Vajon világmodell építésével jutott el eddig?

A kutatást ismertető tanulmány szerzői szerint igen. A neurális hálónak megadtak egy lépéssorozatot, mire rejtett egységeinek aktiválásával úgy tűnt, hogy rögzítették a játéktábla aktuális helyzetét és a lehetséges szabályos mozgásokat. Tehát a csak a gyakorlóadatok statisztikáit utánozni próbáló „sztochasztikus papagájjal” – meggyőző szöveg generálására jó, de az általa feldolgozott szöveget nem értő LLM – összehasonlítva, az idegháló világmodellt épített.

vilag_megertese.jpg

Ng szerint az emberi szövegen dolgozó LLM-ek szintén világmodelleket építenek. Emergens viselkedésformáikat, például megadott utasítások finomhangolását, nehezen tudjuk megmagyarázni, ha azt feltételezzük, hogy nem értik a világot.

Az MI világértése évtizedek óta vita tárgya. John Searle amerikai filozófus 1980-ban publikálta elhíresült kínai szoba érvelését. Képzeljük el azt a hipotetikus helyzetet, hogy kínaiul nem tudó angol anyanyelvű személy tartózkodik egy bezárt helyiségben, és kínaiul írt szöveget kell angolra fordítania. A fordításhoz a kínai szimbólumok mondattani rendezésére szolgáló, jelentésüket viszont nem magyarázó, angolul írt szabálykönyvet használ, aztán valahogy elkészül a fordítás. Searle szerint a számítógép olyan, mint ez a személy: úgy tűnik, érti a kínait, a valóságban azonban nem.

Az egyik ellenérv, hogy a szobában lévő személy, a szabálykönyv, papír, az ottani rendszer elemei külön-külön ugyan nem értik a kínait, együtt, komplett rendszerként viszont igen. Az agy hasonlóan működik: egyes neuronjainak fogalmuk sincs például a gépi tanulásról, de rendszerként már van.

Konklúzió: az LLM-ek is érthetik a világot. Ha nem, akkor bajosan jutunk el általános mesterséges intelligenciáig (AGI), szingularitásig.

A gépi tanulásnak hála, legújabb számát több nyelven vette fel egy dél-koreai popsztár

A zeneipar árgus szemekkel figyeli a hanganyagokat készítő generatív mesterségesintelligencia-modelleket. Az egyik ok: rajongók mélytanulás-rendszerekkel igyekeznek utánozni kedvenceik hangját. A művészek és a kiadók reakciója megosztott.

Grimes például egy appal lehetővé teszi, hogy a felhasználók az övévé alakítsák át a hangjukat. A klónnal készült számok bevételének fele az énekesnőt, másik fele a felhasználót illeti meg. Eddig háromszáznál több rajongó töltött fel Grimes-stílusú anyagokat streaming-szolgáltatásokra.

kpop.jpg

A kevésbé belátó Universal Music kiadóóriás a művészei hangklónjával, rajongók által készített anyagok eltávolítására szólította fel a streaming-szolgáltatókat.

A népszerű dél-koreai popzene, a K-Pop egyik ismert alakja, Lee Hyun (Midnatt) legújabb száma, a Maquerade angolul, japánul, mandarinul, spanyolul, vietnámiul és természetesen anyanyelvén, koreaiul is elkészült. Az énekesnő egyik idegen nyelvet sem beszéli folyékonyan, ezért a legnagyobb K-Pop kiadó, a Hybe mélytanulás-rendszerrel javította a kiejtését.

kpop0.jpg

A Neural Analysis and Synthesis (NANSY) neurális beszédfeldolgozó rendszert a Hybe által januárban 36 millió dollárért felvásárolt szöuli Superzone fejlesztette.

Hangfelvételnél a NANSY a kiejtés-, a hangszín-, a hangmagasság- és a hangerő-információkat elkülöníti egymástól. A kiejtést wav2vec beszédfelismerő modellel, a hangszínt konvolúciós ideghálóval, a hangmagasságot speciális algoritmussal, a hangerőt spektrogrammal elemzi. Ezeket követően, a négy elemet egy alrendszer segítségével újraegyesíti.

Lee-vel mind a hat nyelven felvették a számot, majd anyanyelvi beszélőkkel rögzítették a nem-koreai változatokat. Mindegyik felolvasta a szöveget. NANSY az énekelt és a beszélt felvételeket egyesítve állította be az énekesnő kiejtését a másik öt nyelven.

Az alkalmazás a technológia kereskedelmi értékének újabb bizonyítéka. K-Pop művészek rendszeresen adnak ki angolul és japánul is számokat, de a zeneiparban legalább az 1930-as évek óta bevett a többnyelvű felvétel (amikor Marlene Dietrich dalait angolul és németül is elénekelte). Az új technikával az eddiginél is szélesebb körben terjedhetnek el zenék.

Van-e még értelme a metaverzummal foglalkozni?

A tartós és megosztott 3D virtuális világok, immerzív digitális terek összessége, a web3-at kiteljesítő metaverzum koncepció nem új. Ebben a szuper- és metaközegben dolgozhatunk, játszhatunk, szocializálódhatunk, vásárolhatunk, tanulhatunk és még sok minden mást tehetünk. Mindenkit személyes avatár képvisel, észrevétlen váltogathatjuk a platformokat, kriptovaluták a fizetőeszközeink.  

Elsőként a névadó Neal Stephenson vázolta a kultikus cyberpunk Snow Crash-ben (1992), a jelenre és a közeljövőre aktualizált, az eredetinél sokkal kidolgozottabb, realisztikusabb változatát pedig Ernest Kline Ready Player One-jában (2011) olvashattuk, majd láthattuk a könyvből készült 2018-as Steven Spielberg-filmben (aztán a 2020-as Ready Player Two-ban megint olvashattuk).

metaverse0_1.jpg

Az elméletet a 2000-es években finomították, a múlt évtized közepi virtuálisvalóság-hullámmal került be a közgondolkodásba, a 2020-as évek elején Mark Zuckerberg pedig akkora potenciált vélt benne, hogy azóta a Facebook anyacége is Meta néven szerepel. A látványos médiafelhajtás ellenére a technológia eddig nem váltotta be a hozzá fűzött reményeket, néhány éve divat volt még, ma pária. Nyilvánvaló, hogy pár esztendőn belül úgy biztos nem valósul meg, ahogy megszállottjai elképzelték, inkább egyes alkalmazásokban, például a digitális ikrekben, a koncepcióhoz közeli, játéknál több játékplatformokon (Roblox, Fortnite) ér el sikereket.

Míg az általános mesterséges intelligencia (AGI) vagy a kvantumszámítógép valamikori megvalósulásával kapcsolatban általában pozitívak a vélemények, addig a metaverzumról több a szkeptikus, lemondó hang. Nem így Bernard Marr, a világhírű jövőkutató és influenszer, aki öt pontban foglalta össze, miért vár fényes jövő a virtuális világok összességére.

metaverse_1.jpg

Első érve, hogy a virtuális és a kiterjesztett valósággal (AR és VR) az online élmény immerzívebbé válik. Ezekkel a technológiákkal élethűbb és átélhetőbb lesz, nő az interakció, VR headsetet viselve, például kedvenc márkánk digitális boltjában élhetünk át élményeket.

A metaverzumban mindent és még többet megtehetünk, amit a fizikai világban megteszünk – hangzik a kissé hurráoptimista második érv. Úgy végezzük a távmunkát, mintha a kollega mellett ülnénk, és ez a távolsági kommunikáció már nem egy Zoom-találkozó színvonala lesz. A technológia fejlődésével tanulás, játék, bármi a metaverzumban teljesedik ki.

Marr szerint a metaverzum a valóságnál is nagyobbá nőhet, majd Dubai példáját hozza fel, ahol valóvilág-helyszínek metaverzum-utánzatait, digitális ikreit hozzák létre. Közösségi médiumok, nagy márkák oktatási intézmények mind működtetnek virtuális világokat, és soknak nem lesz valódi megfelelője. Adjuk mindezt össze, és a metaverzum tényleg a valóság fölé nő – magyarázza Marr, majd hozzáfűzi: a folyamat nyilván nem máról holnapra, hanem fokozatosan valósul meg.

A metaverzum befolyásolni fogja a minket körülvevő fizikai világot – hangzik a negyedik érv. Egyrészt az interneten belül lesz, másrészt az internetet és digitális elemeit átviszi a valóságba. Megváltoztatja környezet-érzékelésünket, a környezettel folytatott interakcióinkat. Például fizikai boltban járva, az AR segítségével digitálisan próbálhatunk fel ruhákat – ezt egyébként már ma is megtehetjük.

Marr végső érve, hogy a metaverzum megváltoztatja a vállalatokat, mert az ügyfelekkel főként ott ápolják majd a kapcsolatokat. Ez már elkezdődött, és a jövőkutató a Nike-t, a Vans-t és egy szabadalmi kérvény alapján a McDonald’s-t hozza fel példaként. A közeg tökéletes a márkaépítésre, termékértékesítésre, fogyasztó és márka kapcsolatának elmélyítésére. Mindezeken túl, cégek készítenek majd kizárólag digitális, csak a metaverzumban létező termékeket is: autókat, ruhákat, bútorokat stb. A munkavégzés és a kapcsolódó képzések ott történnek majd, miközben az együttműködés új formái alakulnak ki.

A technológia jelenállása, a mostani infokommunikációs és társadalmi-gazdasági trendek ugyan nem támasztják alá Marr metaverzum-jövőjét, megvalósulásának azonban nincsenek elméleti akadályai.

Generatívvá válnak a felhőszámítások

A generatív mesterséges intelligenciához alkalmazásprogramozói felületet (API) kínáló startupok előtt álló kihívás, hogy egy API-ról egy másikra váltani olcsó, viszont a vállalkozás védelmi szintje csökken. Ezzel szemben a felhőszámítás-platformok sok API-t kínálnak, a váltási költségek viszont magasak. Azaz, ha egy felhőplatformon alkalmazást fejlesztettünk, nem praktikus egy másikra migráltatni. A felhőszámítások ezért is jövedelmezők. A startupoknak ezt az ellentmondást kell valahogy felszámolniuk.

A legújabb generatív modellekhez való hozzáférés minden iparág számára kulcsfontosságú. Az Amazon Webszolgáltatások Bedrock platformja új generatív modelleket, szoftverágenseket kínál a felhasználóknak a modellekkel folytatott kommunikációhoz, illetve orvosi rekordokat generáló szolgáltatást is nyújt. Az újdonságok „előnézetben” (preview) érhetők el, és változhatnak.

generativ_felho.jpg

A Bedrock a Stable Diffusion képgenerálóval és nagy nyelvmodellekkel (AI21 Jurrasic-2, Anthropic Claude) indult áprilisban. A mostani újításokkal nőttek a platform lehetőségei.

A Cohere két modellje is közéjük tartozik. A Command összefoglal, szöveget ír, kérdésekre ad választ, az Embed pedig száznál több nyelven generál beágyazásokat. Az Anthropic Claude 2-jét frissítették, és a Stability AI új Stable Diffusion XL 1.0-ját is a platformba integrálták.

Az Ágensekkel lehetővé válik, hogy a felhasználók alkalmazásokba építsék ezeket a modelleket. Például repülőjegy-foglaló honlapok alkalmazásaiban, az MI az adott személy korábbi utazásait, figyelembe véve javasolhat járatokat, és foglalhat helyet rajtuk.

A HealthScribe vizit után generál orvosi jegyzeteket. Nyelvmodellek átírják a páciens és az egészségügyi szakemberek beszélgetéseit, azonosítják a beszélőket, kivonatolják az orvosi szakkifejezéseket, és összefoglalókat készítenek. A rendszerek megfelelnek a személyes információ védelmére vonatkozó amerikai jogszabályoknak.

Az Amazon persze nincs egyedül, mert legfőbb felhőszámítás-vetélytársai, mint a Google Cloud Platform és a Microsoft Azure saját generatív MI-jüket szolgáltatásként kínálják a felhasználóknak. 

Ukrajna orosz inváziója forradalmasította a hadászati drónhasználatot

A drónok gyorsan a csataterek alapvető eszközévé váltak, támadóerejük folyamatosan nő. A világ kormányai most Ukrajnára figyelnek, hogy levonják a tanulságokat az esetleges lázadók, félkatonai csoportok és drogkartellek elleni harchoz.

Ukrajna orosz inváziójának kezdete óta többszáz drónfejlesztő cég alakult az országban, komplett helyi iparág jött létre. A startupok által épített légi és tengeri robotokat a hadsereg ellenséges pozíciók megfigyelésére, tüzérségi csapások irányítására és (időnként orosz területen is) bombák ledobására használja.

ukran_dron.jpg

A Twist Robotics kvadkopterei mesterséges intelligenciával vezérelt célkövetést használnak. Azért van szükség MI-re, hogy a célpontot akkor se tévesszék szem elől, ha az operátorral megszakad a rádióösszeköttetés. A Warbirds légi és vízi drónjai hasonló képességekkel rendelkeznek.

Ha háborús zónában kell dolgozni, a helyi fejlesztők előnyben vannak a külföldiekkel szemben. Az ukrán hatóságok hazai cégeknek hozzáférést biztosítanak elfogott orosz zavarótechnológiákhoz, azok alapján ellen-megoldásokat dolgozhatnak ki. Ezek a startupok óriási mennyiségű adathoz, például tankok vagy aknák képeihez is hozzájutnak közvetlenül a frontról, és a fotókat rendszereik gyakoroltatásához használhatják. Gépeik csatatéri teljesítményéről szintén azonnali visszajelzést kapnak.

ukran_dron0.jpg

Külföldi vállalatok is a dróngyártásba való bekapcsolódásra törekednek, például hozzá akarnak férni ugyanazokhoz az adatokhoz. A kanadai Dragonfly és az amerikai BRINC a helyszínen fejleszt ember nélküli légi járműveket, a katonai mesterséges intelligenciával foglalkozó német Helsing és a szintén amerikai, adatelemző Palantir irodát is üzemeltet az országban.

Értelemszerűen az oroszok is reagálnak, az utóbbi hónapokban például fokozták a célpontba ütközéskor felrobbanó Lancet pilóta nélküli repülők gyártását. Az új egységekben a Forbes szerint MI-s vezérlésre és célpont-beállításra alkalmas Nvidia Jetson TX2 számítógépek is vannak. Az orosz állami média cáfolta a Forbes állítását.

Más országok is felgyorsították a drónos hadviseléssel kapcsolatos fejlesztéseiket. Az amerikai hadsereg könnyen beszerezhető alkatrészekből drónok és más légi járművek, hajók és tengeralattjárók adatai által veszélyforrásokat azonosító rendszert fejlesztett. Az izraeli védelmi erők légicsapás-célpontokat kiválasztó MI-rendszert telepítettek. Egy másik rendszer kiszámolja a szükséges hadianyagot, ütemezi a légi csapást, drónoknak és más repülőknek (ember is van rajtuk) jelöl ki célpontokat. Tajvan átfogó drónfejlesztés programot indított.

Érintés és nem látás alapján forgat meg tárgyakat egy robotkéz

Az ember meg tud markolni és forgatni tud tárgyakat úgy, hogy nem látja azokat. A San Diegói Kaliforniai Egyetem kutatóinak köszönhetően most már robotkéz szintén képes ugyanerre.

A kéz kicsi játékoktól, üdítődobozokig, sőt gyümölcsökig és zöldségekig, többfajta tárgyat forgat el puszta érintéssel, és közben egyiket sem karcolja, rongálja meg. A feladat kivitelezéséhez kizárólag érintés közben gyűjtött adatokat használ.

robotkar_erintes.jpg

A négyujjas robotkéz széles területén, tenyerén és ujjain, elsősorban az ujjvégeken elosztott tizenhat érintésszenzor működik. Olcsó eszközök, darabonként tizenkét dollárba kerülnek, egyetlen rendeltetésük, hogy megállapítsák: hozzáért-e a kéz egy tárgyhoz, vagy sem.

A megközelítést az olcsó és alacsony felbontású, egyszerű bináris jeleket (igeneket és nemeket) használó érzékelők teszik egyedivé. A bevett gyakorlat, azaz nagyfelbontású és a robotkezeken kis területen elhelyezett, kevés szenzor működtetése drága.

robotkar_erintes0.jpg

Pedig ha kevés a szenzor, kevesebb az esély, hogy a kéz bármilyen tárggyal is kapcsolatba kerül, nagy felbontásuk miatt nehezen szimulálhatók, ráadásul drágák is, és nagy részük látást is használ. Összességében, nem praktikusak valóvilág-forgatókönyvekben. Mivel a feladat elvégzéséhez nincs szükség például textúra-információkra, bőven elegendők hozzá a bináris jelek. Ha a szenzor érzékeli őket, az információ a sikeres forgatáshoz épp eleget elárul a tárgy 3D szerkezetéről és elhelyezkedéséről.

A kezet szimulációban kezdték gyakoroltatni, változatos, köztük szabálytalan formájú tárgyakat is megérintett. A rendszer megállapította, melyik érzékelő, hol és mikor érintette meg az adott objektumot. A begyűjtött infók alapján már tudja, mire utasítsa a kezet.

Ezt követően jött a valódi kéz tesztelése, olyan tárgyakkal, amelyeket korábban nem érintett meg. Többet sikerült úgy forgatnia, hogy nem ejtette le. A komplexebbek mozgatását lassabban tanulta meg.

A fejlesztők jelenleg bonyolultabb feladatok kivitelezésén dolgoznak, a kéz például elkapni próbál tárgyakat.

       

Algoritmus mondja meg a vezetőnek, melyik nagyvárosi útvonal a legbiztonságosabb

A legtöbb navigációs alkalmazás megmutatja a célhelyszínhez vezető leggyorsabb utat, egyesek a legkevesebb széndioxid-kibocsátás alapján a leginkább környezetbarátot is kiszámolják. Szerencsére most már a legkevesebb kockázattal járó, tehát a legbiztonságosabb felvázolására is van lehetőség.

A kanadai Brit Kolumbia Egyetem kutatói által fejlesztett, valósidejű kockázati adatokkal dolgozó új algoritmussal ugyanis lehetőség nyílik a potenciálisan legbiztonságosabb nagyvárosi útvonal azonosítására. Az alkalmazás navigációs appokba, például a Google Maps-be integrálható.

nagyvarosi_kozlekedes.jpg

A kutatók Athén belvárosa felett keringő tíz drónnal dolgoztak. A drónok több napon keresztül végezték munkájukat: különféle tényeket, például járművek elhelyezkedését, sebességüket, felgyorsulásukat rögzítették. A szakemberek ezek alapján majdnem bekövetkező összeütközéseket azonosítottak, majd valósidejű karambolok kockázatát jelezték előre az algoritmussal.

Ebben a kutatásban használtak először valósidejű karambolkockázatra vonatkozó adatokat navigációs célokra: a városon átvezető legbiztonságosabb útvonal megállapítására. Az algoritmus valósidőben pontosít, finomhangol, kerülőket javasol kockázatos környékek elkerülésére.

A technológia mindenki számára biztonságosabbá teszi a nagyvárosi közlekedést, vállalatok például a biztonság és a karambolkockázat csökkentése szellemében jobban megszervezhetik flottájuk mozgását.

A kutatásból kiderült, hogy nem mindig a leggyorsabb a legbiztonságosabb útvonal. Athén egy részét elemezve, megállapították, hogy csak 23 százalékos az egyezés. A vezetők a legbiztonságosabb útvonalon átlagosan a leggyorsabb útvonalon használt utak 54 százalékát használták. Ez azt jelenti, hogy útvonaltervezéskor a biztonság és a hatékonyság kombinációját kell figyelembe venni.

A legbiztonságosabb útvonalak 22 százalékkal biztonságosabbnak bizonyultak a leggyorsabbaknál, míg a leggyorsabbak csak 11 százalékkal voltak gyorsabbak a legbiztonságosabbaknál. Tehát, ha csak egy kicsivel érünk később valahova, máris jelentősen nő a biztonságunk.

A kutatók jelenleg más nagyvárosokra terjesztik ki vizsgálódásukat. Köztük Bostonra is, ahol önvezető autókat ebből a célból is tesztelnek.

Az algoritmus biztonságos kerékpár-útvonalak azonosítására szintén használható.

A Nemzetközi Űrállomásról irányítottak földi robotokat

Frank Rubio, a NASA űrhajósa a Nemzetközi Űrállomásról (ISS) vezérelt a Földön lévő kislétszámú robotcsapatot. A teszttel a távirányított robotok jövőbeli tevékenységét tanulmányozták. Ilyen robotcsapatokat a Holdra vagy majd a Marsra tartó missziókon használhatnak.

A NASA Artemis II űrhajóján jövőre asztronauták repülnek a Hold közelébe, 2025-ben vagy 2026-ban pedig le is szállnak. Cél a folyamatos ott-tartózkodás, amelyben robotok is fontos szerepet töltenek be.

nemzetkozi_urallomas.jpg

A kétórás teszt hasonló környezetben játszódott a Münchenhez közeli Német Űrhajózási Központban. Rubio az ISS európai Kolumbusz moduljáról vezérelt három robotot, földrengésmérő műszert kellett leszedniük a holdra szálló egységről, majd elhelyezniük a talajon. Az eszközt egy humanoid tette a szimulált holdfelszínre.

Az űrhajós a teljes feladatsort el tudta végeztetni a gépekkel, és értékes adatokhoz jutottak. Mindezt úgy tette az ISS fedélzetén, hogy közben óránkénti 28 ezer kilométeres sebességgel keringtek a Föld körül.

A vizsgálódás az átfogó Felszín Avatár tesztsorozat része volt. A három robot kikövezi az utat egy nagyobb robotcsapat előtt, az ő távirányításukat az Európai Űrügynökség (ESA) dán űrhajósa, Andreas Mogensen fogja végezni.

A jövőben a NASA és az ESA műveleteiben valódi forgatókönyvekkel számolnak – az űrhajósok a Gateway holdállomás fedélzetén tartózkodnak, miközben a Hold felszínén lévő robotokat távirányítanak.

A holdi Gateway program valamikor az Artemis III holdraszállása után kezd el működni. Az 1972-es Apollo 17-et követően ekkor lesz először ember a Holdon. Csúcskategóriás robotok és generatív mesterségesintelligencia-megoldások szerves részei a tervnek.

A mostani teszten kiderült, hogy helyi pályáról működik az erőalapú visszacsatolásos vezérlőtechnika. A Felszín Avatárral a közvetlen távirányítást és a felügyelet melletti autonómiát összekombinálva igyekeznek majd komplex feladatokat végrehajtó robotokat vezérelni.

süti beállítások módosítása