Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

A mesterséges intelligencia ugyanolyan jól diagnosztizálja a mellrákot, mint a radiológusok

2023. augusztus 15. - ferenck

Radiológusok az 1980-as évektől használnak mesterséges intelligenciát mellrák diagnosztizálására. Az akkori módszert sokan megkérdőjelezték, az MI viszont maradt és addig fejlődött, mígnem 2020-ban a Google egészségügyi csoportja arról számolt be, hogy túlszárnyalta a radiológusokat. A módszerben azonban megint találtak hiányosságokat.

A svéd Lund Egyetem kutatói idén véletlenszerű, kontrollált klinikai tesztet végeztek, hogy eldöntsék: képes-e MI-rendszer a páciensek veszélyeztetése nélkül időt spórolni radiológusoknak. Ez volt az első alkalom, amikor az MI mellrák-diagnosztikai képességeit az orvosi tesztek „aranysztenderdjének” megfelelő mammogramokon vizsgálták.

rakdiagnozis.jpg

Kiderült, hogy az ember plusz gép kiértékelési folyamattal radiológusoknak lényegesen kevesebb időt kell eltölteniük egy-egy beteggel, miközben a biztonsági feltételek is teljesültek.

A kutatásvezetők 80 ezer svéd nőt véletlenszerűen kontroll- és kísérleti csoportra osztottak.

A kontrollcsoport mammogramjait az Európa legtöbb részén bevett gyakorlat szerint, két radiológus manuálisan értékelte ki. A kísérleti csoportét a mellrák felismerésére gyakoroltatott Transpara konvolúciós neurális háló vizsgálta. A röntgenképeket rákkockázat alapján egytől tízig terjedő skálán pontozta, és a legnagyobb kockázatot jelentő pontoknál (nyolc, kilenc, tíz) megjelölte a képet.

A kísérleti csoport pontjait és jeleit humán radiológusok értékelték ki. Egyikük minden egyes képet átnézett, de azokat már ketten, amelyekre a Transpara tíz pontot adott. Végül mindegyik páciensről eldöntötték, hogy visszahívják-e további vizsgálatra, vagy sem, amellyel kiszűrhették a hamis pozitívokat.

Az MI-vel támogatott diagnózisnál minden ezer személyből 6,1-nél fedeztek fel rákot. A szám hasonló volt a kontrollcsoportéhoz, a biztonság viszont valamivel túllépte a megállapított alsó határt. A radiológusok a kontrollcsoport 2, a kísérleti csoport 2,2 százalékát hívták vissza. Mindkét csoportnál 1,5 százalék volt a hamis pozitívok aránya. A szinte teljesen egyező arányokon kívül az is kiderült, hogy MI segítségével, a radiológusok idejük 44,3 százalékát spórolhatják meg.

Mit ért a világból a mesterséges intelligencia?

Egyre gyakrabban merül fel a kérdés, hogy a nagy nyelvmodellek (LLM-ek) megértik-e a világot, általánosabban fogalmazva: értenek-e valamit a valóságból a mesterségesintelligencia-rendszerek?

Egyelőre nincs semmilyen elfogadott tudományos teszt, amellyel meg lehetne válaszolni a kérdést. Andrew Ng világhírű gépitanulás-szakértő szerint az LLM-ek elég komplex világmodelleket építenek ahhoz, hogy egy bizonyos szintig elmondható róluk: értik a világot. Inkább maguktól kitalálják, milyen valójában a világ, semmint papagájként ismételnek szavakat.

vilag_megertese0.jpg

Egy GPT nyelvmodellen (Othello) dolgozva, Ng és kollégái megfigyelték, hogy az általuk gyakoroltatott változat egy táblás játékot úgy értett meg, hogy senki nem magyarázta el neki a szabályokat. Rengeteg gyakorlás után viszonylag pontos előrejelzéseket tett a következő lépésekről. Vajon világmodell építésével jutott el eddig?

A kutatást ismertető tanulmány szerzői szerint igen. A neurális hálónak megadtak egy lépéssorozatot, mire rejtett egységeinek aktiválásával úgy tűnt, hogy rögzítették a játéktábla aktuális helyzetét és a lehetséges szabályos mozgásokat. Tehát a csak a gyakorlóadatok statisztikáit utánozni próbáló „sztochasztikus papagájjal” – meggyőző szöveg generálására jó, de az általa feldolgozott szöveget nem értő LLM – összehasonlítva, az idegháló világmodellt épített.

vilag_megertese.jpg

Ng szerint az emberi szövegen dolgozó LLM-ek szintén világmodelleket építenek. Emergens viselkedésformáikat, például megadott utasítások finomhangolását, nehezen tudjuk megmagyarázni, ha azt feltételezzük, hogy nem értik a világot.

Az MI világértése évtizedek óta vita tárgya. John Searle amerikai filozófus 1980-ban publikálta elhíresült kínai szoba érvelését. Képzeljük el azt a hipotetikus helyzetet, hogy kínaiul nem tudó angol anyanyelvű személy tartózkodik egy bezárt helyiségben, és kínaiul írt szöveget kell angolra fordítania. A fordításhoz a kínai szimbólumok mondattani rendezésére szolgáló, jelentésüket viszont nem magyarázó, angolul írt szabálykönyvet használ, aztán valahogy elkészül a fordítás. Searle szerint a számítógép olyan, mint ez a személy: úgy tűnik, érti a kínait, a valóságban azonban nem.

Az egyik ellenérv, hogy a szobában lévő személy, a szabálykönyv, papír, az ottani rendszer elemei külön-külön ugyan nem értik a kínait, együtt, komplett rendszerként viszont igen. Az agy hasonlóan működik: egyes neuronjainak fogalmuk sincs például a gépi tanulásról, de rendszerként már van.

Konklúzió: az LLM-ek is érthetik a világot. Ha nem, akkor bajosan jutunk el általános mesterséges intelligenciáig (AGI), szingularitásig.

A gépi tanulásnak hála, legújabb számát több nyelven vette fel egy dél-koreai popsztár

A zeneipar árgus szemekkel figyeli a hanganyagokat készítő generatív mesterségesintelligencia-modelleket. Az egyik ok: rajongók mélytanulás-rendszerekkel igyekeznek utánozni kedvenceik hangját. A művészek és a kiadók reakciója megosztott.

Grimes például egy appal lehetővé teszi, hogy a felhasználók az övévé alakítsák át a hangjukat. A klónnal készült számok bevételének fele az énekesnőt, másik fele a felhasználót illeti meg. Eddig háromszáznál több rajongó töltött fel Grimes-stílusú anyagokat streaming-szolgáltatásokra.

kpop.jpg

A kevésbé belátó Universal Music kiadóóriás a művészei hangklónjával, rajongók által készített anyagok eltávolítására szólította fel a streaming-szolgáltatókat.

A népszerű dél-koreai popzene, a K-Pop egyik ismert alakja, Lee Hyun (Midnatt) legújabb száma, a Maquerade angolul, japánul, mandarinul, spanyolul, vietnámiul és természetesen anyanyelvén, koreaiul is elkészült. Az énekesnő egyik idegen nyelvet sem beszéli folyékonyan, ezért a legnagyobb K-Pop kiadó, a Hybe mélytanulás-rendszerrel javította a kiejtését.

kpop0.jpg

A Neural Analysis and Synthesis (NANSY) neurális beszédfeldolgozó rendszert a Hybe által januárban 36 millió dollárért felvásárolt szöuli Superzone fejlesztette.

Hangfelvételnél a NANSY a kiejtés-, a hangszín-, a hangmagasság- és a hangerő-információkat elkülöníti egymástól. A kiejtést wav2vec beszédfelismerő modellel, a hangszínt konvolúciós ideghálóval, a hangmagasságot speciális algoritmussal, a hangerőt spektrogrammal elemzi. Ezeket követően, a négy elemet egy alrendszer segítségével újraegyesíti.

Lee-vel mind a hat nyelven felvették a számot, majd anyanyelvi beszélőkkel rögzítették a nem-koreai változatokat. Mindegyik felolvasta a szöveget. NANSY az énekelt és a beszélt felvételeket egyesítve állította be az énekesnő kiejtését a másik öt nyelven.

Az alkalmazás a technológia kereskedelmi értékének újabb bizonyítéka. K-Pop művészek rendszeresen adnak ki angolul és japánul is számokat, de a zeneiparban legalább az 1930-as évek óta bevett a többnyelvű felvétel (amikor Marlene Dietrich dalait angolul és németül is elénekelte). Az új technikával az eddiginél is szélesebb körben terjedhetnek el zenék.

Van-e még értelme a metaverzummal foglalkozni?

A tartós és megosztott 3D virtuális világok, immerzív digitális terek összessége, a web3-at kiteljesítő metaverzum koncepció nem új. Ebben a szuper- és metaközegben dolgozhatunk, játszhatunk, szocializálódhatunk, vásárolhatunk, tanulhatunk és még sok minden mást tehetünk. Mindenkit személyes avatár képvisel, észrevétlen váltogathatjuk a platformokat, kriptovaluták a fizetőeszközeink.  

Elsőként a névadó Neal Stephenson vázolta a kultikus cyberpunk Snow Crash-ben (1992), a jelenre és a közeljövőre aktualizált, az eredetinél sokkal kidolgozottabb, realisztikusabb változatát pedig Ernest Kline Ready Player One-jában (2011) olvashattuk, majd láthattuk a könyvből készült 2018-as Steven Spielberg-filmben (aztán a 2020-as Ready Player Two-ban megint olvashattuk).

metaverse0_1.jpg

Az elméletet a 2000-es években finomították, a múlt évtized közepi virtuálisvalóság-hullámmal került be a közgondolkodásba, a 2020-as évek elején Mark Zuckerberg pedig akkora potenciált vélt benne, hogy azóta a Facebook anyacége is Meta néven szerepel. A látványos médiafelhajtás ellenére a technológia eddig nem váltotta be a hozzá fűzött reményeket, néhány éve divat volt még, ma pária. Nyilvánvaló, hogy pár esztendőn belül úgy biztos nem valósul meg, ahogy megszállottjai elképzelték, inkább egyes alkalmazásokban, például a digitális ikrekben, a koncepcióhoz közeli, játéknál több játékplatformokon (Roblox, Fortnite) ér el sikereket.

Míg az általános mesterséges intelligencia (AGI) vagy a kvantumszámítógép valamikori megvalósulásával kapcsolatban általában pozitívak a vélemények, addig a metaverzumról több a szkeptikus, lemondó hang. Nem így Bernard Marr, a világhírű jövőkutató és influenszer, aki öt pontban foglalta össze, miért vár fényes jövő a virtuális világok összességére.

metaverse_1.jpg

Első érve, hogy a virtuális és a kiterjesztett valósággal (AR és VR) az online élmény immerzívebbé válik. Ezekkel a technológiákkal élethűbb és átélhetőbb lesz, nő az interakció, VR headsetet viselve, például kedvenc márkánk digitális boltjában élhetünk át élményeket.

A metaverzumban mindent és még többet megtehetünk, amit a fizikai világban megteszünk – hangzik a kissé hurráoptimista második érv. Úgy végezzük a távmunkát, mintha a kollega mellett ülnénk, és ez a távolsági kommunikáció már nem egy Zoom-találkozó színvonala lesz. A technológia fejlődésével tanulás, játék, bármi a metaverzumban teljesedik ki.

Marr szerint a metaverzum a valóságnál is nagyobbá nőhet, majd Dubai példáját hozza fel, ahol valóvilág-helyszínek metaverzum-utánzatait, digitális ikreit hozzák létre. Közösségi médiumok, nagy márkák oktatási intézmények mind működtetnek virtuális világokat, és soknak nem lesz valódi megfelelője. Adjuk mindezt össze, és a metaverzum tényleg a valóság fölé nő – magyarázza Marr, majd hozzáfűzi: a folyamat nyilván nem máról holnapra, hanem fokozatosan valósul meg.

A metaverzum befolyásolni fogja a minket körülvevő fizikai világot – hangzik a negyedik érv. Egyrészt az interneten belül lesz, másrészt az internetet és digitális elemeit átviszi a valóságba. Megváltoztatja környezet-érzékelésünket, a környezettel folytatott interakcióinkat. Például fizikai boltban járva, az AR segítségével digitálisan próbálhatunk fel ruhákat – ezt egyébként már ma is megtehetjük.

Marr végső érve, hogy a metaverzum megváltoztatja a vállalatokat, mert az ügyfelekkel főként ott ápolják majd a kapcsolatokat. Ez már elkezdődött, és a jövőkutató a Nike-t, a Vans-t és egy szabadalmi kérvény alapján a McDonald’s-t hozza fel példaként. A közeg tökéletes a márkaépítésre, termékértékesítésre, fogyasztó és márka kapcsolatának elmélyítésére. Mindezeken túl, cégek készítenek majd kizárólag digitális, csak a metaverzumban létező termékeket is: autókat, ruhákat, bútorokat stb. A munkavégzés és a kapcsolódó képzések ott történnek majd, miközben az együttműködés új formái alakulnak ki.

A technológia jelenállása, a mostani infokommunikációs és társadalmi-gazdasági trendek ugyan nem támasztják alá Marr metaverzum-jövőjét, megvalósulásának azonban nincsenek elméleti akadályai.

Generatívvá válnak a felhőszámítások

A generatív mesterséges intelligenciához alkalmazásprogramozói felületet (API) kínáló startupok előtt álló kihívás, hogy egy API-ról egy másikra váltani olcsó, viszont a vállalkozás védelmi szintje csökken. Ezzel szemben a felhőszámítás-platformok sok API-t kínálnak, a váltási költségek viszont magasak. Azaz, ha egy felhőplatformon alkalmazást fejlesztettünk, nem praktikus egy másikra migráltatni. A felhőszámítások ezért is jövedelmezők. A startupoknak ezt az ellentmondást kell valahogy felszámolniuk.

A legújabb generatív modellekhez való hozzáférés minden iparág számára kulcsfontosságú. Az Amazon Webszolgáltatások Bedrock platformja új generatív modelleket, szoftverágenseket kínál a felhasználóknak a modellekkel folytatott kommunikációhoz, illetve orvosi rekordokat generáló szolgáltatást is nyújt. Az újdonságok „előnézetben” (preview) érhetők el, és változhatnak.

generativ_felho.jpg

A Bedrock a Stable Diffusion képgenerálóval és nagy nyelvmodellekkel (AI21 Jurrasic-2, Anthropic Claude) indult áprilisban. A mostani újításokkal nőttek a platform lehetőségei.

A Cohere két modellje is közéjük tartozik. A Command összefoglal, szöveget ír, kérdésekre ad választ, az Embed pedig száznál több nyelven generál beágyazásokat. Az Anthropic Claude 2-jét frissítették, és a Stability AI új Stable Diffusion XL 1.0-ját is a platformba integrálták.

Az Ágensekkel lehetővé válik, hogy a felhasználók alkalmazásokba építsék ezeket a modelleket. Például repülőjegy-foglaló honlapok alkalmazásaiban, az MI az adott személy korábbi utazásait, figyelembe véve javasolhat járatokat, és foglalhat helyet rajtuk.

A HealthScribe vizit után generál orvosi jegyzeteket. Nyelvmodellek átírják a páciens és az egészségügyi szakemberek beszélgetéseit, azonosítják a beszélőket, kivonatolják az orvosi szakkifejezéseket, és összefoglalókat készítenek. A rendszerek megfelelnek a személyes információ védelmére vonatkozó amerikai jogszabályoknak.

Az Amazon persze nincs egyedül, mert legfőbb felhőszámítás-vetélytársai, mint a Google Cloud Platform és a Microsoft Azure saját generatív MI-jüket szolgáltatásként kínálják a felhasználóknak. 

Ukrajna orosz inváziója forradalmasította a hadászati drónhasználatot

A drónok gyorsan a csataterek alapvető eszközévé váltak, támadóerejük folyamatosan nő. A világ kormányai most Ukrajnára figyelnek, hogy levonják a tanulságokat az esetleges lázadók, félkatonai csoportok és drogkartellek elleni harchoz.

Ukrajna orosz inváziójának kezdete óta többszáz drónfejlesztő cég alakult az országban, komplett helyi iparág jött létre. A startupok által épített légi és tengeri robotokat a hadsereg ellenséges pozíciók megfigyelésére, tüzérségi csapások irányítására és (időnként orosz területen is) bombák ledobására használja.

ukran_dron.jpg

A Twist Robotics kvadkopterei mesterséges intelligenciával vezérelt célkövetést használnak. Azért van szükség MI-re, hogy a célpontot akkor se tévesszék szem elől, ha az operátorral megszakad a rádióösszeköttetés. A Warbirds légi és vízi drónjai hasonló képességekkel rendelkeznek.

Ha háborús zónában kell dolgozni, a helyi fejlesztők előnyben vannak a külföldiekkel szemben. Az ukrán hatóságok hazai cégeknek hozzáférést biztosítanak elfogott orosz zavarótechnológiákhoz, azok alapján ellen-megoldásokat dolgozhatnak ki. Ezek a startupok óriási mennyiségű adathoz, például tankok vagy aknák képeihez is hozzájutnak közvetlenül a frontról, és a fotókat rendszereik gyakoroltatásához használhatják. Gépeik csatatéri teljesítményéről szintén azonnali visszajelzést kapnak.

ukran_dron0.jpg

Külföldi vállalatok is a dróngyártásba való bekapcsolódásra törekednek, például hozzá akarnak férni ugyanazokhoz az adatokhoz. A kanadai Dragonfly és az amerikai BRINC a helyszínen fejleszt ember nélküli légi járműveket, a katonai mesterséges intelligenciával foglalkozó német Helsing és a szintén amerikai, adatelemző Palantir irodát is üzemeltet az országban.

Értelemszerűen az oroszok is reagálnak, az utóbbi hónapokban például fokozták a célpontba ütközéskor felrobbanó Lancet pilóta nélküli repülők gyártását. Az új egységekben a Forbes szerint MI-s vezérlésre és célpont-beállításra alkalmas Nvidia Jetson TX2 számítógépek is vannak. Az orosz állami média cáfolta a Forbes állítását.

Más országok is felgyorsították a drónos hadviseléssel kapcsolatos fejlesztéseiket. Az amerikai hadsereg könnyen beszerezhető alkatrészekből drónok és más légi járművek, hajók és tengeralattjárók adatai által veszélyforrásokat azonosító rendszert fejlesztett. Az izraeli védelmi erők légicsapás-célpontokat kiválasztó MI-rendszert telepítettek. Egy másik rendszer kiszámolja a szükséges hadianyagot, ütemezi a légi csapást, drónoknak és más repülőknek (ember is van rajtuk) jelöl ki célpontokat. Tajvan átfogó drónfejlesztés programot indított.

Érintés és nem látás alapján forgat meg tárgyakat egy robotkéz

Az ember meg tud markolni és forgatni tud tárgyakat úgy, hogy nem látja azokat. A San Diegói Kaliforniai Egyetem kutatóinak köszönhetően most már robotkéz szintén képes ugyanerre.

A kéz kicsi játékoktól, üdítődobozokig, sőt gyümölcsökig és zöldségekig, többfajta tárgyat forgat el puszta érintéssel, és közben egyiket sem karcolja, rongálja meg. A feladat kivitelezéséhez kizárólag érintés közben gyűjtött adatokat használ.

robotkar_erintes.jpg

A négyujjas robotkéz széles területén, tenyerén és ujjain, elsősorban az ujjvégeken elosztott tizenhat érintésszenzor működik. Olcsó eszközök, darabonként tizenkét dollárba kerülnek, egyetlen rendeltetésük, hogy megállapítsák: hozzáért-e a kéz egy tárgyhoz, vagy sem.

A megközelítést az olcsó és alacsony felbontású, egyszerű bináris jeleket (igeneket és nemeket) használó érzékelők teszik egyedivé. A bevett gyakorlat, azaz nagyfelbontású és a robotkezeken kis területen elhelyezett, kevés szenzor működtetése drága.

robotkar_erintes0.jpg

Pedig ha kevés a szenzor, kevesebb az esély, hogy a kéz bármilyen tárggyal is kapcsolatba kerül, nagy felbontásuk miatt nehezen szimulálhatók, ráadásul drágák is, és nagy részük látást is használ. Összességében, nem praktikusak valóvilág-forgatókönyvekben. Mivel a feladat elvégzéséhez nincs szükség például textúra-információkra, bőven elegendők hozzá a bináris jelek. Ha a szenzor érzékeli őket, az információ a sikeres forgatáshoz épp eleget elárul a tárgy 3D szerkezetéről és elhelyezkedéséről.

A kezet szimulációban kezdték gyakoroltatni, változatos, köztük szabálytalan formájú tárgyakat is megérintett. A rendszer megállapította, melyik érzékelő, hol és mikor érintette meg az adott objektumot. A begyűjtött infók alapján már tudja, mire utasítsa a kezet.

Ezt követően jött a valódi kéz tesztelése, olyan tárgyakkal, amelyeket korábban nem érintett meg. Többet sikerült úgy forgatnia, hogy nem ejtette le. A komplexebbek mozgatását lassabban tanulta meg.

A fejlesztők jelenleg bonyolultabb feladatok kivitelezésén dolgoznak, a kéz például elkapni próbál tárgyakat.

       

Algoritmus mondja meg a vezetőnek, melyik nagyvárosi útvonal a legbiztonságosabb

A legtöbb navigációs alkalmazás megmutatja a célhelyszínhez vezető leggyorsabb utat, egyesek a legkevesebb széndioxid-kibocsátás alapján a leginkább környezetbarátot is kiszámolják. Szerencsére most már a legkevesebb kockázattal járó, tehát a legbiztonságosabb felvázolására is van lehetőség.

A kanadai Brit Kolumbia Egyetem kutatói által fejlesztett, valósidejű kockázati adatokkal dolgozó új algoritmussal ugyanis lehetőség nyílik a potenciálisan legbiztonságosabb nagyvárosi útvonal azonosítására. Az alkalmazás navigációs appokba, például a Google Maps-be integrálható.

nagyvarosi_kozlekedes.jpg

A kutatók Athén belvárosa felett keringő tíz drónnal dolgoztak. A drónok több napon keresztül végezték munkájukat: különféle tényeket, például járművek elhelyezkedését, sebességüket, felgyorsulásukat rögzítették. A szakemberek ezek alapján majdnem bekövetkező összeütközéseket azonosítottak, majd valósidejű karambolok kockázatát jelezték előre az algoritmussal.

Ebben a kutatásban használtak először valósidejű karambolkockázatra vonatkozó adatokat navigációs célokra: a városon átvezető legbiztonságosabb útvonal megállapítására. Az algoritmus valósidőben pontosít, finomhangol, kerülőket javasol kockázatos környékek elkerülésére.

A technológia mindenki számára biztonságosabbá teszi a nagyvárosi közlekedést, vállalatok például a biztonság és a karambolkockázat csökkentése szellemében jobban megszervezhetik flottájuk mozgását.

A kutatásból kiderült, hogy nem mindig a leggyorsabb a legbiztonságosabb útvonal. Athén egy részét elemezve, megállapították, hogy csak 23 százalékos az egyezés. A vezetők a legbiztonságosabb útvonalon átlagosan a leggyorsabb útvonalon használt utak 54 százalékát használták. Ez azt jelenti, hogy útvonaltervezéskor a biztonság és a hatékonyság kombinációját kell figyelembe venni.

A legbiztonságosabb útvonalak 22 százalékkal biztonságosabbnak bizonyultak a leggyorsabbaknál, míg a leggyorsabbak csak 11 százalékkal voltak gyorsabbak a legbiztonságosabbaknál. Tehát, ha csak egy kicsivel érünk később valahova, máris jelentősen nő a biztonságunk.

A kutatók jelenleg más nagyvárosokra terjesztik ki vizsgálódásukat. Köztük Bostonra is, ahol önvezető autókat ebből a célból is tesztelnek.

Az algoritmus biztonságos kerékpár-útvonalak azonosítására szintén használható.

A Nemzetközi Űrállomásról irányítottak földi robotokat

Frank Rubio, a NASA űrhajósa a Nemzetközi Űrállomásról (ISS) vezérelt a Földön lévő kislétszámú robotcsapatot. A teszttel a távirányított robotok jövőbeli tevékenységét tanulmányozták. Ilyen robotcsapatokat a Holdra vagy majd a Marsra tartó missziókon használhatnak.

A NASA Artemis II űrhajóján jövőre asztronauták repülnek a Hold közelébe, 2025-ben vagy 2026-ban pedig le is szállnak. Cél a folyamatos ott-tartózkodás, amelyben robotok is fontos szerepet töltenek be.

nemzetkozi_urallomas.jpg

A kétórás teszt hasonló környezetben játszódott a Münchenhez közeli Német Űrhajózási Központban. Rubio az ISS európai Kolumbusz moduljáról vezérelt három robotot, földrengésmérő műszert kellett leszedniük a holdra szálló egységről, majd elhelyezniük a talajon. Az eszközt egy humanoid tette a szimulált holdfelszínre.

Az űrhajós a teljes feladatsort el tudta végeztetni a gépekkel, és értékes adatokhoz jutottak. Mindezt úgy tette az ISS fedélzetén, hogy közben óránkénti 28 ezer kilométeres sebességgel keringtek a Föld körül.

A vizsgálódás az átfogó Felszín Avatár tesztsorozat része volt. A három robot kikövezi az utat egy nagyobb robotcsapat előtt, az ő távirányításukat az Európai Űrügynökség (ESA) dán űrhajósa, Andreas Mogensen fogja végezni.

A jövőben a NASA és az ESA műveleteiben valódi forgatókönyvekkel számolnak – az űrhajósok a Gateway holdállomás fedélzetén tartózkodnak, miközben a Hold felszínén lévő robotokat távirányítanak.

A holdi Gateway program valamikor az Artemis III holdraszállása után kezd el működni. Az 1972-es Apollo 17-et követően ekkor lesz először ember a Holdon. Csúcskategóriás robotok és generatív mesterségesintelligencia-megoldások szerves részei a tervnek.

A mostani teszten kiderült, hogy helyi pályáról működik az erőalapú visszacsatolásos vezérlőtechnika. A Felszín Avatárral a közvetlen távirányítást és a felügyelet melletti autonómiát összekombinálva igyekeznek majd komplex feladatokat végrehajtó robotokat vezérelni.

Az Apple jól titkolja generatív mesterséges intelligenciáját

Ha a nagyvállalatok többsége jobbra lép, akkor az Apple balra tart, és fordítva. Bevételei zömét eszközei eladásával generálja, a hardver életre keltéséhez a szoftverrel való nagyon szoros integrációjára van szükség. Az almás cég ebben is különbözik a többi nagytól, és ezek a különbségek kvázi kötelezővé teszik, hogy a generatív MI-ről is másként gondolkozzon. (A második ábrán az Apple 2022-es bevételeinek eloszlása látható – a szolgáltatásokkal szemben, egyértelműen az eszközöké a főszerep.)

Technológiáit közismerten nagyon óvja, MI-fejlesztésekre viszont nem helyezett akkora hangsúlyt, mint a többiek. A Siri úttörő termékként indult, de az Alexa és a Google Asszisztens jobbnak bizonyult, aztán a ChatGPT őket is háttérbe szorította.

apple_ai.jpg

A cég az utóbbi években ugyan publikált tanulmányokat a generatív MI-ről, legújabb termékeivel azonban nem emeli ki, nem teszi középpontba a technológiát, miközben legfőbb riválisai nem győzik egymást felülmúlni a versenyfutásban: a Microsoft az OpenAI-ba fektetett, utóbbi nyelvtechnológiáját a Bing keresőbe, képmodelljeit az Azure felhőszolgáltatásba integrálta. A Google a LaMDA nyelvmodellen alapuló Bard chatbottal igyekszik majd javítani a keresést. A Meta ugyan nem fejlesztett még „zászlóshajó-terméket”, a LLaMA és a korlátozott mértékben nyílt forrású LLaMA 2 viszont egyaránt felkeltette a szélesebb érdeklődést.

Apple-dolgozók névtelenül arról beszéltek, hogy a cég hogyan próbálja kihasználni a chatbotok körüli hype-ot.

apple_ai0.jpg

Nagy nyelvmodellekhez (large language models, LLM) dolgoztak ki keretet, és saját chatbotot fejlesztettek, de az Apple GPT szigorúan belső felhasználásra készült. Ez is jelzi, hogy az iPhone-gyártó milyen óvatosan viszonyul az okostelefonok megjelenése utáni idők „legforróbb” technológiai trendjéhez.

Az Apple generatív MI-vel kapcsolatos tevékenysége a Google JAX gépitanulás-keretére épülő Ajax rendszerre összpontosít. Az Ajaxot használó kislétszámú csoport 2022 végén fejlesztette az Apple GPT-t, amelyet a cég alkalmazottai is csak speciális engedéllyel használhatnak.

A chatbotot termékek prototípusának elkészítéséhez, szövegek és kérdés-felelet anyagok összefoglalására használják. A vállalat mérnökeinek tilos az outputok alapján fogyasztói termékeket fejleszteni.

süti beállítások módosítása