Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Bérbe adott arcok kamuképes reklámokhoz

2021. november 17. - ferenck

Ha valaki gyorsan akar pénzhez jutni, és nincsenek különösebb skrupulusai a mesterséges intelligencia kétes felhasználásaival szemben, akkor forduljon a tel-avivi Hour One startuphoz: a cég fizet azért, hogy arcunkról kereskedelmi céllal, magyarán reklámra kamuképet (deepfake) készíthessen.

Az Hour One valódi személyek hasonmásaival dolgozik, belőlük hoz létre mesterségesintelligencia-technikával marketing és oktatóvideókban szereplő „karaktereket.”

Jelenleg nagyjából száz „karakterből” álló könyvtáruk van, amit folyamatosan akarnak bővíteni. Ezért várják a jelentkezőket.

deepfake0_2.jpg

„Sorokban állnak az emberek előttünk, meghalnak azért, hogy ilyen karakterré váljanak” – magyarázza kicsit félreérthetően Natalie Monbiot, az Hour One stratégiai igazgatója.

De mi is kell hozzá?

Először a cég honlapján kell névvel, email-címmel, Instagram-profillal jelentkezni. Nem szükséges a szupermodell külső, a lapos has, és a divatvilág más előírásaival sem törődnek. A startup a lehető legnagyobb életkor, nem, bőrszín szerinti változatosságra törekszik.

deepfake_2.jpg

Ha kiválasztanak, az Hour One beszéd és különböző arckifejezések közben filmezi a fejünket. Zöld háttérrel, nagyfelbontású kamerával dolgoznak.

A felvételt mesterségesintelligencia-szoftver dolgozza fel, és máris kész a karakter, mesterségesen intelligens digitális alteregónkat vállalatok vásárolhatják meg és adhatják el olcsón. Azt csinálnak vele, amit épp akarnak.

A startup mesterséges intelligencia által generált hangokat használ a mozgóképekhez. Az MI a szöveget beszéddé (text-to-speech) alakító szoftverekhez hasonlóan működik: feltöltünk egy szkriptet, és a mesterséges intelligencia elmondja. Van egy drágább opció is: a szkriptet nem MI, hanem profi szinkronszínész olvassa fel.

A startup ugyan dolgozott ki etikai stratégiát, a nyelv- és a karaktervédelem mégis döbbenetesen gyenge lábakon áll. Három pontban, homályosan írják le, hogy az „Ön adatait a legnagyobb biztonságban védjük.” A hasonmásunk videóit vízjellel látják el, jelezve, hogy mesterséges intelligencia generálta őket.

De mi történik akkor, ha egy cég erkölcsileg megkérdőjelezhető termékek, szolgáltatások reklámozására használja a digitális alteregónkkal készített videókat?

Mesterséges ideghálók szépítették meg Elon Muskot

Egy izraeli kutatócsoport kitalálta, hogyan változtassanak meg mesterséges intelligenciával fotorealisztikusan fényképeket. A gépi tanulásból, mélytanulásból (deep learning) jól ismert generatív ellenséges hálózatok (generative adversarial networks, GAN) tűntek a legkézenfekvőbb megoldásnak: az egyik háló az eredeti alapján generálja a még hitelesebb változatot, a másik pedig addig bírálja, amíg tényleg jó és abszolút élethű nem lesz a hamisítvány.

A felhasználókat mindössze arra kérték, hogy adjanak leírást arról, amit akarnak, szeretnének látni.

Eredményként egy cica képét például „aranyos cicává” alakították. Az „aranyos cica” szavakra az MI csak az állat szemeit nagyította fel.

muskai0.jpg

A kutatók azonban nem álltak meg a házikedvenceknél. Ugyanazzal a technológiával a Tesla-főnök Elon Muskot is többféleképen átalakították, egyik szórakoztatóbb lett a másiknál.

A kultikus cégvezér az egyiken úgy néz ki, mintha a Starship Troopersből lépett volna közvetlenül ki, de hullámos, göndör, vagy egyenes hajjal egyaránt megmosolyogtató, és egy kicsit talán el is gondolkoztató látvány. A milliárdos egyes képeken viszont kifejezetten ijesztő, félelmet keltő.

muskai1.jpg

Ha eleget nézzük ezeket a képeket, a végén elfelejtjük, hogyan néz ki Elon Musk a valóságban.

Ha viszont félretesszük a viccet, el kell ismernünk, hogy a fényképek döbbenetes könnyedséggel manipulálhatók. Szinte hihetetlen, mit ki lehet hozni belőlük.

A gépi tanulás, az ideghálók fejlődése szintén hihetetlen tempójú. Döbbenetes, hogy honnan indultak, és hova jutottak el mára. Nem véletlen, hogy a dezinformációban és kamuképek, kamuvideók (deepfakes) előállításában is mekkora szerepet játszanak.

Felhasználásuk erősen demokratizálódott az utóbbi években, lényegében bárki – akinek van számítógépe – dolgozhat, szórakozhat velük. Időnként egész izgalmas eredményeket érnek el, például Mark Zuckerbergről is készült már kopasz, szemüveges stb. változat is.  

Mesterségesintelligencia-kutatók a mesterségesintelligencia-etikáról

Technológusok folyamatosan dolgoznak a biztonságos, nyílt és etikus infokommunikáció megvalósulásán. Egyes szervezetek például a magánadatok biztonságát védő, etikai problémákra megoldást kínáló szabványokat vezetnek be. Máskor közvetlenebb megoldásokhoz fordulnak, mint tette azt háromezer Google-alkalmazott, amikor írásban tiltakoztak a cég és a hadsereg közös gépilátás-projektje ellen.

A mesterséges intelligencia rengeteg morális kérdést vet fel, és a kutatásfejlesztések jelenlegi állása alapján a gépi tanulás területén dolgozó szakemberek a legavatottabbak ezek megválaszolására. A legkockázatosabb fejlesztések jó részét eleve ők végzik.

ai_ethics_2.jpg

A Cornell, az Oxford és a Pennsylvania Egyetem 534 gépitanulás-szakértővel végzett felmérést a mesterséges intelligenciával kapcsolatos etikai kérdésekről. A válaszadók 89 százaléka férfi, túlnyomó többségük európai, ázsiai, illetve észak-amerikai volt.

68 százalékuk szerint az MI-közösségeknek többet kellene foglalkozniuk a biztonsággal. A rendszereknek robusztusabbnak, megbízhatóbbnak kell lenniük, és operátoraik szándékaival nagyobb összhangban kell működniük.

A nyitottság az MI-kutastások egyik kulcsa. A válaszadók 84 százaléka szerint minden új kutatásnak részletesen le kell írnia az alkalmazott módszereket, 74 százalékuk pedig az eredmények kötelező közlését javasolta. Viszont csak 22 százalékuk gondolja, hogy a publikált kutatási anyagnak a betanított modellt is tartalmaznia kell.

A hadsereg iránti bizalom sokkal kényesebb téma. Az interjúalanyok általában támogatják az MI katonai logisztikai alkalmazásait, ötből egy ellenzi a gépi látással végzett megfigyelést, viszont 58 százalékuk masszívan ellene van az MI által vezérelt fegyvereknek („gyilkos robotoknak”). 31 százalékuk pedig felmondana, ha ilyen projektekben kellene részt vennie.

A nagyvállalatokat illetően az Open AI-ban bíznak meg leginkább. A Microsoft, a DeepMind és a Google követi őket. A Facebook, a kínai Alibaba és Baidu iránt kisebb a bizalom.

Kik a csapatjátékosok?

Csapatsportokhoz egyéni és csoportos képességek, azok képlékeny keveréke szükséges. A DeepMind kutatói focizó humanoid ágensekbe integrálták a két cselekvéstípust.

Szimulált focicsapatokhoz dolgoztak ki edzésmódszert. A játékosok, azaz az ágensek a fizikaihoz hasonló virtuális pályán tanultak meg futni, passzolni, védekezni, gólt lőni.

team.jpg

A kutatók tizenhat ágenst treníroztak, hogy kétszemélyes csapatokban versengjenek egymással. Egy ágens nyomást helyezhet mind az ötvenhat ízületére, nyomon követheti az általuk bezárt szögeket, pozíciókat, gyorsaságukat, megfigyelheti a többi játékos és a pályán lévő más objektumok elhelyezkedését, és az ő gyorsaságukat is.

Az edzés első szakaszában a modell olyan mozgásokat tanult meg, mint a futás és a fordulás. Kódolót és dekódolót tanítottak be felügyelt tanulás mellett, hogy jelezzék előre az ágens mozgását. Valódi focistákról készült 105 perc mozgásrögzítés (motion-capture) anyagot kaptak hozzá.

team0.jpg

A kódoló megtanulta megjeleníteni az ágens fizikai állapotát, míg a dekódoló ezeket a reprezentációkat alakította át az ízületekre kifejtett nyomatékokká.

Második lépésben, különféle kódolók négy adottságot sajátítottak el – pont követését, cselezés közbeni pontkövetést, pontra rúgni a labdát, és persze gólt lőni. Az ágens fizikai állapotának reprezentálása mellett, képességeiket is megjelenítették, a dekódoló pedig az ízületek mozgásának módját határozta meg. Négy másik kódoló az adottság-modell reprezentációjának újraalkotását információkhoz való hozzáférés nélkül sajátította el.

team1_1.png

Végül az ágensek felügyelet mellett megtanultak csapatban versenyezni, különféle reprezentációkat összekombinálni. Minél többet edzettek, annál ügyesebbé váltak. Kezdetben például az esetek harminc százalékában orra buktak, később viszont a passzolástól a góllövésig, minden szinten jól teljesítettek.

A komplex feladatok kivitelezéséhez szükséges összes adottsághoz egynél természetesen több edzőmódszerre van szükség. Ezekben az esetekben a kutatók a felügyelet melletti, a megerősítéses és a csapatban történő tanulást kombinálták össze egymással.

A feladatmegvalósításhoz szükséges absztrahálást maguktól megtanuló ágensek fejlesztése lesz a következő lépés.

Mesterséges intelligencia csökkenti az idősekre leskelődő veszélyeket

Automatizált rendszerek sokféleképpen javíthatják az idősgondozás minőségét.

Az Egyesült Államokban több mint kétezer idősotthon és idős személyekkel foglalkozó más létesítmény használja a VirtuSense Balance diagnosztikai rendszert, hogy az érintetteket megmentse a felesleges és nem egyszer végzetes kimenetelű esésektől.

usa_idosek.jpg

Az ilyen esések miatt évente többezren halnak meg, többmillióan szenvednek balesetet. A kockázatok azonosításával életek menthetők meg, a gondozók hatékonyabban használhatják ki az idejüket.  

A rendszer kockázatos, potenciálisan eséshez vezető testtartások és  mozdulatok azonosításával segít specialistáknak. Infravörös fénnyel szkenneli le a mozdulatsorokat kivitelező személyeket, majd a pózokat detektáló modell elemzi a pozíciójukat.

usa_idosek0.jpg

Az egyensúlyteszt megméri, hogy az adott személy mennyire imbolyog, miközben elvileg egyenesen áll. A testtartás-teszttel a járás tempóját, a térdek által bezárt szögeket, a lépések hosszúságát becsülik fel.

A funkcióteszteken a rendszer változatos ülő, álló és járótevékenységeket elemez.

Végül összehasonlítja az adott személy inputjait korcsoportjának átlagával, majd pontozza az elesés kockázatát, és az egészségügyi dolgozóknak a mobilitást javító tanácsokat is ad.

Más mesterségesintelligencia-alapú rendszerek szintén végeznek az idősek életminőségét javító tevékenységeket. A CarePredict hordozható eszköz az illető tevékenységét monitorozza, és figyelmezteti a gondozókat, ha „páciense” nem eszik, vagy nem alszik jól. A People Power Family szenzorokkal figyeli, hogy az otthon élő személyek ne essenek el. Későéjszakai tevékenységükre és váratlan jövés-menésükre összpontosít. Egy modell megtanulja minden egyes páciens szokásait, és figyelmezteti az orvost, ha az illető viselkedése nagyon erősen eltér a megszokottól.

Egyértelmű, hogy a mesterséges intelligencia nagyon fontos szerepet fog játszani ezen a területen.

Kína szigorúbban szabályozza az online ajánlóalgoritmusokat

Az internetet szabályozó kínai állami szervezet (Cyberspace Administration of China, CAC) a dezinformációt terjesztő, a nemzetbiztonságot fenyegető és a függőséget elősegítő rendszereket tiltó, az ajánlóalgoritmusok működését, használatát jelentősen korlátozó törvényeket javasol.

A CAC az ország szocialista berendezkedésének támogatását, a szocialista alapértékek promótálását sugallja az ajánlórendszereknek. A nyilvánosság visszajelzését is várják, de nem teljesen világos, hogy mire számítanak tőlük, mint ahogy a törvény érvénybe lépésének időpontjáról sincs információ.

A törvényjavaslat alapján az algoritmusoknak ezentúl tilos kihasználni a felhasználók viselkedését, például nem emelhetik meg az általuk gyakran vásárolt termékek árát.

kina_ajanlok.jpg

Ismertetni kell a fogyasztókkal a tartalomszolgáltató platformok algoritmusainak működési elveit, amelyeket kötelező lesz folyamatosan auditálni, hogy valóban megfeleljenek a CAC szabályozásának. Lehetővé kell tenni, hogy a felhasználók, ha akarják, akkor könnyen deaktiválják az automatizált ajánlókat.

A kamu felhasználó-profilokat létrehozó, a dezinformációt terjesztő, az egyéni jogokat megsértő algoritmusok le lesznek tiltva. A szabályozók nem fogalmazták meg pontosan, hogy mit is értenek egyéni jogokon.

Az érintett platformoknak engedélyt kell kérniük a közvéleményt, közhangulatot befolyásolni, elbizonytalanítani képes algoritmusok alkalmazása előtt.

Még mielőtt tücsköt-békát összebeszélnénk a kínai diktatúrára, ne feledkezzünk meg arról a tényről, hogy a távolkeleti szuperhatalom ezirányú törekvéseivel nincs egyedül. Az EU szabályozási tervezetet adott ki a társadalmi szint szerinti pontozást végző rendszerek, a valósidejű arcfelismerés, a felhasználói viselkedés manipulálására fejlesztett algoritmusok nagyon szigorú korlátok közé szorításáról, betiltásáról.

Az algoritmusok elszámoltathatóságát célzó és az Egyesült Államok kongresszusán elakadt törvény megkövetelné a cégektől, hogy végezzenek kockázat-felmérést a dezinformációt potenciálisan terjesztő és társadalmi előítéleteket növelő rendszerek használata előtt.

A szabályozás azért fontos, mert az ajánlóalgoritmusok hozzájárulhatnak a közösségimédia-függőséghez, terjeszthetik a dezinformációt és szélsőséges politikai nézeteket. Ugyanakkor a fogyasztói jogok védelme és a tartalomszolgáltatók szabad önkifejezése közötti kényes egyensúlyt is fenn kell tartani.

Mesterséges intelligencia akadályozza meg a túlzott gyógyszerhasználatot?

2020-ban közel 93 ezer amerikai halt meg gyógyszerekben lévő ópiátok túlzott használata, az ópium-származékokkal való visszaélés miatt. Algoritmusok most segíteni igyekeznek orvosoknak, hogy tényleg csak azoknak írják fel az ezeket az anyagokat tartalmazó fájdalomcsillapítókat, akiknek szükségük van rájuk.

A rendszer felméri, hogy a páciens ki van-e téve az ópiátokkal való visszaélés veszélyének. Egyes alkalmakkor fájdalomcsillapítók felírására komoly fájdalmaktól szenvedő, a múltban semmiféle gyógyszeres visszaélést el nem követett páciensek esetében is elutasító javaslatot tesz.

A legtöbb amerikai szövetségi állam adatbázisokat alakított ki gyógyszer-felírások nyomon követésére. Az orvosi technológiákat fejlesztő Appriss Health cég NarxCare rendszere legalább nyolc szövetségi államban elemzi ezeket az adatokat.

gyogyszer.jpg

A páciens nevének megadásakor, a rendszer ellenőrzi a felírt gyógyszereket és a javasolt dózisokat, az orvosok számát, az érintett gyógyszertárakat, és a receptek közötti esetleges átfedéseket. Pontoz, és a pontok alapján értékeli ki, hogy a beteg visszaél-e ópiátokkal vagy más gyógyszerekkel, majd a túladagolás lehetőségét is elemzi.

Az Appriss elmondta, hogy a pontozás az orvost csak segíti, és semmiképpen nem helyettesíti, az MI nem végzi el a munkáját, és ha lehet, nem is változtatja meg a humán munkatárs döntését.

Több páciens viszont panaszkodott, mert hibásan magas pontszámok alapján nem kapták meg a szükséges kezelést. Előfordult az is, hogy állatorvosok által a házikedvenceknek felírt gyógyszerek miatt lett sokkal magasabb egy-egy beteg pontszáma.

Kiderült, hogy az algoritmusok által a kockázat hatékonyabb pontozásához vizsgált viselkedéstípusok – több orvos felkeresése ugyanazzal a problémával, távoli utazások egészségügyi céllal stb. – miatt alkalmanként, különösen több betegségtől szenvedő vagy eldugott kistelepüléseken élő szermélyek esetében túlzó eredmények születnek.

A hibákat vétő algoritmusok okoztak már komoly problémákat, például betegek maradtak ellátás nélkül, vagy nem hoztak időben döntést a gyógykezelésükről. Arról se feledkezzünk meg, hogy az ópiátokat tartalmazó fájdalomcsillapítókat szedők túlnyomó többsége nem gyógyszerfüggő, viszont, ha megvonják tőlük az adagjukat, akkor a nem megfelelő vagy illegálisan beszerzett helyettesítő szerek miatt lehetnek problémáik.

Gépi tanulás segíti a kaliforniai borászokat

Az erdőtüzek egyre nagyobb fenyegetést jelentenek Ausztrália, Kalifornia és Franciaország borvidékei számára. Becslések szerint 2020-ban 3,7 milliárd dolláros kárt okoztak. Mesterségesintelligencia-technikák segíthetnek a veszteségek csökkentésében.

A tüzek által pusztított egyes borászatok gépi tanulást használva igyekeznek „füstmentes” borokat készíteni. Mindent megtesznek azért, hogy az ital ízén véletlenül se lehessen érezni a tűz hatását.

bor.jpg

Egyes kaliforniai borászok a Tastry szolgáltatással azonosítják a füst által károsított szőlőfürtöket. A szolgáltatás CompuBlend rendszere javaslatot tesz, hogy melyeket lehet problémamentesen összekeverni.

CompuBlend a szőlő vegyi összetételének elemzésével kezdi. A füstös anyagot tartalmazó fürtöket is vizsgálja, és egy modell az ízt „álcázó” más változatok hozzáadását javasolja.

bor0.jpg

A rendszert többféle szőlő vegyi összetételének és a fogyasztói preferenciák vizsgálatára tanították be. Különböző ízekre és aromákra, például a kávé vagy a frissen lenyírt fű szagára adott reakciókat is tanulmányozott.

A modell előzetes ismeretei alapján megtalálja a kellemetlen mellékízeket elrejtő és a fogyasztóknak ízlő keverékeket.

Nem ez az első eset, amikor a borászat ősrégi mestersége találkozik a mesterséges intelligenciával.

A keréken mozgó autonóm VineScout robot lidar és ultrahangos kamerák segítségével tájékozódik a szőlőtőkék között. Feladata a talajminőség ellenőrzése.

A Diam Bouchage parafadugó-gyártó különféle dugókról készített röntgenképeket elemző gépitanulás-eszközzel dolgozik. Az MI a képek alapján állapítja meg a dugók minőségét.

Az ausztrál Ailytic gépitanulás-platformja a termesztési folyamat aspektusainak, például az időjárásnak vagy a raktáron lévő üvegkészletnek a folyamatos megfigyelésével segíti a borászokat.

Felejtse el a mesterséges intelligencia mindazt, amit megtanult

A személyiségi jogokat, magánszféránkat (privacy) védelmező szervezetek el akarják érni, hogy mélytanuló (deep learning) rendszerek elfelejtsék mindazt, amit megtanultak.

Mire jó ez?

Többek között arra, hogy egyes gyakorlópéldák hatását a modell teljesítményének befolyásolása nélkül szüntessük meg. Ez azért fontos, mert a gyakorlópéldák személyes információk is lehetnek.

unlearning.jpg

Több kutató kísérletezett már adatok tréning előtti preparálásával, hogy utána potenciálisan el lehessen távolítani azokat. Mások kiválasztott példáknál utólag igyekeztek megszabadulni bizonyos adatoktól.

A Torontói és a Wisconsin-Madison Egyeteme szakemberei által fejlesztett SISA gyakorlómódszerrel egy modell különféle változatait ugyanannak az adatsornak egymást nem átfedő részein gyakoroltatták. Következtetésnél az összes modell előrejelzését „többségi szavazással” kombinálják egybe. Így eltüntethetők kiválasztott gyakorlópéldák, és a modellt csak a hozzá kapcsolt részeken, részhalmazokon lehet újra gyakoroltatni.

unlearning0.jpg

Más egyetemek (Harvard, Stanford stb.) szakértői viszont megállapították, hogy a SISA nem teljesíti a feladatát, azaz nem szünteti meg adatok hatását, ha az erre vonatkozó kérelmeket nem véletlenszerűen osztják szét. A probléma mértéke csökkenthető, ha az adatvédelem igényeinek megfelelve, zajt vezetünk be a rendszerbe, megzavarva a tanuló algoritmus tevékenységét.

A Google, a Cornell és a Waterloo Egyetem kutatói egyedi módszert dolgoztak ki tanulópéldák hatásának csökkentésére.

A közeljövő személyesadat-védelmi törvényei káoszt okozhatnak a gépitanulás-modelleknél, összezavarhatják a területet. Az EU-s GDPR már tartalmazza a „felejtés jogát”, ami cégeket modelljeik utólagos megváltoztatására kötelezheti. Speciális adatok hatását kell majd megszüntetniük kész modelleknél. A vonatkozó kaliforniai személyiség-jogi törvény megadja mindenkinek a jogot, hogy tudjon adatai felhasználásáról, és akkor is kérvényezhesse a törlésüket, ha azokat kívülálló cégeknek értékesítették.

A szelektíven és lépésről lépésre megvalósított „felejtéssel” a modellek olcsóbban működtethetők, mintha a semmiből kellene újragyakoroltatni őket, és így a felhasználó is jobban nyomon követheti az adatait.

Humanoid robotot tervez Elon Musk cége

Már működő mesterségesintelligencia-chipje mellett humanoid robot fejlesztését is tervezi a Tesla. Ilyen chipek üzemeltetik a cég valamikor a közeljövőben bemutatásra kerülő önvezető autóját is.

A Tesla mérnökei modelleket gyakoroltatnak, adatokat címkéznek fel, hogy minél rugalmasabban menjen a gépi tanulás, minél több és változatosabb mesterségesintelligencia-kihívást oldjanak meg.

tesla_3.jpg

Az ezekre a chipekre kitalált, Elon Musk által bejelentett MI, Dojo lényegében egy, ideghálókat gyakoroltató szuperszámítógép. Már 2019-ben, majd 2020-ban is említettek, részletesebben viszont csak idén nyáron beszéltek róla. A vezérigazgató szerint az első klaszter jövőre áll működésbe.

„A mesterséges intelligenciákat tanító leggyorsabb számítógép lesz. Már meg is van hozzá a teljes következőgenerációs tervünk” – jelentette ki Ganesh Verkataramanan, a cég egyik vezető mérnöke.

tesla1_1.jpg

Dojo négyszer gyorsabban kezeli majd a gépi látáshoz szükséges adatokat, mint bármely más komputer. Ezzel a rendszerrel és ezzel a sebességgel érheti el az önvezető jármű a teljes autonómiát.

Dojo alapja a Tesla saját fejlesztésű D1 chipje 362 teraflop feldolgozókapacitással bír, huszonötöt tesznek egy egységbe, és 120 egység, azaz háromezer chip lesz a szerverekben, ami összességében exaflop szintet vetít előre.

Az önvezető autó mellett a beígért robotot, a Tesla Botot is ez a technológia fogja működtetni. A gép közönséges feladatokat hajt majd végre – bevásárol a zöldségesnél, futószalag mellett dolgozik stb. Tervezési specifikációiból annyit lehet tudni, hogy „emberi szintű” karjával húsz kilót képes cipelni, csúcssebessége pedig óránkénti nyolc kilométer lesz.

Muskék egyelőre nem mutattak be működő prototípust, az augusztus végi Tesla MI Napon is testmaszkba bújtatott ember táncolt a robot helyett. A vezérigazgató 2022-re ígéri a prototípust, amit nem árt fenntartással kezelni, mert többször volt már elhamarkodott prognózisa.

Dojo mindenesetre közelebb hozhatja álmai – a tényleg önvezető autó és a humanoid – megvalósulását.

süti beállítások módosítása