Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

A Nemzetközi Űrállomásról irányítottak földi robotokat

2023. augusztus 02. - ferenck

Frank Rubio, a NASA űrhajósa a Nemzetközi Űrállomásról (ISS) vezérelt a Földön lévő kislétszámú robotcsapatot. A teszttel a távirányított robotok jövőbeli tevékenységét tanulmányozták. Ilyen robotcsapatokat a Holdra vagy majd a Marsra tartó missziókon használhatnak.

A NASA Artemis II űrhajóján jövőre asztronauták repülnek a Hold közelébe, 2025-ben vagy 2026-ban pedig le is szállnak. Cél a folyamatos ott-tartózkodás, amelyben robotok is fontos szerepet töltenek be.

nemzetkozi_urallomas.jpg

A kétórás teszt hasonló környezetben játszódott a Münchenhez közeli Német Űrhajózási Központban. Rubio az ISS európai Kolumbusz moduljáról vezérelt három robotot, földrengésmérő műszert kellett leszedniük a holdra szálló egységről, majd elhelyezniük a talajon. Az eszközt egy humanoid tette a szimulált holdfelszínre.

Az űrhajós a teljes feladatsort el tudta végeztetni a gépekkel, és értékes adatokhoz jutottak. Mindezt úgy tette az ISS fedélzetén, hogy közben óránkénti 28 ezer kilométeres sebességgel keringtek a Föld körül.

A vizsgálódás az átfogó Felszín Avatár tesztsorozat része volt. A három robot kikövezi az utat egy nagyobb robotcsapat előtt, az ő távirányításukat az Európai Űrügynökség (ESA) dán űrhajósa, Andreas Mogensen fogja végezni.

A jövőben a NASA és az ESA műveleteiben valódi forgatókönyvekkel számolnak – az űrhajósok a Gateway holdállomás fedélzetén tartózkodnak, miközben a Hold felszínén lévő robotokat távirányítanak.

A holdi Gateway program valamikor az Artemis III holdraszállása után kezd el működni. Az 1972-es Apollo 17-et követően ekkor lesz először ember a Holdon. Csúcskategóriás robotok és generatív mesterségesintelligencia-megoldások szerves részei a tervnek.

A mostani teszten kiderült, hogy helyi pályáról működik az erőalapú visszacsatolásos vezérlőtechnika. A Felszín Avatárral a közvetlen távirányítást és a felügyelet melletti autonómiát összekombinálva igyekeznek majd komplex feladatokat végrehajtó robotokat vezérelni.

Az Apple jól titkolja generatív mesterséges intelligenciáját

Ha a nagyvállalatok többsége jobbra lép, akkor az Apple balra tart, és fordítva. Bevételei zömét eszközei eladásával generálja, a hardver életre keltéséhez a szoftverrel való nagyon szoros integrációjára van szükség. Az almás cég ebben is különbözik a többi nagytól, és ezek a különbségek kvázi kötelezővé teszik, hogy a generatív MI-ről is másként gondolkozzon. (A második ábrán az Apple 2022-es bevételeinek eloszlása látható – a szolgáltatásokkal szemben, egyértelműen az eszközöké a főszerep.)

Technológiáit közismerten nagyon óvja, MI-fejlesztésekre viszont nem helyezett akkora hangsúlyt, mint a többiek. A Siri úttörő termékként indult, de az Alexa és a Google Asszisztens jobbnak bizonyult, aztán a ChatGPT őket is háttérbe szorította.

apple_ai.jpg

A cég az utóbbi években ugyan publikált tanulmányokat a generatív MI-ről, legújabb termékeivel azonban nem emeli ki, nem teszi középpontba a technológiát, miközben legfőbb riválisai nem győzik egymást felülmúlni a versenyfutásban: a Microsoft az OpenAI-ba fektetett, utóbbi nyelvtechnológiáját a Bing keresőbe, képmodelljeit az Azure felhőszolgáltatásba integrálta. A Google a LaMDA nyelvmodellen alapuló Bard chatbottal igyekszik majd javítani a keresést. A Meta ugyan nem fejlesztett még „zászlóshajó-terméket”, a LLaMA és a korlátozott mértékben nyílt forrású LLaMA 2 viszont egyaránt felkeltette a szélesebb érdeklődést.

Apple-dolgozók névtelenül arról beszéltek, hogy a cég hogyan próbálja kihasználni a chatbotok körüli hype-ot.

apple_ai0.jpg

Nagy nyelvmodellekhez (large language models, LLM) dolgoztak ki keretet, és saját chatbotot fejlesztettek, de az Apple GPT szigorúan belső felhasználásra készült. Ez is jelzi, hogy az iPhone-gyártó milyen óvatosan viszonyul az okostelefonok megjelenése utáni idők „legforróbb” technológiai trendjéhez.

Az Apple generatív MI-vel kapcsolatos tevékenysége a Google JAX gépitanulás-keretére épülő Ajax rendszerre összpontosít. Az Ajaxot használó kislétszámú csoport 2022 végén fejlesztette az Apple GPT-t, amelyet a cég alkalmazottai is csak speciális engedéllyel használhatnak.

A chatbotot termékek prototípusának elkészítéséhez, szövegek és kérdés-felelet anyagok összefoglalására használják. A vállalat mérnökeinek tilos az outputok alapján fogyasztói termékeket fejleszteni.

Amerikai fejlesztők és a kormány megegyeztek az MI-irányelvekben

A generatív mesterséges intelligencia gyors térnyerésével párhuzamosan nő a technológia szabályozását követelők tábora. Az egyre hangosabb kórus a fejlesztőcégeket önkéntesen felállított korlátok elfogadására és újabb modellek kidolgozására ösztönzi.

Kína már januárban törvénybe foglalta az MI-vel létrehozott médiaanyagok címkézését és a hamis infókat terjesztő, illetve a nemzeti biztonságot veszélyeztető outputok betiltását.

usa_miszabalyozas.jpg

António Guterres ENSZ-főtitkár támogatja az MI-re irányelveket kidolgozó, a Nemzetközi Atomenergia Ügynökséghez hasonló szervezet létrehozását.

Az Európai Parlament júniusban MI-törvénytervezetet fogadott el, és így az Unió közelebb került a terület szabályozásához. A folyamatosan módosuló vázlatban a generatív MI-alkalmazásokat „magas kockázatúakként” írják le, ezért rendszeres auditjukra és kormányzati ellenőrzésre lesz szükség.

Egyes amerikai városok és szövetségi államok részlegesen ugyan szabályozták a területet, de nemzeti szintű, átfogó szabályozás nincs még. Ha a vállalatok jóhiszeműen betartják az önkéntes irányelveket, elkerülik a rejtett buktatókat, enyhíthetik a rájuk nehezedő nyomást, és megakadályozhatják, hogy felülről ellenőrizzék, irányítsák a technológiai fejlesztéseket, alkalmazásokat.

usa_miszabalyozas0.jpg

Hét nagyvállalat (Amazon, Anthropic, Google, Inflection, Meta, Microsoft, OpenAI) ebben a szellemben gyűlt össze, és ült le tárgyalni a Biden-adminisztrációval, és együtt fogalmazták meg a megállapodás feltételeit. A közösen kidolgozott irányelvek három kategóriába sorolhatók.

A „biztonságosság” lényege, hogy a cégek megígérték: megjelenés előtt független szakértők tesztelhetik MI-rendszereiket, a potenciális biztonsági sebezhetőségeket megoszthatják a kormánnyal, tudományos körökkel és a civil társadalommal.

A „biztonságra” vonatkozóan, a vállalatok ígéretet tettek a cyberbiztonsági fejlesztések növelésére, különös tekintettel a szabadalmaztatott modellek védelmére, a felhasználók pedig beszámolhatnak a rendszerek általuk tapasztalt sebezhetőségeiről.

A „bizalom” keretében a cégek nyilvánosan beszámolnak modelljeik képességeiről, korlátairól, kockázatairól, előnyben részesítik a lehetséges társadalmi károkkal foglalkozó kutatásokat, és az emberiség legnagyobb kihívásaira, például a klímaváltozásra választ adó rendszerek fejlesztése lesz a prioritás. Mesterséges intelligencia által generált kimeneteket azonosító technikákra, például vízjelek használatára is ígéretet tettek (ez a legkonkrétabb vállalás).

Az irányelvek betartására tett ígéretek még akkor is az MI előnyeinek maximalizálása, kárainak minimalizálása felé tett lépés, ha egyes vállalatok már most megfelelnek a követelményeknek.

A mélyhamisítványok elég meggyőzők ahhoz, hogy hamis emlékeket keltsenek

A mélyhamisítványokról (deepfakes) már bebizonyosodott, hogy nyugtalanítóan hatékonyak dezinformáció terjesztésére, egy új tanulmányból viszont kiderül: hatásuk a féltnél és feltételezettnél is összetettebb, árnyaltabb lehet. Például kamuklipeket nézve, megváltozhatnak a felhasználó múltbéli emlékei, mint ahogy események érzékelése is.

Az írországi Cork Egyetem kutatói 440 személyt kértek fel kamuklipek nézésére. Filmek nem létező új változatát tekintették meg: a Mátrixot Will Smith-szel, ezúttal nem Harrison Ford játszotta Indiana Jonest, Brad Pitt és Angelina Jolie voltak a Ragyogásban, és így tovább. Utána valódi remake-ek következtek: Az emlékmás, Carrie stb. Egyes önkéntesek szöveges leírást is kaptak a nemlétező változatokról.

deepfake_videok.jpg

A nézők közel ötven százaléka állította: emlékszik a mélyhamisított feldolgozásokra. Közülük többek szerint a kamuváltozat jobb volt az eredetinél.

A számok zavarba ejtenek, viszont az is kiderült, hogy a múlt félretájékoztatására használt mélyhamisítványok nem hatékonyabbak a fiktív mozikat ismertető szövegeknél.

A kutatást vezető és a félretájékoztatással foglalkozó Gillian Murphy szerint nem kell különösebben aggódni az eredmények miatt. A félretájékoztatás más módszereivel összehasonlítva, a mélyhamisítványok nem jelentenek különlegesen hatékony fenyegetést – véli a kutató. Viszont, ha virálissá válnak, vagy hosszú ideig az emlékezetben maradnak, akkor sokkal eredményesebbek lehetnek.

A rosszindulatú mélyhamisítványok potenciális sikerének egyik kulcsa az úgynevezett „motivációs érvelés”, amikor akaratlanul is hagyjuk, hogy előítéletek és elfogultságok befolyásolják valóságérzékelésünket. Ha létező hiedelmeket feltételezett bizonyítékokkal támasztanak alá, nagyobb valószínűséggel, tanulmányozás nélkül fogadjuk el ezeket a „bizonyítékokat.” Ha a deepfake közel áll társadalmi-politikai beállítottságunkhoz, jobban hiszünk benne, viszont, ha cáfolja érveinket, szkeptikusabbak vagyunk.

A motivációs érvelés önmagában is rossz, de ha nem vagyunk tisztában velük, akkor a mélyhamisítványok fel is erősíthetik a bennük lévő általános logikai tévedést. Médiaműveltségünk és kritikus érvelésünk erősítése kulcsfontosságú ahhoz, hogy a fikciót fikciónak tartsuk.

Izzadó robot segíthet megértetni az embereknek a hőség hatását

Mi történik az emberi testtel, ha hőgutát kap? Hogyan védhetjük meg magunkat a melegedő bolygón? Ezeket a fontos kérdéseket megválaszolandó, az Arizona Egyetem kutatói lélegzésre, remegésre és izzadásra képes humanoid robotot fejlesztettek. A gép neve ANDI (Advanced Newton Dynamic Instrument), és úgy néz ki, mint egy egyszerű törésteszt-bábu.

A napsütötte szövetségi állam fővárosában, Phoenixben múlt pénteken, egymás után a huszonkettedik napon 43 fokot mértek. Ekkora hőség az embernek halálos veszély, ANDI számára viszont nem az, csak egy sima kinti séta.

andy0.jpg

Fejlesztői vele akarják mérni, hogyan reagálunk az extrém melegre. Szénszálakkal megerősített epoxigyantából készült bőre, burkolata komoly technológiai arzenált, a testen keresztül szétszórt hőt felbecsülő szenzorhálózatot rejt. Van belső hűtőrendszere, 35 hőzónából áll, a légzést és az izzadást biztosító pórusokkal is rendelkezik.

Eddig csak tucatnyi hasonló „baba” létezett, külső környezetben viszont egyik sem tevékenykedett. Sportszergyártók termikus kamrákban teszteltek rajtuk termékeket.

andy.jpg

A kutatók a túlmelegedés (hipertermia) jobb megértését remélik tőle. A környező épületek által visszavert hőt mérő mobil meteorológiai állomás közelében, Phoenixben fog tevékenykedni, hogy lássuk, miként készüljünk fel a holnap éghajlatára.

Többfajta hőszabályozó mechanizmust szimulálhat különféle személyekkel: fiatalokkal, idősekkel, sportolókkal és másokkal, mert életkor és egyedi tulajdonságok alapján eltérő a hőségre adott reakciónk. A szituációk is változhatnak: száraz meleg után jöhet a magas páratartalmú, nedves forróság, aztán egy kis szél, és így tovább.

Segíthet a nagy melegnek jobban ellenálló ruhák tervezésében, a várostervezés újragondolásában, szociális munkások tevékenységét könnyítheti meg.

Ha Párizs jövője olyan lesz, mint a mai Phoenix, akkor sokat tanulhatunk az épülettervezésről” – nyilatkozta a fejlesztést vezető Konrad Rykaczewski.        

Mesterséges intelligencia által generált influenszerek

CGI-vel létrehozott virtuális influenszerek évek óta reklámoznak márkákat (egyik-másik százat is), a képeken és a videókon fényűző életmódot élnek, közösségimédia-oldalukon csomó követővel rendelkeznek. Elkerülhetetlen volt, hogy a mesterségesintelligencia-láz magába szippantsa a virágzó influenszer-kultúrát.

2023 elején az egyik influenszer elkészítette saját maga chatbot-változatát, és percenkénti egy dollár ellenében „virtuális barátnőként” kínálta bérlésre.

Az MI-alapú képgenerátorok, mint a Midjourney vagy a Stable Diffusion jóvoltából egyesek teljes hírfolyamokat gyártanak nemlétező internetes személyiségekhez. Twitter- és Instagram-hírcsatornák mutatják be ezeket az általában a hagyományos szépségideálnak megfelelő, vonzó fiatal nőket, akik így-úgy pózolva kápráztatják el soktízezer vagy még több rajongójukat. Az anyagok meggyőzőek, az illúzió tökéletes.

mi_influenszer.jpg

Milla Sofia például „tizenkilenc éves virtuális lány Helsinkiből”, rengeteg követővel az Instagramon, Twitteren és TikTokon. Szinte minden képen homokos tengerpartokon, pálmafák tövében pózol Bora-Borán, Santorinin és hasonló helyeken, jó minőségű fotókon. Posztjai csomó lájkot kapnak, többtízezren kommentálják őket.

Pedig Sofia nem titkolja, hogy nem létezik. „MI-kreáció vagyok” – olvasható instagramos életrajzában. Weboldalán részletesebben megismerhetjük a történetét: divatmodellként kezdte, most azon gondolkozik, hogy melyik márkának legyen a nagykövete, virtuális influenszere. Az Élet Egyetemén önadaptív tanulásból és adatvezérelt tudásból diplomázott – ismertetőszövegét a ChatGPT is generálhatta.

Közösségimédia-oldalakon egyszerű kereséssel sok MI kreálta influenszer található, hasonló nagyságú követőtáborral, hasonló tartalmú posztokkal.

„Kinek van szüksége felszedő szövegre, ha virtuális lány vagyok? Már úgyis a szívetekben és a telefonotokon élek” – írja egy Alexis Ivyedge nevű.

„Egyszerű MI-lány vagyok, aki virtuális életében bárki lehet” – írja egy másik.

Mások utazási hirdetőként funkcionálnak. „Jártál már levendula-szezonban Provence-ban? Három-négy hétig virágzanak, fantasztikus élmény” – írja egy újabb MI-influenszer. 

A magát MI-modellnek tartó Lu Xu arról tweetel rajongóinak, hogy hagyják valóra válni álmaikat.

Andrea MI generálta fényképeinek eltulajdonításával vádolt meg egy twitteres kollégát. Egyikük sem létező személy.

Vajon minden felhasználó tudja, hogy ezek az interaktív partnerek nem léteznek? Ha igen, elkönyvelik, hogy a virtuális influenszer a játék része, vagy egyáltalán nem érdekli őket, hogy beszélgetőtársa, álmainak tárgya valódi vagy sem?

Az MI-influenszer világ sokkal komplexebb a deepfake pornónál. Ha képesek vagyunk humán influenszereket akár a sírig követni, miért nem követünk inkább egy MI-t?

Rengeteg húsvér influenszer működik online, sok a nyilvánosan hozzáférhető adat, a mesterségesintelligencia-változatokhoz könnyű forrást és modellt találni. Előfordult már, hogy valódi influenszer testére, videójába szerkesztették az MI-változat fejét, és a trükköt természetesen nem közölték senkivel.

A valódiak többsége előbb-utóbb valamelyik márkához szerződik, és keres komoly összegeket. Virtuálisak esetében ez még egyáltalán nem egyértelmű, kérdés persze, hogy meddig.

Chatbotok ketrecharca

Egy új online eszköz, a Chatbot Arena egymás elleni versenyek alapján rangsorol chatbotokat. Lehetővé teszi a felhasználó számára, hogy szimultán adjon utasítást, promptot két nagy nyelvmodellnek (large language model, LLM), és azonosítsa azt, amelyik jobb választ adott. Az eredmény egy ranglista, nyílt forrású és szabadalmaztatott modellek egyaránt szerepelnek rajta.

Amikor megadjuk a promptot, két különböző modell például „egymás mellett” generálja a választ. Kiválaszthatjuk a győztest, döntetlent hirdethetünk, megállapíthatjuk, hogy mindkét válasz rossz, vagy újabb utasítást adva, folytathatjuk az MI-k értékelését.

chatbot_ketrecharc.jpg

A Chatbot Arena két használati módot kínál: csatát és egymás melletti megmérettetést. A csata-módban nyílt forrású és szabadalmaztatott modellek is játszanak, viszont csak a győztes kihirdetése után tudjuk meg, hogy melyikek játszottak. Egymás melletti megmérettetésnél a felhasználó tizenhat nyílt forrású modellt tartalmazó listáról választhat.

A rendszer összesíti az eredményeket, és az Elo nevű ismert mérés alapján rangsorolja a modelleket. A versenyzőket egymáshoz viszonyítva értékeli.

chatbot_ketrecharc0.jpg

Nincs maximális vagy minimális pontszám. Az ellenfélnél száz ponttal többet szerző modell várhatóan a meccsek 64 százalékát, a kétszázzal többet begyűjtő pedig a 76 százalékukat nyeri meg.

Július 21-én este kilenckor az OpenAI GPT-4-e vezette a listát. Második és harmadik helyen az Anthropic Claude-jának két verziója (v1, instant v1) állt, míg a GPT-3.5-turbo volt a negyedik.

A legjobban teljesítő nyílt forrású modell, a Vicuna-338, az LMSYS Org fejlesztése az ötödik, a hatodik helyen pedig egy másik Vicuna-változat állt. Utóbbiak ChatGPT-beszélgetéseken finomhangolt LLaMA modellek.

Csomó törvényt kell átírni világszerte a mesterséges intelligencia miatt

Temérdek törvényt át kell írni ahhoz, hogy a gyorsan fejlődő mesterséges intelligencia előnyeit kihasználjuk, potenciális kárait pedig csökkentsük. Gondoljunk bele, például az érvényben lévő szerzőijog-törvények és a generatív MI kapcsolata mennyire kaotikus.

Gyakoroltathatja-e modelljeit egy generatív MI-t fejlesztő cég a nyílt internetről összeszedett adatokon? És ha azokon gyakoroltattuk, megakadályozhatunk-e más cégeket outputjaink használatában? Mi van, ha az MI-nk létező műalkotásokhoz hasonló képeket készít, mikortól jogsértés a hasonlóság? Kié a jogi felelősség, ha egy felhasználó MI-appal dolgozik, és az app valamelyik jogvédett gyakorló képpel áll elő a promptunkra? Automatikusan generált anyagokra vonatkozik-e a szerzői jogvédelem, és ha igen, kit illet meg? És ha két felhasználónak ugyanazt az outputot „dobja ki” az MI, vajon az elsőt illeti meg a jogvédelem, és a második a jogsértő?

kihivasok.jpg    

Súlyos kérdések, és fogalmunk sincs a válaszokról. Sok vállalat egyszerűen nem tudja, milyen cikkely hátráltatja éppen az innovációt. Ezeket a félreértéseket, többértelműségeket sürgősen tisztázni kell, máskülönben a cégek nem mernek kockáztatni, azaz újítani.

Nő a generatív MI-vel kapcsolatos jogi esetek száma, a kimenetekről pedig elképzelésünk sincs, mert a törvényeket teljesen más környezetre dolgozták ki. A különösen a nagyvállalatokat érintő bizonytalanság lassíthatja a terület fejlődését. Ők jóval többet veszíthetnek a startupoknál, amelyek inkább vállalják a kockázatokat, mert kevésbé érdekli őket most egy, öt év múlva sorra kerülő bírósági tárgyalás.

A szabályozók elsősorban az MI lehetséges káraira összpontosítanak, ami fontos téma, de például a szerzői jog összehasonlíthatatlanul aktuálisabb, és ha az „apokalipszis-veszély” helyett azt rendeznék előbb, sokkal többen járnának jól vele, húznának konkrét hasznot belőle.

A gépi tanulás egyik legismertebb szakértője, Andrew Ng szerint jobb, ha az emberiség megengedő az információ-megosztással. A szabad hozzáféréssel jobban megismerjük a világot, az MI-t, ami a társadalom hasznára válik.

Egyes vállalatok megtiltják, hogy outputjaikkal más modelleket gyakoroltassanak. Ng szerint nem korrekt és versenyellenes, ha mások adatain trenírozunk egy MI-t, az általa generált adatokat viszont már senki nem használhatja, csak mi. Eleve a „korrekt használat” kifejezést is pontosítani kellene, ráadásul most már nemcsak emberekről van szó, hanem gépekről is. A kérdés annyira bonyolult, hogy talán esetről esetre kellene vizsgálni.

Ameddig nem sikerül félreérthetetlen definíciót megfogalmazni, a legbiztosabbra kell menni: amíg egyes bevett és meghatározott módszereket használunk tartalomgenerálásra, nem követünk el jogfosztást.

Remélhetőleg a szabályozók ezekkel a kérdésekkel is legalább annyit és olyan mélységben foglalkoznak majd, mint a lehetséges károk megakadályozásával.       

Kórházi chatbotot tesztel a Google

A Google április óta kórházakban teszteli Med-PaLM 2 chatbotját, a májusban bemutatott hatékony PaLM 2 nagy nyelvmodell (large language model, LLM) egészségügy-specifikus változatát. A PaLM 2 működteti a ChatGPT vetélytársának tartott másik Google mesterségesintelligencia-modellt, a Bard chatbotot is.

Az orvosi anyagokon, például vizsgák szövegein gyakoroltatott Med-PaLM 2-t tanácsadásra, egészségügyi adatok áttekintésére, szerkesztésére és dokumentumok összefoglalására találták ki.

google_medicalai.jpg

Nem meglepő módon, a Microsoft is bejelentett néhány hónapja egy hasonló, medicina-irányultságú chatbotot, a BioGPT-t. Márciusban még bőven követett el hibákat, infókat talált ki, tévesen idézett, viszont az még csak a kezdet volt, az azóta eltelt hónapokban nyilván sokat fejlődött.

A Med-PaLM 2-vel tesztszerűen dolgozó orvosok szerint a chatbot válaszaiban több a pontatlanság és az irreleváns tartalom, mint a humán kollégákéban. Májusi felmérésből viszont kiderült, hogy több kategóriában legalább ugyanúgy vagy jobban teljesít, mint a húsvér orvosok. Az ismeretek felelevenítésében, olvasásértésben remekül vizsgázott, ugyanakkor súlyos hibákat is vétett.

Még többször kell tesztelni, és be kell bizonyítani, hogy nagy mennyiségben is képes hasznos tanácsokat adni. Érthető okokból sokkal szigorúbbak az elvárások, mint más modellekkel szemben: ha például egy, a Bardot használó egyetemista nem ellenőrzi az MI által szolgáltatott infókat, és rossz jegyet kap, attól még nem dől össze a világ. Ha viszont egy orvosi modell ad rossz tanácsokat, a következmények súlyosak lehetnek.

A Google elképzelése alapján fejlődő országok lehetnének az egészségügyi chatbot elsőszámú haszonélvezői. Ezekben az országokban korlátozottabb az egészségügyi szolgáltatások elérhetősége, és egy mesterséges intelligencia rengeteget segíthetne.

A Google kutatói viszont elismerik, hogy még sok a munkájuk, és egyelőre nem tudni, mikor lesz a chatbotból közhasználatú termék.              

Hogyan tanul a kvantumszámítógép?

Hogyan taníthatók kvantumszámítógépek kvantumrendszerek megértésére, viselkedésük előrejelzésére? Milyen módon érik el ezt akár néhány példával?

A svájci EPFL (École Polytechnique Fédérale de Lausanne), a Kaliforniai Technológiai Intézet, a Berlini Szabadegyetem és a Los Alamosi Nemzeti Laboratórium kutatói ezekre a kérdésekre keresték a választ egy közös projektben. Úgy tűnik, közelebb kerültek a megoldáshoz.

kvantum_13.jpg

Kvantum neurális hálókon (QNN), a kvantummechanika elvei által inspirált gépitanulás-modellel dolgoztak, azok utánozták kvantumrendszerek viselkedését. A hálók ugyanúgy számításokat végző, összekapcsolt neuronokból állnak, mint a mesterségesintelligencia-fejlesztésben használtak, viszont a kvantumvilágok törvényei alapján kezelik a kvantuminformációt.

Komputerek tanításához általában sok példa kell. A kutatók ezúttal azonban néhány egyszerű, szorzatállapotok nevű példával dolgoztak, a számítógép belőlük tanulta meg, hogyan kezelje még összefonódott qubitek esetében is kvantumrendszerek viselkedését.

A szorzatállapotok kvantumrendszerek speciális állapottípusát írják le. Ha a rendszer például két elektronból áll, szorzatállapota akkor jön létre, ha az elektronok állapotát egymástól függetlenül megvizsgáljuk, majd összeadjuk. Kvantumszámításoknál és méréseknél gyakran azért ezek a kiindulási pontok, mert egyszerűbb, kezelhetőbb keretet biztosítanak rendszerek viselkedésének tanulmányozásához, megértéséhez, mielőtt bonyolultabb összefonódott állapotba kerülnek. Utóbbi állapotokban a részecskék korrelálnak egymással, ezért nem írhatók le egymástól függetlenül.

A kutatók bemutatták, hogy QNN-ek néhány egyszerű példával történő gyakoroltatásával, számítógépek eredményesen képesek megragadni összefonódott kvantumrendszerek dinamikáját. Ez a következő években várható kisebb komputerekkel is megy, nem kell várni komplexebb nagy szerkezetekre, amelyektől évtizedekre lehetünk. A módszerrel fontos problémák, például molekulák viselkedésének szimulálása, összetett új anyagok vizsgálata oldhatók meg.

Rövidebb és a hibákat jobban tűrő, tehát kvantumszámítógépek teljesítményét javító programok írásához, a programozás áramvonalasításához szintén használható.

süti beállítások módosítása