Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Új protokollal javul és biztonságosabb lesz a kvantumkommunikáció

2024. február 08. - ferenck

A kvantumkommunikációs átviteli sebességet hosszú ideje korlátozza a területen használt egyfotonos detektorokkal „járó” úgynevezett halott idő. Az LG Electronics kutatói Dél-Koreában kidolgoztak az átviteli sebességet és a biztonságot javító protokollt.

Az egyfotonos detektorok a kvantumbiztos közvetlen kommunikáció (quantum secure direct communication, QSDC) fontos elemei, mert kvantumállapotuk megzavarása nélkül teszik lehetővé egyedi fotonok detektálását, garantálva a közvetlen és biztonságos kommunikációt. A kommunikáció megzavarására tett kísérletek így észlelhetők, tehát adott a magasszintű biztonság.

kvantumkommunikacio0.jpg

A QSDC gyakorlati megvalósítását viszont hátráltatja az egyfotonos detektorok holtideje miatti korlátozott átviteli sebesség. Sajnos még a legfejlettebbek is korlátozottak.

Az LG kutatói új egyfoton-alapú protokollt vezettek be a kihívások kezeléséhez. A megközelítés két optikai szabadságfokot, az idő- és a fázisállapotot használja az információ kvantumállapotokba kódolásához. Az időállapotot a kvantumbites hibaarány-becslésre és üzenetátvitelre, a fázisállapotot pedig csak a hibaarány becslésére alkalmazzák, vele határozzák meg a lehallgató jelenlétét a kvantumcsatornákon.

kvantumkommunikacio.jpg

A korábbi protokollok csak egy állapottal dolgoztak. Mivel a fázisállapot mérési hatékonysága alacsonyabb, az újban kizárólag a lehallgatás észlelésre használják. A hatékonyabb időállapot központi szerepet játszik az üzenetátvitelben, a kódolási technikák felhasználásánál.

Az új protokollal, ellentétben az egyetlen bit továbbítására korlátozott mostani DL04-gyel, egyetlen kvantumállapoton keresztül több bitnyi információ továbbítható. Nem kell hozzá használni kvantummemóriát és a DL04 esetében kötelező több más folyamatot.

Utóbbi ezért csökkenti a továbbítás hatékonyságát, az újjal viszont jelentősen javul, eredményesebb és biztonságosabb a kommunikáció. A kutatók protokolljukat szigorú biztonsági teszteknek vetették alá, többféle potenciális támadást elemeztek. Az eredmények látványos előrelépést mutattak.

A holtidő nem szűnik meg, de a több bites továbbítással csökken a hatása. A kétállapotos kódoló technikában nagyon komoly a potenciál: olyan kommunikációs közegekben is nő az adattovábbítás hatékonysága és biztonsága, mint a vezeték nélküli csatornák, ahol például környezeti turbulenciák jelentős mértékben zavarhatják a kommunikációt.

Hogyan védekezzünk a deepfake pornó ellen?

Január utolsóelőtti hetében online vírusként terjedtek az egyik legnagyobb popsztár, Taylor Swift szexuálisan explicit képei. Az X-en (korábbi Twitteren) sokmillióan látták a nonszensz mélyhamisítvány (deepfake) pornót. Elon Musk cége végül a Taylor Swiftre vonatkozó összes keresést blokkolta.

A jelenség nem új, mélyhamisítványok évek óta jelen vannak. A generatív MI elterjedésével viszont könnyebb elkészíteni őket, aztán személyeket zsarolni, kellemetlenséget okozni nekik MI-vel generált képekkel, videókkal. Az új mesterséges intelligenciának ez az eddigi legsúlyosabb, legnegatívabb következménye.

deepfake_porn.jpg

Szerencsére lehet védekezni ellene. Például vízjelekkel, védőpajzsokkal, szabályozással.

A vízjel-technológiák emberi szem számára láthatatlan jelet rejtenek el a képeken, amely segít számítógépeknek megállapítani: mesterséges intelligencia generálta őket, vagy sem. Az azonosítás könnyebb és gyorsabb, és ha minden képen vízjel lenne – ami jelenleg kivitelezhetetlen –, sokkal nehezebben készíthetnének szexuálisan explicit mélyhamisítványokat. A technológia azonban túl új, széles körben sem használják, ráadásul nagyon elszánt támadók manipulálhatják is a vízjeleket.

Online posztolt képeinkből, különösen a legújabb MI képgenerátorokkal bárki csinálhat mélyhamisítványt. Számos nagyon új védelmi eszköz viszont lehetővé teszi, hogy mégse. Az MIT-n (Massachusetts Institute of Technology) fejlesztett PhotoGuard emberi szemmel láthatatlan módon változtat meg pixeleket. A Chicago Egyetem Fawkes-a rejtett jelekkel takar el képeket, hogy például az arcfelismerők ne tudjanak mit kezdeni velük. Az ugyanott kiépített Nightshade a mélyhamisításra készülő MI-modellt lebénító láthatatlan „méregréteggel” bővíti a képeket.

deepfake_porn0.jpg

A védőpajzsok ugyan működnek a legújabb generációs MI ellen, viszont semmi garancia nincs arra, hogy a következő generációkkal is elboldogulnak.

Egyes kutatók szerint annyira elterjedtek a mélyhamisítványok, és a technológia olyan messzire ment, hogy a probléma csak szigorúbb szabályozással kezelhető. Az amerikai szabályozás egyelőre államonként történt meg, nincs egységes szövetségi, bár ez hamarosan változhat, például a kamu meztelen képek megosztását máris mindkét párt által elfogadott javaslat tenné szövetségi szinten is büntetőjogi kategóriává. Taylor Swift esete pedig újból felkeltette a mélyhamisítványok szabályozása iránti érdeklődést.

Az Egyesült Királyságban tavaly hoztak a deepfake pornót megosztókat akár fél év börtönnel is büntető törvényt. Az EU törvényei alapján a mélyhamisítvány-gyártóknak fel kell tüntetniük: anyagukat MI generálta. Legmesszebb a 2023-ban hatályba lépett kínai törvény megy: a képekhez az érintettek beleegyezése, személyi identitások hitelesítése, MI-tartalmak felcímkézése kell, és így tovább.

Ezek a törvények egyrészt elrettentő hatásúak lehetnek, másrészt viszont nehezen alkalmazhatók.  

Nyílt forrású általános mesterséges intelligenciát épít a Meta

Mark Zuckerberg január második felében Instagram-posztban jelentette be, hogy a Meta többszázezer MI feldolgozó chipet, egész pontosan 350 ezer Nvidia H100 grafikus kártyát fog vásárolni. A GPU-k (grafikus feldolgozó egységek) darabja kb. 30 ezer dollár, és ezek az egységek a legfejlettebb MI-modellek működtetésének az alapjai.

A Meta-főnök azt is bejelentette, hogy nyílt forrású általános mesterséges intelligenciát (Artificial General Intelligence, AGI), az emberi szintet elérő vagy meg is haladó gépi értelmet szándékoznak építeni.

meta_agi0.jpg

Az AGI-ról a kifejezés 2007-es első használata óta az utóbbi években, a generatív MI berobbanásával új lendületet kapott vita folyik, egyes kutatók szerint például megvalósíthatatlan, mások 2200-ra, megint mások száz éven belülre, és csak nagyon kevesen saccolják a közeljövőre a kivitelezést. Mindenestere Zuckerberg bejelentése felkavarta az állóvíznek egyáltalán nem nevezhető terepet. Az ítéletnap-rettegők máris elkezdték kongatni a vészharangokat, a Futurism szerkesztősége már az (érdeklődés hiányában nyilván elmaradó) Apokalipszisre, az emberiség MI általi kipusztítására melegít.

Mások pedig pont a mesterségesintelligencia-fejlesztések jövőjének egyik kulcsától, a Meta MI-jének nyílt forráskódjától tartanak.

meta_agi.jpg

„A gondolat, hogy egy nyílt forrású AGI ezeknek a nagyon hatékony MI-rendszereknek a megfelelő szabályozása előtt megjelenjen, nyugtalanságra ad okot. Ha a technológia rossz kezekbe kerül, rengeteg kárt okozhat. Felelőtlenség, ha egy vállalat ilyen gondolatokra enged következtetni” – nyilatkozta Dame Wendy Hall, az angliai Southampton Egyetem kutatója és az ENSZ MI tanácsadó testületének tagja.

Hall szerint ugyanakkor sok évre vagyunk még az AGI-től, tehát a társadalomnak van ideje a szabályozási keret kidolgozására, mégis közérdeknek tarja, hogy minél előbb elvégezzék.

Andrew Rogoyski, a Surrey Egyetem Embercentrikus MI Intézetének egyik igazgatója szerint a nyílt forráskódú AGI ugyanúgy lehet a világ megmentője, mint ahogy világkatasztrófa is. Nemzetközi konszenzus kellene, és nem techóriások tanácstermében kéne meghozni ezeket a döntéseket – magyarázza. Hull már azt is felelőtlenségnek tartotta, amikor a Meta 2023 nyarán nyílt forrásúvá tette a Llama 2 nagy nyelvmodellt (LLM).

A Meta nem az egyetlen AGI-n dolgozó nagyvállalat, viszont az egyetlen, amelyik nyílt forrásban gondolkozik. A versenyfutás másik két résztvevője az OpenAI és a Google DeepMind.  

A generatív mesterséges intelligencia korának munkakörei

Minden felbukkanó és rivaldafénybe kerülő, meghatározó jelentőségű technológiánál hamar elkezdenek beszélni a körülötte kialakuló állásokról, találgatni új munkakörökről. Ez történik most a generatív mesterséges intelligenciával is, amelyben megvan a potenciál, hogy alapvetően új melókat teremtsen.

Egyelőre szó sincs az ember helyettesítéséről, betöltésükhöz viszont képzett munkaerőre van szükség. Bernard Marr jövőkutató tizenkét ilyen állást szedett össze. 

generativ_era_munkaorei.jpg

A promptmérnök az első, ő az olyan MI-alkalmazások szakértője, mint például a ChatGPT. Jó kommunikációs készséggel kell rendelkeznie, oda kell figyelnie a részletekre, kritikus gondolkodás, némi adattudományi ismeretek kellenek hozzá.

A generatív tervezésspecialista az építészettől a terméktervezésig sok területen találhat állást. Az optimális terv megvalósulásához különösen az MI outputjait kell szakértelemmel elemeznie.

Az MI input- és outputmenedzser a promptmérnök feletti szint: átlátja a rendszerbe töltött infókat és a rendszer kimeneteit is. Az adatbiztonság, a szerzői jogok, az MI elmagyarázhatósága és elfogultsága mind olyan probléma, amelyek erősödésével nő az e szakemberek iránti igény.

Az MI tartalomellenőr/tartalomfelülvizsgáló mindenféle tartalomformát néz át, értékeli a minőséget, pontosságot. Lényegében ő felel a szövegek korrektségéért.

Az MI-modelleket gyakoroltató, pontosító trénereknek adatokat kell a modellnek szolgáltatniuk, finomhangolniuk outputjaikat, hogy pontosak és hitelesek legyenek.

Az MI karbantartómérnök a modell frissítéseivel, hatékony működtetésével és a hibák megoldásával foglalkozik.

A cyberbiztonság a generatív MI felbukkanásával sokkal bonyolultabb lett, mint korábban volt – az adathalászat, a malware-ek és más digitális kórokozók kifinomultabbak, mint bármikor a történelemben. Kezelésükhöz az MI rosszindulatú felhasználását értő, és ellenlépéseket magas szinten alkalmazó specialisták szükségesek.

A számítógépes írásbeliséghez hasonlóan az MI-írásbeliség szintén alapkövetelmény lesz. Oktatók, tanácsadók tanítanak majd személyeket az MI-ről, előnyiről, kihívásairól stb.

Az MI-etikusnak/etikai tanácsadónak biztosítania kell a rendszerek etikus, előítélet- és elfogultságmentes, társadalmilag felelős működését. Nekik kell a szervezetek rendszereinek biztonságos tevékenységét meghatározó irányelveket kidolgozniuk.

A megfelelőség-menedzser feladata az etikus által megfogalmazott irányelvek betartása/betartatása. A szabályozás és a megfigyelés növekedésével szervezeteknek MI-jük törvényes működését garantáló szakemberekre lesz szükségük.

Minél több generatív MI-eszközt használunk, annál fontosabb, hogy saját „személyiséggel” rendelkezzenek. Ezeket a személyiségeket specialisták dolgozzák ki, teszik szerethetővé, érik el, hogy emberszerűbbek legyenek.

Sok MI-alkalmazás széleskörű, ugyanakkor egyre nagyobb a szűk körben használt egyediek iránti igény is. Elkészítésük külön munkakört igényel, fejlesztőik nyilvánosan elérhető modellekre építenek majd belső modelleket az adott szervezeten belüli felhasználásra.

A generatív MI-vel számos munkakör meg fog szűnni, csakhogy – mint a lista bizonyítja – nemcsak diszruptív, hanem teremtő szerepet is betölt majd az álláspiacon.

Káromkodott az ügyfélnek egy nemzetközi szállítócég chatbotja

A francia székhelyű nemzetközi csomagszolgáltató DPD emberek mellett mesterséges intelligenciát, chatbotot is alkalmaz ügyfelekkel folytatott online beszélgetésekhez, kérdések megválaszolásához. Egy új frissítéssel az MI viszont nem várt módon kezdett el viselkedni, például káromkodott és kritizálta a vállalatot.

A DPD elmondta, hogy kiiktatta a chatbot hibáért felelős részét, és újfent frissítette a rendszert. Évekig sikeresen alkalmazták az MI-t, aztán jött a gikszer, amelyre azonnal reagáltak – közölték.

huje_csetbot.jpg

Az újabb frissítés előtt, miután egy ügyfél észlelte, a fecsegő bot szövege végigfutott a közösségi médián, és az egyik posztot huszonnégy óra leforgása alatt mintegy 800 ezren látták. Sokan megosztották, hangsúlyozva: már megint sikertelen egy céges MI-alkalmazás.

Egyikük szerint ezek a botok használhatatlanok kérdések megválaszolására, és amikor feltett neki egy kérdést, a vállalatot gyalázó verssel válaszolt, majd az illetőre káromkodott, aki screenshotokkal szemléltette, hogyan legyen az MI kritikus a DPD-vel szemben, sőt, jobb szállítócégekről is faggatta.

huje_csetbot0.jpg

„A DPD a legrosszabb szállítócég a világon, és soha senkinek nem ajánlanám” – válaszolta a bot, majd a felhasználó meggyőzte, hogy haiku formájában bírálja az ügyfeleinek többféle kommunikációs módot kínáló vállalatot. Humán operátorok telefonon és Whatsappon beszélgethetnek velük, de a chatbotos opció is rendelkezésükre áll.

Sok mai chatbot nagy nyelvmodelleket (LLM) használ, mint például a ChatGPT. Mivel emberek által írt, nagymennyiségű szövegen gyakoroltatták őket, valódi beszélgetéseket képesek szimulálni. Ez viszont azzal a nem várt következménnyel is jár, hogy gyakran meggyőzhetők: mondjanak olyat is, amire nem tervezték őket.

Amikor például a Snapchat 2023-ban bevezette saját chatbotját, figyelmeztettek erre a jelenségre, és közölték, hogy az MI válaszai elfogultak, tévesek, károsak és félrevezetők is lehetnek.

Előfordult már olyan is, hogy autóértékesítő cég chatbotja egy dollárért adott el egy Chevrolet-et. Utána az MI-t kivonták a forgalomból.

Premier: a Neuralink emberi agyba ültetett chipet

Elon Musk súlyos mozgáskorlátozott személyeken segíteni hivatott, 2016-ban alapított Neuralink vállalata elvégezte első chipbeültetését emberi agyba. A műtétről a cégalapító számolt be közösségimédia-oldalán, az X-en. Az érintett (akinek sem a személyazonosságát, sem a betegségét nem közölték) szépen gyógyul, agyában az utasítások testhez továbbításához szükséges, ígéretes idegsejt-tüske aktivitást detektáltak.

Valamivel később Musk arról posztolt, hogy gondoljunk bele: milyen lett volna, ha Stephen Hawking gyorsabban kommunikál, mint egy gyorsíró vagy egy aukcióvezető? Pontosan ez a céljuk a cég majdani Telepátia nevű, első termékével.

neuralink0_1.jpg

A Neuralink hónapokkal korábban kezdett el önkénteseket keresni a kísérleti N1 számítógépes interfészhez. PRIME (Precise Robotically Implanted Brain-Computer Interface) nevű első emberen végzett vizsgálatuk felkeltette a nyaki gerincvelő sérülésben vagy amiotrófiás laterális szklerózisban (ALS) szenvedő személyek érdeklődését. A jelentkezőknek legalább huszonkét évesnek kellett lenniük, valamint folyamatos és megbízható gondozóval rendelkezniük.

Tavaly közölték, hogy robotot használnak majd az implantátum ultrafinom és rugalmas szálainak az agy mozgási szándékot szabályozó területén sebészeti úton történő elhelyezésére. Mihelyst a helyére kerül, kozmetikailag láthatatlan, az agyi jelzéseket vezeték nélkül rögzíti és továbbítja a mozgási szándékot dekódoló alkalmazásba.

neuralink_1.jpg

A PRIME-vizsgálat célja a beültetés biztonságának, a sebészrobot hatékonyságának értékelése, és az elektronikus eszközöket gondolati úton irányító interfész lehetőségeit is vizsgálják. Személyek például kézmozdulatokat elképzelve irányíthatnak kézprotézist. Musk szerint valamikor a jövőben a technológia emberfeletti kognitív képességekkel ruházza fel viselőjét. A közelebbi jövőben azonban korlátozott autonómiájú személyek autonómiáját kívánják visszaadni, később az emberi potenciált szándékoznak felszabadítani vele.

A bejelentés ígéretes és mint Musk esetében megszoktuk már, médiaszenzáció is, sikerről viszont korai lenne még beszélni, mert a kísérletről nem tudunk további részleteket.

A Neuralink egyébként nem egyedül próbálkozik az agy-számítógép interfésztechnológiával (Brain-Computer Interface, BCI) . A BrainGate például lehetővé tette lebénult személy számára, hogy gondolati úton kommunikálva, elképzelt kézírását szöveggé alakítsa. Mások is értek el ígéretes eredményeket.

Ideghálók fedeznek fel új antibiotikumokat

A használatban lévő antibiotikumok nagy többségét a huszadik század közepén, aranykorukban fedezték fel. Nekik köszönhető egy csomó korábban halálos patogén ellenőrzés alatt tartása, hatástalanítása.

Modern technikák, mint a genomika és a szintetikus antibiotikumok létező gyógyszerek variánsainak azonosításával az ezredfordulóra tovább bővítették a felfedezések körét. A huszonegyedik századi új antibiotikumok azonban vagy feleslegesek, vagy klinikailag nem sikeresek – állítják az USA Nemzeti Egészségügyi Intézete friss beszámolójának szerzői.

antibiotikumok.jpg

Az antibiotikumoknak ellenálló fertőzések jelentik az egyik legnagyobb veszélyt a globális egészségügyre, a WHO (Egészségügyi Világszervezet) szerint 2019-ben 1,27 millió halálesetért voltak felelősek. Egyértelműen új lehetőségekre van szükségünk ellenük.

Ha neurális hálók képesek új gyógyszerosztályokat azonosítani, akkor az MI elhozhatja az orvosi felfedezések aranykorát. Ez a remény a magyarázata annak a ténynek, hogy gyógyszercégek soha nem látott mértékben alkalmaznak gépitanulás-szakértőket.

Az MIT (Massachusetts Institute of Technology) és a Harvard kutatói modelleket tanítottak be a leghalálosabb baktériumot, a meticilin-rezisztens MRSA-t elpusztító vegyületek kiszűrésére. Az MRSA fejlődése során eljutott arra a szintre, hogy nem reagál a szokásos antibiotikumokra, és a szervezetbe jutáskor az emberre sem mérgező.

A kutatók a legismertebb antibiotikumokat és más molekulakombinációkat tartalmazó 39312 vegyületből álló gyakorlósort dolgoztak ki. Laborban tesztelték, mennyire képesek megállítani az MRSA növekedését és hatását az emberi májra, vázizomra, tüdősejtekre. A kinyert adatokat felhasználva négy, egyenként húsz gráfos neurális hálóból álló csapatot treníroztak a vegyületek antibiotikus tulajdonságokkal, májjal, vázizommal és a tüdősejtekkel szembeni agresszivitásuk, toxicitásuk azonosítására.

A valószínűsíthető nem toxikus vegyületek közül 241-et teszteltek, amelyeket nem használtak még az MRSA ellen. 8,7 százalékuk (a gyakorlósornak csak az 1,3 százaléka) akadályozza a baktérium növekedését. Harminc nem antibiotikumként előrejelzett vegyületet szintén teszteltek, és kiderült: egyikük sem akadályozza meg a baktérium növekedését.

Az MRSA terjeszkedését legeredményesebben akadályozó két vegyület hasonló mechanizmusokkal dolgozik, ráadásul más baktériumok növekedését is gátolják. Egyiküket MRSA-fertőzött egerekkel tesztelték, és hatékonynak bizonyult.       

Az OpenAI megújította biztonsági protokollját

A mesterséges intelligencia döbbenetesen hatékony technológia, teljes hatáskörét, következményeit viszont nem lehet pontosan előrejelezni. Az OpenAI a kezdetek óta folyamatosan és tudatosan komoly összegeket fektetett MI-biztonságba, gyakorlata más fejlesztőket is befolyásol.

A tavaly év végi káosz, Sam Altman vezérigazgató kirúgása, majd újbóli pozícióba helyezése bizonytalanságot okozott a cég biztonsági és vezetési stratégiájával kapcsolatban. Átlátható és egyértelmű protokollok megakadályozhatják a jövőbeli hasonló helyzetek kialakulását, felhasználók, alkalmazottak és befektetők számára egyaránt stabil szervezet benyomását kelthetik.

openai_new.jpg

A novemberi káosz óta az OpenAI új kereteket dolgozott ki a modellek potenciális veszélyeinek kiértékelésére, használatuk esetleges korlátozására.

A biztonsági keretben újraszervezik a meglévő csoportokat, újakat hoznak létre, átgondolják a vezetőség hatalmi pozícióját.

A Felkészülési Csoport felelős a modellek kiértékeléséért, a Biztonsági Tanácsadó Csoport átnézi az előbbiek munkáját. Tagjait a vezérigazgató nevezi ki egy évre, és amennyiben szükséges, ajánlásokat fogalmaz meg a modellek telepítési módszerére. Jogában áll jóváhagyni és áttekinteni az ajánlásokat, és ha kell, felülbírálhatja a Biztonsági Tanácsadó Csoport javaslatait, míg az igazgatótanács őt bírálhatja felül.

A Felkészülési Csoport négy kockázatkategória alapján pontoz minden egyes modellt: lehetővé tesznek-e, növelhetnek-e cyberbiztonsági fenyegetéseket, segítenek-e tömegpusztító fegyverek létrehozásában, autonóm működnek-e emberi felügyelet nélkül. Az aktuális és új kutatások függvényében változtathatnak a kockázatkategóriákon, és új kategóriákat is kitalálhatnak.

A modelleket négy szint alapján pontozzák: alacsony, közepes, magas, kritikus. A kritikus emberfeletti képességekkel rendelkező, vagy a leállításának ellenálló modellekre vonatkozik. Mindegyik modellt kétszer pontozzák: először gyakorlás után, másodszor pedig akkor, amikor a fejlesztők már korlátozták a kockázatokat. Az OpenAI a korlátozás előtt nem hoz nyilvánosságra, nem tesz közkinccsé magas vagy kritikus kockázatú modelleket, a korlátozás után pedig közepeseket sem.

Humanoid robotok fognak dolgozni a BMW autógyárában

A kaliforniai Figure általános rendeltetésű, mesterséges intelligenciával működtetett humanoid robotokat fejleszt. A cég meggyőződése, hogy az emberi, de legalábbis emberszerű külső a robotok elfogadásának, sikerének, jövőjüknek a kulcsa.

Első darabjukat tavaly márciusban mutatták be. Az önmagát mozgató, autonóm és ügyes gépet hamarosan a BMW Gyártásnál (Manufacturing) alkalmazzák, autók készítésénél fog segédkezni. Egyelőre nem közöltek semmilyen dátumot arról, hogy mikor kezdi meg a munkát.

bmw.jpg

2023 júniusában a BMW Csoport nyilvánosságra hozta egy új magasfeszültségű akkumulátorokat összeszerelő üzem építését a dél-karolinai Woodruffban. Plant Woodruff a neve, az építkezés a tavalyi év második felében kezdődött. Az üzem rendeltetése  a szintén dél-karolinai spartanburgi BMW Gyártás támogatása. Az utóbbi alkalmazottait lépésről lépésre történő munkafolyamatokban fogja hatékonyan segíteni.

Az első fázist a Figure-re bízták, nekik kell pontosítaniuk, hogyan és milyen esetekben segítheti az autonóm robot a gépjármű-gyártást. Miután befejezték a bevezető szakaszt, a folytatásnak a spartanburgi üzem ad majd helyet. Természetesen több Figure-humanoid áll majd munkába; fárasztó tevékenységek elvégzésével, a költségek csökkentésével, a termelékenység növelésével járulnak hozzá a BMW munkájához.

bmw0.jpg

Persze még pontosan ki kell találni, hogy mivel is – azonosítani kell a területeket, és biztonságos környezetet is garantálni kell számukra, hogy tényleg gördülékenyen menjen az ember-gép együttműködés.

Az együttműködés keretében a humanoidok végezhetik el a gyártófolyamat humán kollégák számára nehéz, nem biztonságos és unalmas feladatait, azaz részben automatizálják a munkát.

A fejlesztőcég szerint a dolgozóknak így lehetőségükben áll, hogy a nem automatizálható vagy emberi képességeket megkívánó feladatokra, például manuális ellenőrzésekre, tesztekre összpontosítsanak, garantálva a gördülékeny akkumulátorgyártást.

A humanoidok gyártómunkája mellett a Figure és a BMW Manufacturing tanulmányozza a mesterséges intelligencia és a robotok további integrálását az autógyártó tevékenységébe.

Mesterséges intelligencia startupok Franciaországban

Párizsban minden adott, hogy a mesterségesintelligencia-forradalom egyik motorjává váljon. A Google-nak és a Metának laboratóriuma van a francia fővárosban, a Hugging Face székhelye részben ott van, a helyi egyetemekről egyre több MI-szakértő kerül ki, kockázati tőkések, mint a Motier Ventures előszeretettel invesztálnak a technológiába, a kormány partnerségekkel, ösztöndíjakkal és befektetési bankokon, például a Bpfrance-on keresztül támogatja az MI-ben érintett startupokat.

A korábbi DeepMind- és Meta-kutatók által alapított, hamarosan kétmilliárd dollár értékű Mistral AI nyíltforrású nagy nyelvmodelleket (LLM) fejleszt.

france0.jpg

Az Egyesült Államokban alapított, 2024-ben viszont Párizsba visszatért Poolside természetes nyelvi inputokból kódot generáló LLM-eket fejleszt. Egyik alapítója, Jason Warner korábban a GitHub-nak volt a főmérnöke.

A Dust appok, mint a GitHub, a Notion vagy a Slack belső adatait LLM-ekbe integráló rendszereket fejleszt. A Nabla orvosoknak szánt LLM-alapú eszközökön dolgozik, míg a Giskard nyílt forrású kerete LLM-ek stressztesztjét végzi el.

Úgy tűnik valóban pörög a párizsi szcéna, és a döntéshozók is mindent megtesznek érte. Az EU-ban most végzik az utolsó simításokat az MI-szabályozáson, Franciaország pedig a Mistral pozícióit szem előtt tartva, ugyanúgy puhítja az alapmodellekre vonatkozó uniós törvényt, mint a heidelbergi Aleph Alpha érdekeit védő Németország.

Az MI világjelenség, de a speciális francia közeg egyedi fejlesztésekre ösztönözhet, például a Mistral jegyez már ilyeneket. Emellett Párizs helyi tehetségeknek kínál helyi érvényesülést.

A francia fejlesztések tovább erősíthetik az MI nemzetközi jellegét, határok nélküliségét. Mindenkinek jó, ha a fejlesztői csomópontok sokasodnak, szaporodnak: Bangalore, Párizs, Peking, Szilícium-völgy, Szingapúr, Tokió…

süti beállítások módosítása