Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Dél-Korea felgyorsítja a világ legnagyobb félvezető csomópontjának építését

2025. január 08. - ferenck

A dél-koreai kormány előrébb hozta a világ legnagyobb félvezető csomópontja, a Yogan Nemzeti Félvezető Ipari Komplexum építésének kezdetét – most 2026 decembere a startdátum.

A tervezési folyamat részeként, a Földügyi, Infrastrukturális és Közlekedési Minisztérium a klasztert nemzeti komplexummá nevezte ki, felgyorsította a hatósági jóváhagyásokat, hogy megkönnyítse az építkezés az eddigi elképzeléseknél évekkel korábbi elkezdését. Az újragondolt ütemezés alapján a létesítmény 2030-ban lesz működőképes.

delkorea_3.jpg

7,28 millió négyzetméteres területen fog állni, a nagyobb ipari szereplőktől (Samsung, SK hynix stb.) 246.4 milliárd dollár befektetéssel számolnak. Hatvannál több anyagok, alkatrészek és felszerelések beszállító-specialista kis- és középvállalat szintén támogatja anyagilag a létesítményt.

A komplexum hat nagyméretű félvezető-gyártó telepnek, három erőműnek és a dolgozók szállását jelentő lakóépületeknek, kisebb városnak ad majd otthont. Mintegy tizenhatezer lakásról van szó, parkokkal és a munkaerő jólétét segítő egyéb létesítményekkel.

Az előrejelzések alapján 1,6 millió személy dolgozhat majd a komplexumban. A tervek először 2024 januárjában láttak napvilágot, amikor a Samsung és az SK hynix bejelentette, hogy 471 millió dollárnyi összeget terveznek beruházni egy új chip csomópont építésébe. Tizenhárom üzemben gondolkoztak, havi 7,7, éves szinten 92,4 millió szilíciumostya (wafer) gyártásával 2030-ban.

A mostani modellben hat lett a tizenháromból, és egyelőre nem tudni, hogy ez mennyire befolyásolja a gyártókapacitást. Elképzelhető, hogy nagyobb lesz a termelés, és a környezeti lábnyom is.

A projekt célja, hogy Dél-Koreát és vezető nagyvállalatait előnyös helyzetbe hozza egy egyre kompetitívebb területen, illetve kielégüljön a csúcstechnológiás chipek iránti növekvő igény.

A világgazdaság főszereplői, mint az Egyesült Államok, Kína, az Európai Unió, az Egyesült Királyság, Japán, Tajvan, a Közép-Kelet és India sokat invesztál félvezető iparába, és az ellátási láncot is igyekeznek biztonságosabbá, átláthatóbbá, lokálisabbá tenni. Dél-Koreának lépnie kellett, hogy megőrizze globális versenyképességét – magyarázza az illetékes minisztérium.

Tajvan felpörgeti a dróngyártást

A légvédelmi és repülőipari Tron Future startup 2018-ban alakult, és gőzerővel dolgozik következőgenerációs technológiákon. Tajvan fővárosában, Taipeiben működik, ma már drónokat és drónellenes megoldásokat, felderítő rendszereket fejlesztő vállalatcsoporthoz tartozik. A csoport tagjai tevékenységüket 2022-ben, Oroszország ukrajnai inváziójával pörgették fel.

Drónfejlesztésekben Kína a világelső, a kereskedelmi drónok globális piacának több mint 80 százalékát kontrollálja. Az alapvető alkatrészek, mint a lítium-ion akkumulátorok gyártását is kvázi monopolizálja.

tajvan_dron.jpg

Ukrajna például nagymértékben támaszkodott kínai alkatrészekre és előre összeszerelt drónokra. A világvezető gyártócég DJI Mavic modelljének 60 százalékát északkeleti szomszédunk vásárolta meg.  

A chipháború következményeként, eszkalálódásaként, Peking által bejelentett, 2025-tel érvénybe lépett alkatrész exportkorlátozásokra reagálva, Tajvan igyekszik felvenni a versenyt, és tudva, hogy az ember nélküli járművek a jövő hadviselésének központi elemei lehetnek, fokozza ezirányú tevékenységét, igyekszik segíteni a nyugati katonai világon.

Az érintett cégek óriási potenciált látnak a technológiában, a kormány pedig minden támogatást megad nekik. A Tron Future vezetősége elmondta, hogy folyamatosan nő a tajvani és az amerikai vállalatok közötti üzleti forgalom.

Mivel a világ legfejlettebb mikrochipjeinek 95 százalékát a szigeten gyártják, Tajvan eleve kritikus jelentőségű technológiai csomópont. A helyi drónfejlesztők az Egyesült Államokat és szövetségeseit igyekeznek segíteni, hogy csökkenjen szakterületi Kína-függésük.

Oroszország Ukrajna elleni inváziója megerősítette, mennyire fontosak a biztonságos és kockázatmentes ellátási láncok – amelyek zömét nem Peking, hanem egyelőre még mindig az USA kontrollálja. Tajvan közismerten közéjük tartozik, az eddigi munkakapcsolatok gyümölcsözők, úgyhogy a dróntechnológiában is a nyugati világ ideális partnere lehet. Donald Trump januári beiktatásával pedig aligha fognak csökkeni az USA és Kína közötti feszültségek, sőt…

A viszály komoly lehetőség Tajvannak. A 2022-ben indított Drone National Team programjuk a gyártók összehozását célozza, amellyel felgyorsítják drónok fejlesztését, telepítését katonai és polgári alkalmazásokhoz. 2028-ig el akarják érni a havi tizenötezer darab gyártását.

A sziget technológiai szakértelme, geopolitikai jelentősége és a növekvő védelmi befektetések miatt több területen is a kínai rendszerek biztonságos, csúcsminőségű alternatívája lehet. Szeptemberben a drónfejlesztésben érintett huszonhat amerikai vállalat (Northrop Grumman, Shield AI, Textron Systems stb.) képviselőiből álló delegáció járt Tajvanon. A látogatás célja az együttműködés erősítése volt.

A hagyományosan komputereket és mobiltelefonokat is gyártó fogyasztói elektronikai nagycégek mindegyike foglalkozik drónokkal. A tajvani félvezető ipar pluszt adhat hozzájuk, például hozzájárul, hogy fejlett MI-képességekkel rendelkezzenek, és így ellehetetlenítsék a gépek zavarását.

A tajvani fejlesztők egyelőre ódzkodnak, hogy minden értékesítésükről beszámoljanak, mert egyes európai és közép-keleti üzletek Kína miatt érzékeny adatoknak minősülnek. Az illetők drón-ügyileg a távol-keleti szuperhatalommal is bizniszelnek.

Lassul a mesterségesintelligencia-fejlesztés

Mesterségesintelligencia-fejlesztők internetes adatokat használva javítják nagy nyelvmodelljeiket, az LLM-eket. Vállalatvezetők és kutatók, köztük a Google DeepMind CEO-ja, a friss Nobel-díjas Demis Hassabis viszont figyelmeztetnek, hogy a szektor pár évvel ezelőtt elképzelhetetlennek tűnt problémával szembesül: kifogyunk az MI-rendszerek gyakoroltatásához nélkülözhetetlen adatokból.

A konszenzus általánosnak tűnik. Azért jutunk el az adathiányig, mert az interneten található digitális szövegek nagy részét felhasználták már. Hiába költenek súlyos dollármilliárdokat MI-fejlesztésekre, a probléma fennáll, és egyre sürgősebb lenne megoldást találni rá.

mi_lassulas.jpg

Minél több internetes tartalmat, például híreket, chat-naplókat, blogokat és másokat fogyasztanak, annál jobbak az MI-rendszerek. A jelenségben rejlő lehetőségeket kihasználó nagyvállalatok, mint az OpenAI, a Google és a Meta gőzerővel dolgoznak azon, hogy még több online adathoz jussanak hozzá. Eddig gyakran figyelmen kívül hagyták a klasszikus céges politikát, ügyeskedtek, és a törvényeket sem tartották be az utolsó betűig.

A méretezési törvények kialakulásával, az előző három-négy évben a befektetések is kezdtek megtérülni, kilőtt a szakterületi fejlesztés, ami viszont ma már inkább lassulgat. Adjuk még hozzá, hogy a mostani módszerekkel egyes területeken ugyan kétségtelenül töretlenül fejlődik az MI, különben viszont új módszerekre lenne szükség a Google és az OpenAI által követett cél, az emberi intelligenciával azonos szintű, az emberi agy kapacitását minimum elérő mesterséges intelligencia megvalósításához. Pedig Sam Altman nemrég már 2025-re ígérte ezt, azaz az AGI-t (általános mesterséges intelligenciát) – ami inkább tűnik jó marketingszövegnek, mint valóságnak.

Hassabis a megtérülések csökkenő mértékére figyelmeztet. A Google DeepMind és mások is szintetikus adatokat generálva, módszereket dolgoznak ki arra, hogy az LLM-ek próbáikból és hibáikból (trial-and-error) tanuljanak. Az OpenAI nemrég be is mutatott szintetikus (gép által, például gépi tanulás közben generált) adatok használatával épített új rendszert, de az csak olyan területeken működik jól, ahol egyértelműen meg lehet különböztetni az igazat a hamistól: matematikában, programozásban és más egzakt tudományokban. A művészetek és a társadalomtudományok, a filozófia nagyobb kihívást jelentenek.

MI-rendszerek köztudottan hajlamosak hibázni és valótlanságokat fabrikálni. Ez a tény lassíthatja a saját programokat író és az online felhasználó érdekében cselekvő MI-ágensek fejlesztését. Egyre több kutató véleménye, hogy ezek az ágensek kulcsfontosságúak, nem lesz nélkülük AGI.

Az érintett nagyvállalatok mindenesetre nem kívánják csökkenteni az MI-rendszereknek otthont adó masszív adatközpont-építési beruházásaikat. Sokan nem is aggódnak, például az OpenAI szerint egyes módszertani módosításokkal, a fejlődés tempója sem lassul le.

Egyre jobbak a nyílt forrású videó-előállító modellek

A képgenerálásban gyorsan zajlanak az események, egyik kutatás a másikat követi, és az eredmények magukért beszélnek. Ugyanez nem mondható el a videóról, ahol a fejlődés jóval lassabb. Az egyik ok a feldolgozás költsége. Mozgóképekkel mindig jóval nagyobbak a kiadások.

Szerencsére nő az előzetesen betanított, nyílt forrású videógenerátorok száma. Ha több van belőlük, az elérhetőség is nagyobb, többen férnek hozzá a technológiához.

tencent1.jpg

A nagyobb hozzáféréssel a kutatóknak is könnyebb, mert nem kell sürgősen modelleket gyakoroltatniuk, és így több idejük marad finomhangolással és más gyakorlás utáni dolgokkal foglalkozniuk, hogy a modellek speciális feladatok elvégzésében és újabb applikációkban is jól teljesítsenek.

tencent0.jpg

Az OpenAI februárban jelentette be a csak decemberben nyilvánossá tett Sorát. A modell videógenerátorok új hullámát indította el. Veo (Google), Movie Gen (Meta), Gen-3 Alpha (Runway), Stable Video Diffusion (Stability AI). Nyílt forrású alternatívák hiába tűnnek fel, általában hamar kiderül róluk, hogy nem ugyanaz a minőség, mint a kereskedelmi célú generátorok, nem tudják tartani velük a versenyt.

A kínai Tencent 2024 végén tette nyilvánossá a Hunyuan Videót. Teljesítménye hasonló a kommersz termékekhez. Nyílt kód, nyílt súlyok – havi közel százmillió felhasználó, akiknek jelentős része az Egyesült Királyságban, az Európai Unióban és Dél-Koreában él. 

A rendszer konvolúciós kódolóból és dekódolóból, két szöveges kódolóból és egy transzformerből áll. Lépésről lépésre gyakoroltatták; a kódoló/dekódolóval kezdték, majd a komplett modellel folytatták. A nyílt forráskód ellenére, a finomhangolás előtt használt adatsor nem nyilvános.

A Hunyuan Video jól teljesít teszteken, a bírák jobban szeretik a rendszert, mint a riválisait. A nyílt forráskóddal a Tencent hozzájárul a videógenerálásban végzett kutatás-fejlesztésekhez. Külön érdekesség, hogy egy kínai nagyvállalat segít be a nyílt forrású kezdeményezéseknek, közösségeknek.

Hogyan alakítja át a mesterséges intelligencia az energiaszektort?

Történelmi idők az energiaszektorban: a károsanyag-kibocsátást úgy kell csökkenteni, hogy közben az energiaigények folyamatosan nőnek. A mesterséges intelligencia sokat segíthet, és az iparág képviselői, a Shell vezetésével dolgoznak is a termelés és a jövőbeli megoldások MI általi szintézisén.

A technológia felgyorsítja az energiatovábbítást, és csökkenti a széndioxid-kibocsátást. Nem Szent Grál, de a pragmatikus megközelítéssel máris több fronton érzékelhető a fejlődés.

energia_1.jpg

A Shell komoly eredményeket ért el a tudományos szimuláció felpörgetésében. Az Nvidiával közösen lefuttatott komplex energiaszimulációik többezerszer gyorsabbak, mintha hagyományos modellekkel tették volna. Többmillió éves folyamatokat tanulmányozva pontosabban látják, hogyan csökkenthető mindenhol szignifikánsan a kibocsátás.

Gépitanulás-modellekkel vizsgálták a széndioxid földalatti tárolását. A szélvészgyors szimuláció lehetővé tette a földrajz, a széndioxid-leválasztással és tárolással járó nyomás és más tényezők hatásainak elemzését.

A Shell persze – túl a szimuláción – gyakorlati alkalmazásokban is gondolkodik. Virtuális távérzékelés (VERS) programjuk térinformatikai MI segítségével nyer ki információt a távérzékeléssel és műholdakkal gyűjtött adatokból. A technológia bioüzemanyagok azonosításában és tisztaenergia-beruházások optimalizálásában segít.

Kifinomult gépilátás-rendszerekkel berendezéseik állapotát monitorozzák, kibocsátást detektálnak, növelik a biztonságot. A rendszerek peremszámításokat (edge computing) is végeznek, amellyel valósidőben és a még nehezen behálózható helyszíneken is megállapítják, megfelel-e minden az előírásoknak.

A Shell csúcskategóriás MI-megoldások mellett alkalmazottai körében demokratizálja a mesterségesintelligencia-technológiákhoz való hozzáférést. Az alkalmazásokat egy rendszer komplexitásuk és kockázataik alapján rangsorolja. Minél kevésbé kockázatos egy alkalmazás, annál többen használhatják. Minél kockázatosabb és bonyolultabb, annál nagyobb szakértelem az elvárás. Az eddigi eredmény magáért beszél, a Shell MI-közössége több mint tizenkétezer személyből áll. Az átfogó Digitális készségek programot lényegében az összes alkalmazott használhatja.

Az MI az energiahálózatot is újragondolja. Központi erőművektől megújuló források elosztott hálózatáig ível a fejlődés. A nagyjából nyolcezer erőművet a jövőben MI-vel vezérelt, menedzselt többmillió forrás- és tároláspont helyettesítheti. Más MI-k figyelme az elektromos autók működtetésére, töltésükre szintén kiterjed. Generatív MI-vel és nagy nyelvmodellekkel a tudományos-technológiai forrásokat teszik elérhetőbbé. Az adatközpontok, a „jövő energia-csomópontjainak” széndioxid-mentesítésével szintén foglalkoznak.

Nyíltforrású adatbázis elektromos járművekhez

Az MIT (Massachusetts Institute of Technology) mérnökei több mint nyolcezer elektromos jármű tervét hozták létre. Mesterséges intelligenciával összekombinálva, a tervekből a jövőben gyorsan készíthetők járművek.

A DriAerNet++ nyílt forrású adatbázisba gyűjtött tervek a leggyakoribb autótípusokon alapulnak, olyan 3D modellek, amelyek például az aerodinamikus kialakításról tartalmaznak infókat.

ev.jpg

Elektronikus járművek tervezése évekig eltarthat, sok forrást elemésztenek, számos iterációval, felülvizsgálattal járnak míg a tervrajz végső változata el nem készül, amelyből fizikai prototípust építenek.

Mivel jogvédett vagy szabadalmaztatott termékekről van szó, a teszteredmények és a specifikációk, például a prototípusok aerodinamikája, szigorúan magánadatok maradnak. Ez a zártság azt jelenti, hogy az elektromos járművek változatlanul lassan fognak fejlődni.

Az új adatbázis exponenciálisan gyorsítaná fel a vonatkozó kutatásokat, járművek tervezését. Részletes specifikációs és aerodinamikai adatok találhatók benne, amelyek alapján MI-vel új járművek generálhatók. A lassú folyamat áramvonalasításával a gyártók minden korábbinál hamarabb készíthetnek tervrajzokat.

Az MIT-s kutatók leírták, hogy az adatkészlet miként kombinálható össze mesterséges intelligenciával. Az anyag óriási, mérete 39 terabájt. Létrehozása az MIT Szuperfelhőjén, egy távkapcsolattal is használható robusztus klaszteren keresztül, hárommillió CPU (központi feldolgozóegység) óráig tartott.

A csapat által használt algoritmus szisztematikusan módosított huszonhat paraméteren: jármű hosszúságán, alváz jellemzőin, futófelületen és a kerék formáján, szélvédő lejtésén stb. Egy másik algoritmust azért futtattak, hogy megállapítsa: az újonnan generált terv meglévő valaminek a másolata vagy teljesen új.

Az összes 3D tervet gépileg olvasható formátumokra konvertálták, végül komplex és rugalmasan dinamikus szimulációkat futtattak le, hogy tervenként kiszámítsák a levegő áramlását.

Ez a folyamat gyártóknak nagyon drága, mert az egyik változatról a másikra csak kicsit módosíthatják a járművet. Nagyobb adatkészletekkel és az összes terv teljesítményének ismeretében, gépitanulás-modellek gyors iterációkra taníthatók be, így pedig a terv is javul.

A kutatásfejlesztési költségek csökkenthetők, a fejlődés felgyorsítható az adatbázissal. A gyorsulás kulcsa az MI-integráció, amivel a jármű fűtő-hűtőrendszerét is optimalizálják. A termék így jóval hamarabb jut el az ügyfélhez.

Korábbi MI-modellekkel is generáltak látszatra optimalizált terveket, a gyakorlóadatok mennyisége viszont korlátozott volt. Az új adatkészlettel sokkal robusztusabb a tanulás, és fizikai prototípus nélkül is kiszámítható az adott elektromos jármű hatékonysága, hány kilométert tud megtenni egy töltéssel stb.

Tovább növekszik az adatközpontok károsanyag-kibocsátása

2018 óta megháromszorozódott az adatközpontok károsanyag-kibocsátása. Az egyre összetettebb mesterségesintelligencia-modellek nyilvánossá tételével a jövőben emelkedni fognak a számok – derül ki egy friss tanulmányból.

A Harvard Egyetem kutatói az Egyesült Államok adatközpontjainak 78 százalékát, 2132 létesítményt vizsgáltak a tanulmányhoz. A szerversorokkal telepakolt központokban gyakoroltatják a modelleket, és minden egyes ChatGPT stb. lekérdezéskor is kőkeményen dolgoznak a gépek. Azaz, rengeteg energia megy el a szerverek működtetésére, hűtésére.

energiahasznalat.jpg

A 2024 augusztusával zárult tizenkét hónapban 105 millió köbtonna széndioxidot, a nemzeti átlag 2,18 százalékát bocsátották ki a központok.. Összehasonlításként: ugyanebben a periódusban a belföldi légi járatok 131 millió köbtonna széndioxidot generáltak. Az USA-ban használt összes energia 4,69 százaléka az adatközpontokhoz köthető, ami duplázódást jelent 2018-hoz képest.

Nehéz megállapítani, hogy a ChatGPT 2022 végi berobbanása óta mekkora az MI pontos felelőssége a számokban. Az adatközpontok rengeteg és változatos típusú adatot dolgoznak fel, honlapokat hosztolnak stb. Mindenesetre a kutatók szerint az MI miatti kibocsátás valószínűleg gyorsan nő.

energiahasznalat0.jpg

A növekedés exponenciális lehet, és mivel sok adatközpontnak szénbányász régiók, például Virginia ad otthont, ezeken a területeken a „szénintenzitás” jóval erősebb, mint másutt, 48 százalékkal magasabb az országos átlagnál. Összességében pedig az amerikai központok 95 százaléka a nemzeti átlagnál koszosabb energiaforrások közelében épült.

Ezek az energiaforrások, szemben a megújulókkal, a nap huszonnégy órájában, a hét minden napján rendelkezésre állnak. Politikai előnyök, kedvezőbb adózás, lokális kedvezmények szintén fontos szerepet játszanak a helyszín-választásban.

Az egyszerű szöveges modelleket követően megjelent multimodálisak, például a Sora (OpenAI), a Veo (Google) vagy a Movie Gen (Meta), illetve a zenegenerátorok (Suno, Udio) terjedésével drasztikus fogyasztás-növekedés várható.

A kutatók portált nyitottak, ahol nyomon követhető az adatközpontok károsanyag-kibocsátása. A környezetvédelem és a fenntarthatóság-tudatos közösségek részéről óriási nyomás nehezedik a Big Techre, amivel már rövidtávon is kezdeniük kell valamit. 

A kutatók szerint a közeljövőben viszont nem várható semmilyen ezirányú szabályozás. Közben egyre több nagyvállalat igyekszik a nukleáris energiával kiváltani az üvegházhatású gázok kibocsátását. A Meta december harmadikán jelentette be, hogy partnereket keres, a Microsoft 2028-ig újranyitja a Three Mile Island erőművet, míg az Amazon októberben kötött szerződést érintett szereplőkkel.

Biztonságos atomerőművek MI-célú üzemeltetéséig azonban hosszú évek telhetnek el. A közvélemény támogatása csak nagyon lassan nő, bár Donald Trump megválasztott elnök is beállt melléjük. És persze az USA-n kívül is van élet, környezeti szempontból kevésbé skrupulus délkelet-ázsiai országok, mint Malajzia, Indonézia, Thaiföld és Vietnam felé szintén kacsingatnak a nagy MI-fejlesztők.  

Ezek lesznek 2025 legmarkánsabb mesterséges intelligencia- és adattrendjei

A generatív MI ugyan rivaldafényben van, a mesterséges intelligencia felhasználási eseteknek azonban mindössze öt százalékát jelenti. E számok ismeretében mi várható 2025-ben MI-fronton?

Bernard Marr jövőkutató és Bryan Harris, az amerikai multinacionális analitikai és MI-szoftverfejlesztő SAS főmérnöke öt nagy trendet emel ki.

2025_trendek.jpg

Az MI-modellek eszközből termékké fejlődnek. A nagy nyelvmodellek (LLM-ek) csak a jéghegy csúcsát, a valóvilágbeli alkalmazások kis részét jelentik, de már így is megváltoztatták a mindennapos MI-élményt. Mások is, például amikor gyanús bankkártyás tevékenységről kapunk értesítést, vagy személyes vásárlási ajánlatokkal bombáznak, vagy ha az orvos adataink alapján felír egy receptet. Mindegyik esetben speciális MI-modellek dolgoznak a háttérben. A csalás-detektálástól kezdve a látórendszerek dokumentálásáig, nagyon sok hasonlóra számíthatunk.

A szintetikus adatok a következő MI innovációs hullám motorjai. A minőségi gyakorlóadat iránti kereslet növekedésével egyre jobban terjednek a gyorsan javuló minőségű szintetikus adatok („jó adat nélkül nincs jó MI”). Olyan esetekben, például csalás-detektálásnál különösen hasznosak, amikor egyrészt kevés a valódi adat, másrészt viszont létfontosságú a hatékony MI-rendszerek betanítása. Képzeljük el, hogy a tranzakciók milliói szabályosak, és minimális a csalás. Az algoritmus minősége romlik, amin csak életszerű, de szintetikus adatok, összességében kiegyensúlyozottabb adatkészletek segíthetnek.

Az MI irányítása vezetőségi szintű prioritássá válik. Mesterségesintelligencia-rendszerek egyre több kritikus döntést hoznak, ezért a szervezetek vezetőinek ismerniük kell, hol fut az MI-jük, milyen adatokon gyakoroltatták, és persze a teljesítményét is. Harris négy különálló pillérre (felügyelet, platform, kontroll, kultúra) épülő, átfogó keretrendszert vázol fel. A megfelelő felügyeletet célzott adatetikai gyakorlattal alakítaná ki, a beszámolókat közvetlenül a vezetők kapnák, ők garantálnák, hogy az MI-kezdeményezések kivitelezhetők és morálisan is vállalhatók. A platform lényege a megfelelőség szoftveres infrastruktúrába építése, amellyel az ázsiai, európai és amerikai szabályozásokat is kezelnék. A kontroll a rendszerek folyamatos monitorozása, a hatékonyság nyomon követése. A kultúra kevésbé egyértelmű, de kritikus jelentőségű: nem az algoritmus működését, hanem az MI kockázatait és előnyeit, helyes alkalmazását kell érteni.

A felhőszámítások környezeti lábnyoma, az MI globális széndioxid-kibocsátáshoz való egyre ijesztőbb hozzájárulása, plusz a kiadások növekedése költséghatékonyabb megoldások felé mutat. Első körben az optimalizálás és a fenntartható energiaforrások jöhetnek szóba.

A kvantumszámítás lesz az MI következő nagy „határterülete.” Itt várhatók 2025 legizgalmasabb, legváratlanabb újításai, optimalizálási problémákra (ellátási lánc, gyártás) különösen hatékony megoldásnak ígérkeznek. A kvantumtechnikák speciális MI-problémák megoldásához olyan mértékben járulhatnak hozzá, mint a GPU-k a mélytanulás (deep learning) forradalmához.

Ezek a trendek és konvergenciájuk az MI-lehetőségek új korszakát vetítik előre – prognosztizál Marr és Harris. A siker azonban nemcsak az új technológiák gyors adaptálásától, hanem az adatminőség megbízható alapjaitól és az irányítástól is függ. A minőségi adat komoly versenyelőnyt jelent.

A Google DeepMind készíti a legpontosabb időjárás-előrejelzést

A Google DeepMind mesterségesintelligencia-alapú időjárás-előrejelző GenCast programja jobban teljesít a napi szintű időjárás, hurrikánok és ciklonok prognosztizálásában, mint a legfejlettebb hasonló rendszerek. A világelsőnek tartott európai ENS-re (fejlesztője a European Centre for Medium-Range Weather Forecasts, ECMWF) húsz százalékot vert rá.

Napi prognózisban, de tizenöt napig extrém események terén, pusztító hurrikánok és más trópusi ciklonok útvonalának kimutatásában is pontosabbnak bizonyult. Fejlesztői szerint az ENS legyőzése fordulópont az MI-vel végzett időjárás-jelentés történetében. 

idojaras_1.jpg

A közeljövőben valószínűleg segíteni, s nem helyettesíteni fogja a hagyományos megoldásokat. De még ebben a funkcióban is pontosítja a betörő hideg- és meleg-hullámokat, szélviharokat, energiacégeknek pedig megmondja, mennyi áramot generálnak szélfarmokból.

A hagyományos fizika-alapú előrejelzések rengeteg egyenlet megoldásával készülnek, a GenCast viszont negyven év történelmi adatain gyakorolva tanulta meg a globális időjárás 1979 és 2018 közötti fejlődését: szélsebességet, hőmérsékletet, légnyomást, nedvességtartalmat, valamint további több tucat változó különböző magasságokban mért módosulásait.

A legfrissebb adatok alapján kiszámolja, hogy 28x28 kilométeres területeken tizenkét órás időintervallumokban mi várható a következő tizenöt napban. És míg a hagyományos előrejelzések többtízezer processzoros szuperszámítógépeken órákig készülnek, addig a GenCast prognózisához nyolc perc kell a speciálisan gépi tanuláshoz fejlesztett egy darab Google Cloud TPU chipen.

Az utóbbi években a Google több MI-vel működő időjárás-előrejelzőt mutatott be. A júliusban bejelentett, mesterséges intelligenciát és hagyományos fizikát összekombináló NeuralGCM-et hosszútávú prognózisokra és éghajlat-modellezésre fejlesztették. A 2023-as GraphCast az „egyszerre egyetlen legjobb becslés” elve alapján működik.

A GraphCastra épülő GenCast ötven vagy több előrejelzés-gyűjteményt generál, különböző időjárási eseményekhez pedig valószínűségeket rendel. Az időjárás-jelentés szakma üdvözölte az új technológiát, óriási lehetőséget látnak benne. A fizika-alapú prognózis MI-vel történő teljes helyettesítésétől viszont még távol vagyunk – állítják a szakemberek.

A James Webb Űrteleszkóp 2025-ben megerősítheti a földönkívüli élet létezését

Kicsi az esélye annak, hogy rövid időn belül földönkívüli élet nyomait észlelni fogjuk. De ha valamennyi mégis van, akkor leginkább a James Webb Űrteleszkópban (JWST) bízhatunk.

A JWST látókörébe került ugyanis a TRAPPIST-1 csillag, a tőlünk „csak” 41 fényévre lévő hűvös vörös törpe. Hét sziklás, Föld-méretű exobolygó veszi körül, közülük három éppen lakható távolságra van a csillagtól, ami azt jelenti, hogy a feltételek adottak a folyékony vízhez, így az élethez is.

alienek.jpg

Az űrteleszkóp az egyiken mérte is a hőmérsékletet. Ez volt az első eset, hogy a naprendszerünkön kívül bárhol is érzékeltek Föld-szerű bolygóról érkező sugárzást. Ha szerencsések leszünk, a következő mérések komoly felfedezések lehetnek. 2025-ben a JWST mindenesetre tovább fogja figyelni, és talán még alienekre is fény derül.

Exobolygókat nagyon nehéz találni, közelről megfigyelni meg pláne, mert lényegében maguktól nem termelnek fényt, és a közeli csillagok elhomályosítják őket.

alienek0.jpg

A hűvös vörös törpék, mint a TRAPPIST-1 viszont jobban vizsgálhatók, mert ugyan meglehetősen gyenge fényt, de fényt bocsátanak ki. Ugyanakkor sokkal illékonyabbak, mint az olyan stabil csillagok, mint a Nap.

A következő lépés viszont még az űrteleszkópnak is masszív kihívás, mert a csillaghoz közeli bolygók atmoszférájának összetételét kell tanulmányoznia.

Valahányszor egy bolygó elhalad köztünk és a csillaga között, megszűri a csillagfényt, és esetleg molekuláris mozgások is észlelhetők. Már amennyiben a JWST elég használható, azaz a fogadócsillag jeleit elnyomó és a sziklás exobolygók nagyon vékony légkörének molekuláris jellemzőit felerősítő adatot gyűjt.

Ha a csillagászok képesek detektálni a megfelelő molekulákat, azok alien létformák jelenlétére utalhatnak. A legvalószínűbb sikeres forgatókönyv, ha kiderül, hogy a bolygón van víz, ami hihetetlenül látványos felfedezésnek bizonyulna.

Ha viszont a TRAPPIST-1-ben csalódnunk kell, saját naprendszerünkben is találhatunk bizakodásra okot adó jeleket. A Jupiter negyedik legnagyobb holdja, az Európa felszíne alatti feltételezett óceán területe sokkal nagyobb, mint a földi óceánoké együtt. A NASA októberben indított űrszondája 2030-ban éri el az Európa hideg és folyékony világát. Rengeteg képet fog készíteni, és talán kiderül, hogy a hold lakható, és esetleg lakják is. 

süti beállítások módosítása