Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Pingpongozik a robot

2024. október 10. - ferenck

Robotikusok legalább egy évtizede programoznak asztaliteniszező robotokat. A korábbi projektekben fejlesztett gépek a játék több aspektusát elsajátították, például meghatározott célpontra ütötték a labdát, komplett meccstervük viszont nem volt a humán ellenfelekkel szemben.

A probléma két részre osztható: egyéni szkilleket tartalmazó könyvtárra és közülük válogató algoritmusra. Ez a felosztás leegyszerűsíti a feladatot: a robot teljesítményének gyengeségei azokat kompenzáló szkillek könyvtárhoz adásával eltüntethetők.

robotpinpong0.jpg

Google-kutatók ilyen robotot fejlesztettek. A kar ügyesen játszik emberek ellen.

Egy játszma szervákra bontható. Sémájuk elég egyszerű, a robot kontrollrendszere stratégia kidolgozása nélkül képes megtanulni, hogyan üsse vissza a labdát.

robotpinpong1.jpg

A kutatók két állványra szereltek fel egy robotkart. Úgy tették, hogy jobbra-balra, előre és hátra is mozoghasson. Két kamera rögzíti a labdát, az adatokat észlelési rendszerbe táplálja, az méri fel a labda pozícióját. Húszkamerás mozgásrögzítő (mocap) rendszer követi a háló túloldalát, az ellenfelet.

Végponttól végpontig rendszer gyakoroltatása vagy robotikus alapmodell helyett, a játékmenetet alfeladatokra osztották, amelyeket különféle modulokra bíztak, majd úgy hangolták össze őket, hogy egymással szinkronban cselekedjenek.

robotpinpong.jpg

A robotot magasszintű kontroller, konvolúciós neurális hálót (CNN) tartalmazó algoritmus vezérli. A CNN végzi a csoportosításokat, hogy mikor hogyan kell visszaütni a labdát. A magasszintű kontroller tizenhét egyszerűbb kontroller (mindegyik CNN) közül válogat. Különböző feladatotokat hajtanak végre: az egyik pontokat céloz meg az asztalon, a másik korrigálja a labda pályáját, pörgését, a harmadik lehetővé teszi, hogy a robot visszaüsse és így tovább.

A gép huszonkilenc háromjátszmás meccset játszott változatos szinten pingpongozó humán ellenfelekkel. Kezdők ellen mind a hetet megnyerte, hatot „köztes” szintűek ellen (a velük játszottak ötvenöt százalékát), „haladó” és „haladó plusz” asztaliteniszezőkkel szemben az összest elveszítette.

Nyílt forrású nyelvmodelleket tett közzé az Alibaba

Az Alibaba több méretben tette közzé Qwen 2.5 nagy nyelvmodelljét (LLM), az API (alkalmazásprogramozói felület) változat Qwen Plust és Qwen Turbot, valamint a specializált Qwen 2.5-Codert, a Qwen 2.5-Coder-Instructot, a Qwen 2.5-Math-ot és a Qwen 2.5-Math-Instructot.

Az Apache 2.0 licenc alatt többük szabadon/ingyen hozzáférhető kereskedelmi célra is. A 3B (hárommilliárd paraméteres) és a 72B modellek szintén ingyenesek, kereskedelmi célú használatuk viszont a licenc értelmében speciális megbeszélések tárgya.

alibaba.jpg

A Qwen 2.5-tel tovább bővült az egyre jobb minőségű LLM-ek köre: a Claude 3.5 Sonnet (Anthropic), a GPT-4o (OpenAI), a Llama 3.1 (Meta) és a Qwen 2 család tartoznak közéjük.

A Qwen 2.5 modellek mérete az ötszázmillió és a hetvenkét milliárd paraméter között variálódik.

Ezeket a modelleket előzetesen tizennyolc trillió tokennel gyakoroltatták. A hárommilliárd paraméteresekig harminckétezer input tokent, a nagyobbak 128 ezret képesek feldolgozni. Az összes változat outputjainak hosszúsága nyolcezer token.

A Qwen 2.5-Codert (kódolót) további 5,5 trillió kód-tokenen gyakoroltatták. Maximum 128 ezer input tokent dolgoz fel, a generált outputok felső határa kétezer token. Két változatban, 1,5B-ben és 7B-ben érhető el.

A matekra specializált Qwen 2.5-Math további egytrillió matematikai jellegű tokenen trenírozták. Egyeseket a korábbi Qwen 2-Math-72B-Instruct generált. Négyezer input tokent tud feldolgozni, kétezer output tokent generál. 1,5B, 7B és 72B változatban érhető el. Matematikai problémák megoldása mellett az adott probléma megoldásában segítő kódot is tud generálni.

Más nyílt forrású modellekkel összehasonlítva, a Qwen 2.5 modellcsalád összes változata nagyon jól teljesített a teszteken.

Kalifornia törvényileg korlátozza a mélyhamisítványokat

Gavin Newsom, Kalifornia népszerű demokrata kormányzója a generatív mesterséges intelligencia politikai és szórakoztatóipari használatát visszaszorítani hivatott nyolc törvényjavaslatot írt alá

A kaliforniai új törvények gyakran szolgálnak példaként az USA többi szövetségi állama, a szövetségi kormány és más országok számára. A mélyhamisítványok (deepfakes) politikai kampányban történő szabályozásával a Szövetségi Választási Bizottság (FEC) által hagyott rést tömtek be. 

kalifornia.jpg

Az FEC azért nem foglalkozhatott vele, mert nem rendelkezik az MI politikai hirdetésekben való alkalmazásának szabályozásához szükséges engedélyekkel. Közben az engedélyekkel rendelkező Szövetségi Kommunikációs Bizottság (FCC) javaslatot tett az „MI politikai hirdetésekben” téma szabályozására, csak még nem emelkedett törvényerőre.

Kalifornia megelőzte őket, az MI-modellek fejlesztését hátráltató, 1047-es számú szenátusi törvényjavaslatot viszont (egyelőre biztosan) nem léptette érvénybe a szövetségi állam. Newsom teljesen logikusan érvelt: a javaslat visszavetheti az innovációt, és különösen a nyílt forrású kezdeményezéseknek árthat.

Kalifornia a racionális megoldást választotta: MI-modellek helyett nem kívánatos alkalmazásokat vett célba. Általános rendeltetésű technológiákat sokféleképpen alkalmazhatunk, a zömük pozitív, viszont ha törvényileg hátráltatjuk a fejlesztéseket, mindenféle alkalmazást korlátozunk, lényegében közös nevezőre hozzuk a mélyhamisítványokat és a diagnosztikai appokat. Newsom remélhetőleg megvétózza az 1047-es törvényjavaslatot.

Az egyik új törvény megtiltja a jelöltekről, választási hivatalnokokról és a választási folyamatról ismerten megtévesztő MI-tartalmak a választást megelőző százhúsz és az azt követő hatvan napban történő terjesztését.

Két másik a politikai hirdetésekre vonatkozik. Ha a tartalmat MI generálta vagy érdemben módosította, fel kell tüntetni. A másik nagy online platformokat szólít fel MI által generált politikai tartalmak felcímkézésére vagy eltávolítására. További két törvény az előadóművészeket védi digitális hasonmásaik használatával szemben. Ez csak engedéllyel, elhunytak esetében pedig az örökösök hozzájárulásával történhet.

Két törvény a szexuálisan explicit tartalmakat szabályozza, Személyek hozzájárulása nélkül készülő ilyen tartalmak mostantól büntetőjogilag a garázdaság kategóriájába tartoznak. A másik törvény szexuálisan explicit mélyhamisítványok bejelentésére szólítja fel a közösségimédia-platformokat.

A nyolcadik törvény kimondja, hogy az MI-vel generált médiatartalmakon meg kell jelölni, hol készültek.

Hackerek kalóz játékokon terjesztenek rosszindulatú programokat

Információbiztonsági szakemberek legalább két évtizede használják az emberi felhasználót a számítógéptől megkülönböztető, automatikus CAPTCHA-tesztet. A számítógép olyan feladványt generál, amelyet csak az ember tud megoldani, a válasz helyességét viszont a gép is képes ellenőrizni. Egyfajta fordított Turing-teszt, és mint az informatikában szinte minden, ugyan nehezen, de ez is kijátszható.

Internetes bűnözők legújabban kamu CAPTCHA-teszttel igyekeznek elérni, hogy a kalóz PC-játékokat, például a Black Myth: Wukongot, a Cities: Skylines H-t vagy a Hogwarts Legacyt kereső felhasználó malware-t töltsön le, telepítsen számítógépére. Ók, az illegális játékokra vadászó gamerek az egyértelmű célcsoport.

kalozjatekok.jpg

A McAfee vírusölő-szolgáltató az online világ árnyas oldalán fedezett fel több feltört (megcrackelt) PC-játékhoz hozzáférést kínáló kamu CAPTCHA-honlapokat. Népszerű videójátékok ingyenes vagy feltört változatát keresve, a felhasználók gyakran kötnek ki őket rosszindulatú oldalakra irányító online fórumokon, levelezőlistákon vagy nyilvános tárhelyeken.

Az oldalak CAPTCHA-teszt elvégzésére utasítják őket, amelyben nincs semmi meglepő, mert jó ideje bevett gyakorlat. A gyanútlan felhasználó eleget is tesz az utasításnak, és máris letöltötte a jelszórabló Lumma Stealer malware-t.

A teszten több első látásra ártalmatlannak tűnő billentyűparancsot kell elvégezni, köztük a programok elindításához használt futtatási párbeszédpanelt előhívó Windows+R-t.

Következő lépés a jól ismert CTRL+V, majd enter. Az egész olyan gyorsan történik, hogy fel sem fogjuk: a párbeszédpanelbe másolt PowerShell szkripttel máris letöltöttük és installáltuk a rosszindulatú programot.

Biztonsági szakértők augusztusban fedezték fel az új technikát. Azóta széles körben elterjedt, egyre több felhasználó életét keseríti meg.

A Lumma Stealer másként is terjed. Hackerek a szoftverfejlesztői berkekben népszerű GitHub platform nevében elküldött adathalász e-mailekkel igyekeznek rávenni a felhasználót, hogy menjen rá ugyanazokra az ál CAPTCHA-oldalakra, és persze töltse le a malware-t.

Globális mesterségesintelligencia-biztonsági csúcstalálkozó lesz novemberben

Rengetegen foglalkoznak a mesterséges intelligencia biztonságával, Kína, az Egyesült Királyság és Európai Unió szabályozták, az Egyesült Államok szabályozná a területet – elnöki rendeletek vannak már –, ki megengedőbben (Egyesült Királyság), ki kevésbé megengedően (Kína) áll hozzá. Kétségtelenül a számítástudomány egyik „legforróbb” témája, nem véletlenül alkalmaznak a nagy fejlesztőcégek etikusokat, morálfilozófusokat.

A Biden-adminisztráció globális MI-biztonsági csúcstalálkozót tervez. Az USA kongresszusa küszködik a szabályozással. Ne felejtsük el: a legnagyobb fejlesztőcégek amerikai mamutvállalatok, és rengeteg bevételt generálnak az országnak.

ai_summit.jpg

A csúcsra, az MI-biztonsági Intézetek Nemzetközi Hálózatának első találkozójára a Szilícium-völgyhöz közeli San Franciscóban kerül sor november 20-21-ikén, hogy „előrelépjenek a biztonságos, veszélytelen és megbízható mesterséges intelligencia fejlesztésében.”

A májusi szöuli MI-csúcson alakult hálózathoz olyan országok, államszövetségek tartoznak, mint Ausztrália, Dél-Korea, az Egyesült Államok, az Egyesült Királyság, az Európai Unió, Japán, Kenya, Szingapúr. Franciaország önállóan is tag, nyilván azért, mert lazábban szabályoznak, mint az Unió – ott futnak a legígéretesebb EU-s projektek, számos amerikai-francia közös kezdeményezés indult.

Szöulban egyeztek meg az MI-biztonság, az innováció és a befogadás prioritásként történő kezeléséről. A San Franciscói összejövetelt indító gyűlésnek tekintik a februári párizsi újabb csúcs előtt. Együttműködéseket terveznek megbeszélni.

Az összes tagország képviseli magát MI-biztonsági intézet vagy annak megfelelő állami tudományos szerv szakembereivel, ismereteiket osztják meg, hogy előremozdítsák az ezirányú fejlesztéseket, a biztonsági szempontok figyelembevételét. Felhőszámítás-szolgáltatók és MI-fejlesztők a cybertámadásokkal szembeni védekezést is megvitatják. 

A riadalmat a generatív MI berobbanása, gyors elterjedése, a rengeteg hasznos mellett a sok haszontalan alkalmazása, mélyhamisítványok és hasonlók váltották ki. A munkahelyek elvesztésétől való félelem, választások elcsalásának lehetősége reális aggályok, de még mindig divatos apokaliptikus rémálmokkal, MI-ítéletnapokkal riogatni.

Hat másodperces videókat készít mesterséges intelligenciával a YouTube

Hamarosan egy csomó mesterséges intelligenciával támogatott új eszköz áll a YouTube tartalomkészítői rendelkezésére – jelentette be a cég szeptember tizennyolcadikai Made on YouTube rendezvényén, New York Cityben. MI-vel, szöveges utasításokra (promptokra) készülhetnek a mindössze hat másodperces YouTube Shorts videók.

Az új megoldásokra a Google DeepMind Veo videógeneráló modelljének a YouTube Shorts-ba integrálásával nyílik lehetőség. (A YouTube évek óta a Google-anyacég Alphabethez tartozik.)

youtube0_1.jpg

A Veot azzal a céllal fejlesztették, hogy rivalizáljon az OpenAI Sora, a Runway Gen-3 Alpha, az Adobe Firefly vagy a Kuaishou Technology Kling videógeneráló rendszerével. Hat másodperces 1080 pixeles felbontásban generál változatos témájú és stílusú mozgókép-anyagokat.

Integrálásával tovább bővül a YouTube mesterséges intelligenciával működő Álomképernyője, a „Dream Screen.” 2023-ban indult, hátterek generálására biztosít lehetőséget felhasználóknak.

Szöveges promptot adunk meg a Dream Screennek, négy képoutputot generál, majd az egyiket a Veoval animálja. A vele generált összes tartalmat a Google beszédes nevű SynthID rendszere vízjelezi. Ez elvileg nagyon hasznos, de számtalan kutatás bebizonyította már, hogy az ilyen és hasonló vizuális azonosságok előbb-utóbb kijátszhatók, meg lehet trükközni őket, vissza lehet élni velük.

Az eseményen nemcsak a videógenerálót jelentették be, hanem a Google „digitális drágaköveit” is: a TikTok „ajándékaihoz” hasonlóan felhasználók elküldhetik élő streamelőknek. Először az amerikai Vertical Livestreams próbálja ki.

A YouTube automatizált fordítás szolgáltatását franciával, olasszal, portugállal és spanyollal bővítette, közösségi csomópontjai pedig több csatornán elérhetők. Alkotó szellemek a YouTube Stúdióban mesterséges intelligencia segítségével agyalhatmak videóötleteken – ezt a Google jelentette be.    

Még automatizáltabbak lesznek az Amazon raktárai

Az Amazon szerződést kötött a Covariant robotikai startuppal, amelynek értelmében alkalmazza a cég alapítóit, személyzetének kb. negyedét, licenceli a modelljeit. A pénzügyi részletek nem nyilvánosak.

A szerződés hasonló mint a korábban az ígéretes MI-startup Adepttel kötött. Egyik sem klasszikus akvizíció, és nemcsak az Amazon választja ezt a lehetőséget. Más techóriások és startupok között is köttettek már hasonlók.

amazon_11.jpg

Az Amazon egy ideje él a gyakorlattal. 2022-ben bejelentette az iRobot akvizícióját, de miután az EU trösztellenes szabályozói leállították, a két cég idén elállt a tervtől. Tavaly októberben több mint négymilliárd dollárt invesztáltak az Anthropicba, cserébe a startup technológiájához való hozzáférésért. Szintén a trösztellenesség jegyében, az Egyesült Királyságban árgus szemekkel tanulmányozzák a szerződést. Utána következett júliusban az ágenses megoldásokon dolgozó Adept.

Mit jelent mindez?

amazon0_8.jpg

Az MI-nagyágyúk fokozódó versenyét, csúcstehetségek és technológiák elszipkázását anélkül, hogy formálisan felvásárolnák az adott startupot (Microsoft-Inflection, Google-Character AI stb.). A szabályozói szigor is kijátszható így. 

Az Amazon nem-exkluzív licenccel rendelkezik a Covariant RFM-1 technológiája felett. A modell lehetővé teszi, hogy robotok szöveges vagy képi utasítást kövessenek, kérdésekre válaszoljanak, további instrukciókat kérjenek. Méretét is felskálázzák, többszörösére növelik.

Nagymennyiségű címkézetlen robotadaton gyakoroltatott robotikai alapmodellek ígéretes lehetőséget kínálnak gépek finomhangolására, azt követően új feladatok végrehajtására.

Ezek az újítások nagyon komoly előrelépést jelenthetnek a raktár-logisztikában. 

A Covariant többszáz, az Amazon több mint 750 ezer robot tulajdonosa. Az új alkalmazottak implementálják a modellt az Amazon robotjaiba, MI- és ember-gép interakció alapkutatásokban vesznek részt.

A Covariant irányítását az eddigi vezető menedzser (COO) végzi, de a „régiek” is tartják a kapcsolatot az ipari ügyfelekkel.

A világ leggyorsabb mesterségesintelligencia-platformja

A SambaNova Systems a Llama 3.1 405B (a B a milliárd paraméter rövidítése) modelljét a versenytársaknál jóval gyorsabban futtató felhőszámítás-szolgáltatást indított. Elérhető egy ingyenes és fizetős (vállalkozás) szint is, a szintén fizetős fejlesztői szint év végéig startol.

A vállalat szabadalmaztatott (SN40L) chipeket és szoftvert használva gyorsítja fel a modell következtetési folyamatát.

llama.jpg

A Llama 3.1 405B másodpercenként 149 tokent képes generálni, jelenleg nincs is gyorsabb a piacon, ez a világcsúcs. A millió input/output token ára öt-tíz dollár. A 70B sebessége 461 token/másodperc.

A Cerebras, egy másik felhőszolgáltató mögötti 70B változat másodpercenkénti 411 tokent hoz létre, az árak alacsonyabbak: 0,80 és 1,20 dollár között mozognak. A szintén Cerebras mögötti 8B 998 tokent teljesít, 0.10-0.30 dollár közötti áron. A gyorsaság és olcsóság a modellek méretének tudható be: jóval kisebbek, mint a SambaNova felhőjében működő 405B.

A SambaNova saját tesztjén a 405 B 132, a 70B 461 token/másodperc tempót ért el. Sok versenytárssal ellentétben, a Llama 3.1-et 16-bites pontossággal futtatja (ami szintén világcsúcs). A kevésbé pontos feldolgozást végző modellek ugyan gyorsabbak és alacsonyabb a fogyasztásuk, de eredményeik is rosszabbak. A SambaNova kontextus-ablaka azonban nagyon korlátozott, mindössze nyolcezer token a natív 120 ezerrel szemben.

Az új szolgáltatást óriási verseny közepette vezették be, a számítási felhő és az MI használatban érintett, szintén saját speciális chippel dolgozó összes rivális fel akarja gyorsítani a következtetést. A Cerebras és a Groq is nagyon gyors következtetés-szolgáltatást vezetett be.

Az eredmény, a költségek, a teljesítmény és a késleltetés MI-modellek gyakorlati alkalmazásának kritikus tényezői. A gyorsaság elősegíti az ágens-munkamenetet és a valósidejű döntéshozást.

Nyitott súlyokkal dolgozó modelleket ma már gyorsabban szolgálnak ki, mint a hasonló teljesítményű szabadalmaztatottakat. Ez tovább ösztönözheti a nyílt modellek és a nagyszámú kimeneti tokent igénylő promptolás stratégiák terjedését.

Gondolatlánccal működik az OpenAI új nyelvmodellje

Az OpenAI új nyelvmodell-családjának korábbi változatait szándékosan a lépésről lépésre történő gondolkodásra tanították. Matematikában és más tudományokban vagy a kódolásban látványos eredményeket értek el, a felhasználó viszont nem látja a következtetés menetét.

A fizetős ChatGPT felhasználók és API (alkalmazásprogramozói felület) ügyfelek egy része számára már elérhető o1-preview és az o1-mini bétaverzióit megerősítéses tanulással gyakoroltatták, hogy outputjaihoz gondolatláncokat használjon. Az OpenAI egyelőre nem közölte a végső változat kereskedelmi bevezetésének időpontját. 

openai_7.jpg

A két modell előzetes változat, az o1-mini gyorsabb, kódolásban különösen hatékony. Méretükről nincs infó, bemeneti kontextus-ablakuk 128 ezer token, csak szövegesekkel dolgoznak, de a tervek szerint a jövőbeli verziók más médiatípusokat is támogatni fognak.

Mindkettőt a webről, nyílt forrású adatbázisokból összeszedett, valamint partnerek által szolgáltatott adatokon trenírozták. Ha az óhajtott következtetési lépéseket generálták, és azok szinkronban voltak emberi értékekkel, célokkal és elvárásokkal, jutalmat kaptak.

openai0_4.jpg

Következtető tokeneket dolgoznak fel, amelyekkel a GPT-4o-nál ugyan lassabban és drágábban hoznak létre outputokat, teljesítményük viszont jobb. Az OpenAI rejtve hagyja a gondolatláncot, hogy ne fedje fel a nem-kért információkat. Nem akarják, hogy a felhasználók kontrollálják a modell következtetési mechanizmusát, és nyilvánvalóan el kívánják kerülni azt is, hogy a versenytársak belelássanak az MI elméjébe. A ChatGPT felhasználói mindenesetre elolvashatják az adott válaszhoz vezető lépések összefoglalóját.

Az OpenAI és mások biztonsági szempontból is kiértékelték az outputokat, ügyelve, hogy elkerüljék a nem/gender-, bőrszín- és életkor-alapú elfogultságot, a sértő, káros gondolatláncokat. A két modell kevesebbet is hallucinált, mint a korábbiak, jobban ellenállnak a feltörési kísérleteknek, viszont kockázatosabbak biológiai fenyegetések generálásához, a kockázatok azonban a meghatározott biztonsági keretek között maradnak.

A változatlanul nem-elérhető o1 modell általában jobban teljesített, mint az o1-preview, és (matekban, tudományokban – amerikai történelemben, jogban –, kódolásban) mindkettő jelentősen rávert a GPT-4o-ra.

Az o1 modellek szemléltetik, hogy a megerősítéses tanulás és a gondolatlánc-alapú következtetés kombinációjával az eddigi nagy nyelvmodellek számára problémát okozó feladatok is megoldhatók. Kódolásban sokkal jobbak, és a hibákra „különösen érzékeny” tudományokban is. A gondolatlánc és a következtetés titkosságával viszont ugyanúgy nehezen átláthatók, mint az elődök.        

Az Egyesült Királyság kritikus infrastruktúrának tekinti az adatközpontokat

Az ország orvosi praxisainak többségét megzavaró év eleji (hibás szoftverfrissítés miatti) globális IT-infrastruktúra leállásra reagálva, a cyberbiztonság növelése érdekében, az Egyesült Királyság kritikus infrastruktúrának tekinti az adatközpontokat. A lépéssel segíteni igyekeznek az érzékeny számítási létesítmények működtetőin, hogy az állammal közösen védjék meg rosszindulatú hackertámadásoktól az adatokat.

Peter Kyle, technológiai miniszter Kritikus Nemzeti Infrastruktúra (Critical National Infrastructure, CNI) címkéről beszélt, amely eddig csak az energia-, az atomerő-, a védelmi, az űr- és a rendkívüli szolgáltatásokra vonatkozott.

brit_adatkozpont.jpg

Az adatközpontok a modern élet motorjai, a digitális ökoszisztéma működtetői, garantálják a személyes információk biztonságát – tette hozzá a miniszter.

A kormány így jobban koordinálhatja a hackerek és váratlan online események elleni védekezést. A központok működtetői közvetlen kapcsolatba kerülnek a kormánnyal, hogy jobban felkészüljenek és reagáljanak a támadásokra.

Legutoljára, 2015-ben az űr- és a védelmi szektor kapta meg a CNI minősítést.

A kormány új adatközpontot is bejelentett. A DC01UK vállalat nyújtotta be a tervet, a 85 hektárnyi területen, az angliai Hertfordshire megyében épülő létesítmény Európa legnagyobb adatközpontja lesz. 3,75 milliárd fontba kerül, több mint hétszáz új munkahelyet teremt, összesen 13740 adat- és techmunkát segít az Egyesült Királyságban.

A bejelentést megelőzően az Amazon számolt be terveiről az Egyesült Királyságban: a Web Services részlegen keresztül a következő öt évben nyolcmilliárd fontot fektetnek ottani adatközpontok létesítésébe és működtetésébe.

Az országnak komoly tervei vannak a cyberbiztonság növelésére. A király nyári beszédének részeként szóba került új cyberbiztonsági és ellenálló-képességi törvény bevezetése. Előírják majd benne, hogy az alapvető IT-infrastruktúra szolgáltatói kötelesek ellátási láncaikat megvédeni a támadásoktól.

süti beállítások módosítása