Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Hogyan ismerjünk fel online trollokat?

2022. február 09. - ferenck

A közösségi ötletbörzén (crowdsourcing) alapuló online streaming-szolgáltatás, a Twitch gépi tanulással igyekszik a trollokat azonosítani, és természetesen kitiltani őket a platformról.

A főként a videojátékok szerelmesei által használt Twitch bemutatta a Gyanús Felhasználó Detektáló rendszerét, amely figyelmeztetést ad le, ha egy letiltott user új néven próbál bejelentkezni.

A felhasználók csatornán keresztül szolgáltatják a tartalmat, amelyen nézhetjük, hallgathatjuk az anyagokat, és chatelhetünk is. Ha valaki megsért, letilthatjuk a csatornáinkról. Viszont az agresszor ettől még új néven nyithat új fiókot, és folytathatja a molesztálást.

troll.jpg

Az új rendszer agresszióra utaló jeleket keresve, végigfürkészi a platformot. Ha talál ilyet (vagy ilyeneket), összehasonlítja a támadóra vonatkozó különféle infókat – hogyan viselkedik chat közben, a támadó fiókjának részleteit – és a letiltott fiókok adatait.

A támadókat lehetséges vagy valószínű letiltás-kijátszókként kategorizálja. Utóbbiakat a streamelők és a moderátorok kivételével mindenkitől elszigeteli. A lehetséges tiltottak ezzel szemben folytathatják chat-tevékenységüket, viszont a moderátorok alaposan megfigyelik, követik az aktivitásukat.

A rendszer alapbeállításként aktív, a streamelők viszont a saját csatornáikon kikapcsolhatják.

A trollok sajnos elkerülhetetlenek, mindenhol jelen vannak, és a Twitch nem az egyedüli platform, amely gépi tanulással harcol ellenük. A Facebook gyűlöletbeszéd-detektora 2020 negyedik negyedévében az agresszív, másokat sértő kommentek 49 százalékát azonosította, és nemcsak angolul, hanem például spanyolul és arabul is.

Az Intel és a Spirit AI Bleepje a beszédalapú chatet figyeli folyamatosan. Beszédfelismerő technikákkal tíz kategóriába sorolja az offenzív nyelvezetet, és a felhasználók szűrhetik ezeket a kategóriákat.

A YouTube modellje címeket, kommenteket és az összeesküvéselméleteket és a dezinformációt terjesztő videók más jellegzetességeit felismerő modellt fejlesztett, amellyel jelentősen csökken ezeknek a tartalmaknak a fogyasztása.

Online tartalmak moderálása lényegében macska-egérharc, mert a közösségi média gyors fejlődésével, lehetetlen mindent kontrollálni, de ha csak a legkárosabbakat ki tudjuk szűrni, máris komoly eredményt értünk el.

Zsugorodnak a nagy nyelvi modellek

A Google által néhány éve felvásárolt londoni DeepMind három tanulmányt tett közzé a nagy nyelvi modellek lehetőségeiről. Két transzformer-modellel többféle nyelvi feladatot próbált különféle naprakész technikákkal megoldani. Ugyanakkor, ha ezen modellek folyamatosan javulnak, a velük járó kockázatok is nőnek – hangsúlyozza a DeepMind.

Az OpenAI GPT-2-jén alapuló Gopher 280 milliárd paraméterrel dolgozik, és a 10,5 terabájtos úgynevezett Massive Text korpuszon gyakorolt. A korpusz sajtóhírekből, könyvekből, Wikipédia-szócikekből és más weboldalakból áll. 152, köztük viszonyítási alapnak számító feladatokon tesztelték, és az elért nyolcvan százalékos eredmény mérföldkőnek számít.

lmodel.jpg

Egy másik modell, a RETRO (Retrieval Enhanced Transformer) közel hétmilliárd paraméteren ért el a Gopherhez hasonló teljesítményt. Kisebb mérete ellenére a Massive Text korpusz számos anyagát feldolgozta és integrálta egybe. (A modelleket megjelenítő ábrák ugyan bonyolultak, de nem blogunk rendeltetése, hogy az algoritmusokat teljes komplexitásukban megismertessük, inkább csak érzékeltetni szeretnénk, milyen léptékű feladatokról van szó.)

A harmadik tanulmány az ezek a nyelvi modellek által generált huszonegy közösségi és etikai kockázatot sorolja fel (taxonómiát kínál). Például nem szándékosan terjeszthetnek sztereotípiákat, sértő nyelvi kifejezéseket, hozzájárulhatnak a káros félretájékoztatáshoz, hamis információk terjedéséhez, érzékeny adatok kiszivárogtatásához, de még a túlzott és káros energiahasználathoz is.

lmodel0.jpg

Mindezt nem szándékosan teszik, a kockázat viszont attól még fennáll. Az anyag szerzői e kockázatok csökkentésére javasolnak stratégiákat – jobb adatsorok kidolgozását, átláthatóbb modellek építését.

A Gopher és a RETRO szembe megy az egyre nagyobb nyelvi modellekről szóló trendekkel. A RETRO lekérdező stratégiája viszont a legfrissebb kutatások eredményeit felhasználva, külső tudásbázisokkal, ismeretforrásokkal kapcsolja össze a nyelvi modelleket.

A Gopher paraméterei a Microsoft-Nvidia Megatronjával (530 milliárd) és a Kínai MI Akadémia Wu Dao 2.0-jával (1,75 trillió) összehasonlítva egyaránt szerények, míg a RETRO külső információgyűjtési lehetőségei a Facebook RAG és a Google REALM rendszeréhez hasonlóak. Az adatbázis frissíthető, és így a modell a következő betaníttatásnál újabb és akkurátusabb adatokkal dolgozhat.

A természetesnyelvi-modellek az utóbbi években komoly fejlődésen mentek keresztül, de még így is sok munkát kell elvégezni rajtuk, hogy minél szélesebb körben kerüljenek alkalmazásra. A DeepMind erre kínál úgy lehetőségeket, hogy egy modellnek ne kelljen mindent megtanulnia, viszont külső forrásokból is tudjon következtetni.

Kvantumkomputerek hatékonyságát növelő algoritmus

A kvantumszámítógépekben benne van a jelenlegi legjobb szuperszámítógépekkel kivitelezhetetlen, fontos problémák megoldásának a lehetősége, ám az eddigitől eltérő, teljesen újfajta programozás, algoritmusfejlesztés kell hozzá.

Felsőoktatási intézmények, kutatóközpontok, infokom nagyvállalatok évek óta versengenek, hogy hogyan fejlesszenek ilyen algoritmusokat.

A finn Helsinki, Aalto és Turku egyetemek és a zürichi IBM Research Europe együttműködésének eredményeként, kidolgoztak egy, a kvantumszámítógépek hatékonyságát és gyorsaságát növelő sémát.

A kutatók a kvantummérések általánosított osztályával dolgozó algoritmust fejlesztettek. Ezek a mérések a kvantumállapotban sikeresen megtartott adatok kiszámítására vonatkoznak. Minél kevesebb iterációra, időre és számítási energiára van szükség, annál precízebb szimulációk kivitelezhetők.

kvantumhatekonysag.jpg

„Az összes előállított adatot összekombinálva, minden mintából kihozzuk a legjobbat” – magyarázza a Helsinki Egyetemen dolgozó Guillermo Garcia-Pérez.

Mivel a kvantumprocesszorokon az információt kvantumbitekben (qubitekben) és kvantumállapotban vagy hullámfüggvényekben tárolják, olvasásához speciális eljárások kellenek. Hagyományos komputereken kvantumállapotok általában nem rekonstruálhatók, ezért a hasznos adatok speciális megfigyelésekkel – kvantumfizikusok szavajárásával: mérésekkel – kivonatolhatók.

Ezzel az a probléma, hogy sok népszerű alkalmazáshoz rengeteg mérés szükséges. Minél nagyobb a szimulálni kívánt rendszer, annál többről van szó, és a növekedés nagyon gyors. A folyamatot nehéz méretezni, a számítások lelassulnak, rengeteg számítási forrás használódik el.

Az új módszerrel mindez drasztikusan csökkenthető, és így közelebb kerülünk a hihetetlenül pontos szimulációk megvalósításához. Korábbi mérési eredmények is felhasználhatók hozzá, beállítások korrigálhatók. Az összegyűjtött adatok folyamatosan és többletkiadás nélkül újra- és újrahasznosíthatók a rendszer más jellemzőinek kiszámításához.

Krumplit süt a robot

Az infokom-történelem egyik legsikeresebb közösségi finanszírozásával (crowdfunding) ismertté vált – eddig több mint tizenötmillió dollárt „összekalapozott” – kaliforniai Miso Robotics startup bevallott célja az étterem-szektor forradalmasítása, és a „szoftver, mint szolgáltatás” (Software-as-a-Service, SaaS) mintájára, szolgáltatásként használt robotokkal (Robots-as-a-Service, RaaS), intelligens automatizáló megoldásokkal a vendéglátóipart biztonságosabbá, egyszerűbbé és barátságosabbá kívánják tenni.

A cég mesterségesintelligencia-platformja a termelékenységet növelő, a kiadásokat csökkentő és a főzés élményét minden szinten javító gépeket üzemeltet (Flippy 2, CookRight Grill, Flippy Wings stb.). Több vezető márkával működnek együtt, a befektetők száma folyamatosan nő.

miso_1.jpg

Nemrég mutatták be a csúcstermék Flippy új változatát. Flippy 2 tevékenysége a tanuláson és a visszacsatolásokon alapul. Az eredeti robotot Chicagoban alkalmazzák 2020 szeptembere óta, Flippy 2 pedig egy teljes „sütőállomás” munkáját végzi el. Az eredetihez képes több mint kétszer annyi étel-előkészítési feladat kivitelezésére alkalmas, például sültkrumplis kosarakat tölt fel, ürít ki, juttat el rendeltetési helyükre.

Gyorséttermekben köztudottan sok és fárasztó munkát kell végezni, és még a baleset kockázata is fennáll. Flippy 2-vel javul a helyzet, humán kollégái számára jobb a munkakörnyezet, és a konyha kvázi teljes kapacitáson üzemel.

Az első Flippyvel elégedettek az alkalmazói, de a gépnek szinte végig emberi segítségre van szüksége, több munkafolyamatnál kell mellé legalább egy, de inkább két asszisztens.

A fejlesztők sokat tanultak ezekből a kezdetlegességekből, hibákból. Étteremtulajdonosok szerint a jövő egyre ízletesebb kajái részben a robotoknak lesznek köszönhetők. Flippy 2-vel a munkatársaknak lehetőségük van arra, hogy a legegyszerűbb és legkönnyebben automatizálható munkák helyett a komolyabbakra összpontosítsanak.

Flippy 2 gépi látással automatikusan azonosítja a kajákat, hozzájuk nyúl, megfogja és rendeltetési helyükre helyezi őket, szükség szerint süti és főzi ezeket, és vigyáz, hogy ki ne hűljenek. Kollégái kevesebbszer nyúlnak élelmiszerekhez, a rendszer jóval gyorsabb, mint korábban volt.

A robot új designt is kapott, karcsúbb lett, kevesebb teret foglal el, és kevesebb rajta a tisztítandó felület.

Gépi rendszer ismeri fel a gyerekkori autizmust

A Chicagói Egyetem kutatói az autizmust gyerekeknél – rutinellenőrzések során gyűjtött adatok segítségével – kimutató gépitanulás-rendszert fejlesztettek. Tendencia, hogy ezeknél a kisfiúknál és kislányoknál bizonyos egészségügyi problémák (asztma, gyomor és bélrendszeri megbetegedések, görcsök) gyakoribbak, mint másoknál. Előfordulásuk a humán és a gépi szakértő számára egyaránt hasznos diagnosztikai jelzés lehet.

A kutatók klasszikus gépitanulás-technikát, úgynevezett Markov-modelleket használtak, amelyek döntési fák segítségével, előre tudják jelezni bizonyos cselekvések előfordulásának gyakoriságát.

autizmus_1.jpg

Adatsoruk harmincmillió, nulla és hat év közötti gyerekről heti rendszerességgel készült orvosi jelentéseket tartalmaz.

Tizenhét betegségkategóriát, például légzőszervi, metabolikus, táplálkozási stb. rendellenességeket azonosítottak. Mindegyik gyerek kórlapját idősorokká alakították, minden egyes betegségkategóriához egy idősort rendeltek. Például az első héten az illetőnek nem voltak, a másodikon voltak légzőszervi problémái, aztán a harmadikon másfajta betegség tört rá, a negyediken pedig szintén nem volt légzőszervi baja és így tovább.

Az idősorokon hatvannyolc Markov-modellt gyakoroltattak. Betegségkategóriánként egyet, bővítésként pedig a fiú/lány és az autista/nem autista különböző kombinációit használták. A modellek megtanulták prognosztizálni egy-egy betegségkategória valószínűségét, és azt is, hogy a diagnózis tényleg akkor készült-e, amikor az adott megbetegedés történt.

A modellek outputja és az idősorokból kinyert információk alapján, a rendszer osztályozott. Tizennyolc és huszonnégy hónap közötti gyerekeknél, huszonhat hónap alatt 33,6 százalékos teljesítményt ért el, ami ugyan kevésnek tűnik, de ezzel szemben, a diagnosztikai céllal általánosan használt kérdőív pontossága csak 14,1 százalék.

További bíztató jel, hogy a modell kilencven százalékban pontosan azonosította a tényleg autistákat. Ezen a „vizsgán” harminc százalékkal kevesebb hamis pozitívval állt elő, mint a kérdőív. Azaz, a hamis pozitívok kiszűrésében különösen hatékony, az autizmust viszont még így is csak az esetek harmadában szűrte ki. Van még mit megtanulnia.

A föld alá megy a mesterséges intelligencia

Egy kaliforniai cég ígéretes fejlesztése alapján, gépilátás-rendszerek ezentúl földalatti csatornákat is képesek megfigyelni, keresni a bomlás és a romlás jeleit.

A SewerAI startup rendszere a mélyben lévő vezetékekről készült videók elemzésével állít fel elsőbbségi sorrendet, hogy melyiket a legfontosabb megjavítani. Osztályozza a hibákat: repedéseket, töréseket, lyukakat, fák gyökereit stb. A videókat a csatornában csúszó-mászó robotok és humán felügyelőik készítik.

undergroundai0.jpg

A rendszert az ezeken a vizsgálatokon felvett százezer videón, kb. hárommillió percnyi mozgóképen gyakoroltatták. Maga a cég tucatnyi amerikai és kanadai ügyféllel, főként városokkal vagy azok megbízottjaival dolgozik együtt. A HK Solutions Groupnak lehetővé teszi havonta közel százezer méter vezeték kivizsgálását és más munkákat is. A korábbi hetek, hónapok helyett egyetlen nap is elég rájuk.

A mesterséges intelligencia egyre több vállalatnak végzi el a „piszkos munkát.”

undergroundai1.jpg

A washingtoni vízszolgáltató DC Water az Intellel és a szintén információtechnológiával foglalkozó Wiproval teljesen automatizált vezetékfelügyelőt fejlesztett. A pennsylvaniai RedZone Robotics autonóm csúszómászó robotjai által felvett videókban azonosítja a hibákat. A vezetékfelügyelő rendszereket gyártó német IBAK az ügyfelek kamerarendszereivel felvett anyagokban található meghibásodásokat osztályozó technológiát fejleszt gőzerővel.

Nagyon fontos megoldásokról van szó, mert hibás vezetékek csőtörést, áradást okozhatnak, fertőző betegségek terjedését gyorsíthatják fel, és szennyezik a vízforrásokat.

Egy 2019-es felmérés alapján az Egyesült Államoknak 129 milliárd dollárt kellene költeni a kárba vesző vízinfrastruktúra modernizálására. Ez a szám 81 milliárddal több a jelenlegi törvények, szabályozás által előírt összegnél, ami igen komoly különbség.

Gépilátás-rendszerek nemcsak a humán felügyelők munkáját segíthetik, hanem – több vezeték átvizsgálásával – a dollárok hatékonyabb felhasználásából is kivehetik a részüket.

Milyen gyógyszerek segítenek a depresszió kezelésében?

Sokmillióan szenvednek a depressziótól, és több gyógyszert próbálnak ki, míg meg nem találják a valóban hatásost. Orvosaikkal közösen gyakran hónapokon keresztül kísérleteznek. A gépi tanulás és az általa készített pontos előrejelzések segíthetnek rajtuk, és így jóval kevesebbet kell majd találgatniuk.

Ez azért lehetséges mert a Texasi Egyetem Délnyugati Orvosi Központjának kutatása alapján a depresszióra specializált mesterséges intelligencia képes előrejelezni, hogy a páciensek hogyan reagálnak két antidepresszánsra.

depresszio_1.jpg

Az érintettek agyának szkennelését követően az agytevékenységben változatos mintázatok mutathatók ki. A különféle gyógyszerekre adott reakciókban szintén tapasztaltak eltéréseket. Az agyról készült szkennelés és az eredményes kezelésről szóló ismertetők alapján, a texasi kutatók által fejlesztett ideghálók megtanulják, hogyan párosítsanak betegeket szimptómáikat valószínűleg megszüntető gyógyszerekhez.

Több ideghálót tanítottak be a két gyógyszer és placebo hatására bekövetkező depressziószint-változások előrejelzésére. Az adatokat két klinikai tesztből szedték össze: az első 222 súlyos rendellenességekkel küzdő személyről szólt. Felük rendes gyógyszert (Zoloftot), másik felük placebot kapott. A második teszt 37 résztvevőjének szervezete nem reagált a Zoloftra, ezért esetükben más gyógyszerrel (Welbutrinnal) próbálkoztak.

depresszio0_1.jpg

Az adatsor 95 klinikai és demográfiai tulajdonságot tartalmazott: például az öngyilkosság kockázatát, a nyugtalanság mértékét, a bőrszínt, az életkort, valamint minden egyes beteg saját maga által megállapított depressziószintjét a nyolchetes kezelés elején, illetve végén.

A kezelés előtti fMRI szkennelés közben a páciensek számkitaláló játékban vettek részt. Ez a játék depresszió miatt módosult agyfunkciókat indít be. A kutatók speciális módszerrel életnagyságúra, azaz realisztikusra nagyították a szkeneket. A valódikat és a szintetikusakat kétszáz területre osztották, az agytevékenységet pedig ez alapján számszerűsítették, szkenenként hatszáz jeggyel.

Az első modell 48, a második 34 százalékot ért el, míg a mélytanulás (deep learning) nélküli technikákkal általában csak tizenöt százalék körüli eredményt szoktak elérni.

Mielőtt azonban a módszer klinikai gyakorlattá válna, a modelleknek jóval több antidepresszánst kell ismerniük. A kutatók most ebben az irányban folytatják munkájukat.

Chatbot hosszútávra?

A legkorszerűbb internetes beszélgető robotokat, azaz chatbotokat általában rövid párbeszédeken gyakoroltatják. Ezzel magyarázható, hogy hosszabb csevegések során gyakran mondanak a témával köszönőviszonyban sem lévő blődségeket.

A legelterjedtebb (transformer) architektúrán alapulók a csevegés maximum 1024 jellemzőjét (karakterek, szavak, szórészletek stb.) elemezve társalognak, dolgoznak ki válaszokat.

A Facebook korábban egy ideig architektúrát használt a legrelevánsabb korábbi állítások meghatározására. Csakhogy egy hosszú beszélgetésben a releváns állítások 1024-nél jóval több jellemzővel rendelkezhetnek.

chatbot_2.jpg

A beszélgető robotok teljesítményének javításáért, három kutató (Jing Xu, Arthur Szlam, Jason Weston) újfajta gyakorlást talált ki: a botnak a szövegkörnyezetet kell követnie. Menet közben készít a későbbiekben hasznos fogódzókként funkcionáló összefoglalókat, azok alapján generál válaszokat.

Az új chatbot már fent van a Facebookon.

Az információk összegzésével a modell több szövegkörnyezetet ismer meg, mint a legismertebb és legnyitottabb chatbotok (BlenderBot, Meena, és főként BART).

A kutatók ötezernél több beszélgetésből álló adatsoron gyakoroltatták a három transformerből álló rendszert: az egyik összefoglalt, a másik kiválasztotta az öt legrelevánsabb összefoglalót, a harmadik választ generált.

A felhasznált anyagban önkéntespárok beszélgettek. Minden egyes beszélgetés három-négy szakaszból állt, szakaszonként maximum tizennégy üzenettel, és akár egy hét is eltelhetett köztük.

A szakaszokat követően az önkéntesek később referenciaként szolgáló összegzéseket készítettek, és még a fordulatokat is összegezték vagy felcímkézték (hogy ezúttal nincs szükség összefoglalóra).

A modell jobban és pontosabban működött, mint a vele összehasonlított csúcskategóriás chatbotok, és talán képes lesz több témáról, a témák közötti váltások/ugrások ellenére is értelmesen beszélgetni.

Ki engedheti meg magának egy mesterséges intelligencia taníttatását?

Egy 2020-as tanulmányból kiderül, hogy egy 1,5 milliárd paraméteres MI-modell (mint az OpenAI GPT-2-je volt) Wikipédián és a Book corporán történő gyakoroltatása 1,6 millió dollár. Felmérték a Google 11 milliárd paraméteres Text-to-Text Transformerét (T5) is, és kiderült, hogy tízmillióba került a taníttatása.

A Google közben már egytrillió paraméteres modellt (Switch Transformer) gyakoroltat, a költségekről azonban (egyelőre) nem közöltek adatot.

training_ai0.jpg

Mivel a mesterséges intelligencia jelentősége a modellek tanulási költségével párhuzamosan nő, kisebb cégeknek egyre kevesebb az esélye a hatalmas versengésben. Ez nemcsak a gazdasági lehetőségeknek és a piacnak rossz, hanem az innovációt is lassítja.

Egyes vállalatok ezért teljesen logikusan, olcsóbban, kevesebb számítással szeretnék elérni ugyanazt vagy a még jobb teljesítményt.

trainig_ai.jpg

A munkahelyi chathez keresőeszközöket és más appokat fejlesztő Gleannek egyszerűen nincs elegendő pénze a termékei minőségét javító nagy nyelvi modellek trenírozására. Helyette kisebbekkel próbálkozik.

Az egészségügyi szolgáltató Optum kb. ötvenezer dollárt költ modellek számítási felhőben történő taníttatására. Speciális hardverekkel igyekszik felgyorsítani a folyamatot.

A gépilátás-platformot kínáló Matroid saját GPU-ját használja. Legnagyobb modelljeit is százezer dollár alatt képes begyakoroltatni.

A Mosaic ML startup a gyakorlás hatékonyságát növelő technikákon dolgozik. „Lottójegy” elméletük alapján egy ideghálónak csak kis része végzi el az összes és különösen a fontos munkát.

Nagyon nagy modellek gyakran azokban a feladatokban jók, amikor rengeteg és bonyolult az adat, és a piac csak egy győztest fogad el. Egyes alkalmazásokban, például macskák fényképeken történő felismerésekor a nagyobb modellekkel viszont vagy túl sok idő megy el, és így túl költségesek a feladathoz, vagy megkérdőjelezhető eredményeket érnek el. Ha a jövőben is így marad, még a gazdag piacvezető cégek sem őrizhetik meg sokáig a jelenlegi versenyelőnyüket.

Hogyan válhat globálissá Oroszország Ukrajna elleni cyberháborúja?

Moszkva több mint százezer katonát küldött az ukrán határ közelébe, és egyelőre egyetlen lövés nem dördült el, a cyberháborús műveletek viszont már megkezdődtek.

Hackerek több ukrán kormányzati oldal működését veszélyeztető támadást indítottak, amely ugyan látványos volt, felhívta magára a világ figyelmét, ám közben kevésbé látványosan, de hatékonyabban, pusztító malware-eket (WhisperGate) telepítettek ukrán kormányügynökségek honlapjaira. Nem tudni, ki a felelős, de Moszkva az elsőszámú gyanúsított.

russiancyberwar.jpg

Ukrajna a célpont, de szakértők figyelmeztetnek: a hackertámadások az egész világot érinthetik, az Európai Uniót, az Egyesült Államokat és másokat is fenyegethetnek. Egy cyberháború nem ismer határokat, gyorsan elszabadulhat, kirobbantói is elveszítik a kontrollt felette.

Az amerikaiak meg vannak győződve, hogy hamarosan elkezdődik az invázió, és a kritikus infrastruktúra működtetőinek gyors megelőző, védekező lépéseket javasolnak. Két 2017-es támadásra, a NotPetyára és a WannaCry-ra emlékeztetnek, mindkettő túlnőtte magát az eredeti célpontokon, gyorsan terjedt az interneten, tízmilliárd dolláros kárt okozva. A párhuzam egyértelmű: szintén feszültségekkel teli időben, NotPetyával az oroszok Ukrajnát célozták meg.

russiancyberwar0.jpg

Agresszív cybertámadásokat gyakran használnak tényleges fegyveres konfliktusok előtt, és ha az USA és szövetségesei még egyértelműbben kiállnak Ukrajna mellett, az eddigieknél is agresszívebb attakokra számíthatunk az orosz féltől. Ez elég valószínű, Joe Biden be is jelentette, hogy az USA válaszolhat az Ukrajna elleni online műveletekre.

Az elmúlt évtizedben Moszkva többször (2014, 2015, 2016 stb.) indított cybertámadást az ukránok ellen. Megtámadták az elektromos műveket, 2015-ben Kijev elsötétedett – ilyesmit senki sem tett még előttük. A magát zsarolóvírusnak álcázó NotPetya az eddigi csúcs, és rossz hír, hogy WhisperGate hasonló: ugyan zsarolóvírusnak adja ki magát, ám kulcsfontosságú, gépek működését leállító adatokat semmisít meg. Szerencsére nem annyira szofisztikált, és nem terjed olyan gyorsan, mint az elődje.

Moszkva természetesen minden tagad. Az amerikaiak nem bíznak bennük, és mások sem. Nem véletlenül, mert az orosz fél több választásba igyekezett beavatkozni, dezinformációs műveletekkel próbálja rongálni a nyugati szövetségesek közötti összetartást.

Az amerikaiak most nem attól tartanak, hogy közvetlenül támadnak ottani vagy EU-s célpontokra, hanem az Ukrajna elleni online agresszió elszabadulásától félnek.

süti beállítások módosítása