Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Emberek megtámadására programozott, leláncolt robotkutyát állított ki egy japán művész

2025. február 25. - ferenck

A tokiói Toda Hall és Konferenciateremben február huszonnegyedikén zárult csoportos kiállítás egyik darabja Takayuki Todo Láncra kötött kutya dinamikája felháborította a közönséget. A mű egyrészt gyorsan fejlődő technológiákkal kapcsolatos biztonsági kérdéseket vet fel, másrészt az egyre bonyolultabb ember-gép viszonyt vizsgálja.

A művész elmondta, hogy a zaklatott robottal a zaklatás lélektanára akarta felhívni a figyelmet, hogy mennyire sajnáljuk a zaklatott lényeket. Közben az emberi pszichológiával is kísérletezett.

tokioi_robot.jpg

„Úgy érzem, figyelembe kell venni azoknak a lélektanát, akik a bántalmazás, a szánalmas, a gusztustalan szavakkal reagáltak az ízléstelen kiállításra. Abban a pillanatban ugyanis élőlényként fogtuk fel ezt az ember által készített tárgyat” – magyarázza Todo.

Az installációban a kínai Unitree gyártó két robotkutya modellje szerepelt, mindkettőt falhoz láncolták, és képesek voltak lekövetni az emberi mozgásokat. Az egyik mozdulatlanul feküdt, a másik a biztonságos távolból, egy sárga szalag mögül figyelő nézők felé rohant, persze csak addig, ameddig a láncai engedték. A szalag a betartandó távolságra figyelmeztetett.

A lánc időnként a kutya teste köré tekeredett, a művész így próbálta változatossá tenni a gép mozgását, amivel a közönség szemében megerősítette a „bajba jutott állat” képzetet.

Egyes kommentek szerint a robotbemutató kíméletlenül emlékeztetett arra a világra, amelyben élünk, a gépek az emberi szenvedést tükrözték vissza. Szinte mindenki együtt érzett a kutyákkal.

Todo elmondta, hogy megijedt, amikor először olvasott a Boston Dynamics 2004-ben bemutatott Big Dogjáról, mert elképzelte róla, hogy embereket válogatás nélkül megölő fegyver. A Black Mirror tévésorozat 2017-es Metalhead epizódja tette széles körben ismertté az ötletet. Ma viszont már kevesen kételkednek abban, hogy robotok ember nélküli fegyverrendszerként is használhatók. Todo ezért igyekszik az ember-gép kapcsolat kevésbé vizsgált részeire fókuszálni műveiben.

Előző munkájában (SEER) egy humanoid robottal, tekintetet és arckifejezés kiváltotta érzelmi kapcsolatok lehetőségét tanulmányozta. 

Egy másik művész, a lengyel-amerikai Agnieszka Pilat három Boston Dynamics robotja fél-autonóm módban négy hónapig festett a tavalyi Melbourne-i Triennálén.

Hogyan fordítható ellenünk a mesterséges intelligencia?

A korábbi futurisztikus álom, a mesterséges intelligencia, ha nem is feltétlenül úgy, ahogy elképzeltük, de valósággá vált. Az MI-nek azonban, ugyanúgy, mint más technológiának, megvannak a maga kockázatai, például sérülékeny a cybertámadásokkal szemben.

A MyCena információbiztonsági vállalat nyugtalanító trendre hívja fel a figyelmet: az utóbbi két évben az MI-t használó szervezetek közel nyolcvan százalékánál előfordultak biztonsági rések. A klasszikus módszerek, a jelszavak és a többlépcsős autentikáció nem elegendők, mert a hackerek új módszereket dolgoznak ki rendszerek MI-specifikus sebezhetőségeinek kihasználására.

hogyan_fordithato_ellrenunk_az_mi.jpg

Az egyik ilyen az adatmérgezés, amikor az irdatlan adatmennyiségből tanuló mesterséges intelligencia megtanul hazudni. Ez azért történhet meg, mert az adatok manipuláltak.

Képzeljük el, hogy önvezető autó mérgezett adatokon tanul, és félreértelmezi a közlekedési jeleket, vagy orvosi MI-t pontatlan információkkal gyakoroltattak be, és félrediagnosztizálja a pácienst.

Az API, az alkalmazásprogramozói felület kihasználása a mesterséges intelligenciánkhoz vezető hátsó kapu. Ezek a felületek az MI világ hírvivői, különféle rendszerek általuk kommunikálnak egymással. Ha viszont nem elég biztonságosak, a hackerek gyorsan lecsapnak, érzékeny adatokhoz férnek hozzá, kritikus rendszereket tarthatnak ellenőrzés alatt.

Például API-n keresztül irányíthatják az intelligens otthont: kikapcsolják a világítást, kinyitják az ajtókat, leállítják a biztonsági megoldásokat. Vagy egy üzem MI-vel vezérelt gyártósorára beszivárogva idéznek elő leállásokat.

Az MI-vel működő pszichológiai manipuláció, social engineering a megtévesztés új korszaka, amikor a hacker fegyverként használja a technológiát, mesterséges intelligenciával feljavítja és automatizálja módszerét, így pedig nehezebb lefülelni, megállapítani, ki is áll a problémák mögött.

Annyira személyre szabott adathalász e-mailt kapunk, hogy simán elhisszük: tényleg a legjobb barátunk küldte. Valódi és sürgős, és persze SOS-ben kéri banki adatainkat. Mit teszünk ilyenkor? Vagy kamuvideón a vállalatigazgató fontos döntést jelent be, amelynek a hatására a részvények repülőzuhanásba kezdenek.

Teljesen egyértelmű, hogy első körben robusztus új biztonsági megoldásokra, az alkalmazottak MI-képzésére, a cyberbiztonsági kultúra széleskörű elterjesztésére lenne szükség.

Saját chipet tervez az OpenAI

Az OpenAI csökkenteni szeretné függőségét az Nvidia chipjeitől. A cél érdekében saját tervezésű chipeket szeretnének, és dolgoznak is már az első generáción.

A következő hónapokban fejezik be az első terveket, majd a kész anyagot elküldik a világvezető Taiwan Semiconductor Manufacturing Co-nak (TSMC). A két vállalat egyelőre nem kommentálta a sajtóhírt.

openai_8.jpg

A tömeges gyártást elvileg 2026-ban kezdhetik meg. Egy chip tipikus első változatának elkészítése több tízmillió dollárba kerül, a végtermék nagyjából hat hónappal később készül el. Ez a normális gyártási menet, és így is lesz, hacsak az OpenAI nem fizet szignifikánsan nagyobb összeget a tajvani gyártónak. Semmi garancia nincs arra, hogy rögtön az első változat működjön, és hiba esetén tovább tarthat a gyártás.

Az OpenAI-nál mindenesetre úgy látják, hogy egy ilyen, gyakorlás-központú chip erősíti a cég beszállítókkal szembeni pozícióját. Az első chip után, a vállalat egyre fejlettebb processzorokat kíván előállítani, amelyek aztán minden egyes iteráció után jobban teljesítenek.

Ha minden rendben megy, az OpenAI tömegesen gyárthatja a TSMC-vel közösen első házon belüli mesterségesintelligencia-chipjét, és még 2025-ben tesztelheti az Nvidia-technológia alternatíváját. Az a tény, hogy ebben az évben elküldik a tajvani gyártónak a tervet, egyértelműen jelzi: gyorsan haladnak.

Más technológiai nagyágyúk, például a Microsoft és a Meta évek óta próbálkoznak hasonlóval, de házon belül nem jutottak el az igényeiket kielégítő megoldásig. A DeepSeek sikere pedig felvetette a kérdést, hogy a jövőben esetleg kevesebb chippel is megvalósítható csúcskategóriás MI-modell. 

A Meta hatvan-, a Microsoft nyolcvanmilliárd dollárt tervez 2025-ben mesterségesintelligencia-infrastruktúrára költeni, míg az OpenAI részt vesz a Donald Trump által januárban bejelentett ötszázmilliárdos Stargate infrastruktúra-programban. Az emelkedő árak és az egyetlen beszállítótól (Nvidia) való függés házon belüli kísérletekhez vagy külső alternatívák kereséséhez vezet.

Ha sikerül megvalósítani, az OpenAI korlátozottan fogja használni a chipjét. Ha nagyobb lélegzetű fejlesztés a terv, akkor sok mérnököt kell még felvenniük hozzá.

Kártyavárként omolhat össze az univerzum

A kvantumvilágból félelmetes következtetések vonhatók le, bizonytalanságok sokasága szivároghat be a valóságról alkotott rendszerezett világképünkbe. Például, hogy a teljes univerzum hamis vákuumban vagy hamis stabilitás állapotában van, és stabilabb állapotba „omolhat össze.”

Egy, a kvantummechanikát, relativitáselméletet, szinte bármit a fizikából egyesítő kvantumelmélettel foglalkozó nemzetközi tudóscsoport szerint ez megtörténhet, és a Nature-ben publikáltak is egy tanulmányt róla. Szimulációt futtattak le, felvillantva, hogyan érhet drámai módon véget az általunk ismert világ.

univerzum.jpg

Az univerzum szerkezetét teljesen megváltoztató folyamatról beszélünk. Az alapvető állandók rövid idő alatt módosulhatnak, és a világ kártyavárként omolhat össze – magyarázza a tanulmányt Zlatko Papic, a Leeds Egyetem elméleti fizikusa.

A hamis vákuum-elmélet nem új, a kutatók szerint munkájuk viszont a jelenség mögötti mechanizmusok első nagyléptékű szimulációja. A hamis vákuumban lenni a kozmosz legalacsonyabb energiaállapotát jelenti. Ez a csak átmeneti, a jövőben még alacsonyabb vagy az alapra csökkenő vákuumenergia.

A jelenség több völggyel, de csak egy igazi legalsóbb állapottal rendelkező hullámvasúthoz hasonló. Ha ez igaz, akkor jelenleg az egyik völgyben, a metastabilitás állapotában vagyunk. Ez átmeneti állapot, bár kozmikus léptékben évmilliókig, sőt évmilliárdokig is eltarthat. A kvantummechanika lehetővé teszi, hogy az univerzum a legalacsonyabb energiájú állapotba vagy az „igazi” vákuumba jusson. A folyamat kataklizma-szerű globális eseményhez vezethet.

Az elmélet középpontjában buborékok, az „igazi” vákuum hamis vákuumban képződött régiói állnak. A tudósok feltételezése, hogy a buborékok kialakulása kozmikus vákuumbomlást vált ki. A buborékok kifinomult fizikáját nehéz volt feltárni. 5564 qubites, speciális kvantumgéppel szimulálták a kialakulásukat, a hamisból az igaz vákuumba átmenő rendszert, hogy milyen komplexek a buborékok interakciói. 

Legfontosabb felfedezésük az volt, hogy – összhangban az elmélettel –méretüket a térfogati energianövekedés és a felszíni energiaveszteség határozza meg. Papic szerint izgalmas, hogy az új eszközök asztali laboratóriumként használhatók az univerzum alapvető dinamikus folyamatainak megértéséhez.

A tanulmány eredményei ugyan túlságosan ezoterikusnak tűnhetnek, a kutatók szerint a buborék-interakciók megértése viszont sokat segíthet kvantumszámítógépes hibák kijavításában. mert az alapokat jelentő qubitek ugyanis közismerten instabilak.

Lemezlovasként alkalmaztak egy katonai robotot egy San Franciscói klubban

San Francisco és a Szilícium-völgy a technológiai elit földje, ezért a legfurább ottani projekteken sem lepődünk meg. Például azon sem, hogy a Temple éjszakai klubban mesterséges intelligenciával működő robot játszik lemezlovasként.

A DJ-ket nem szokták említeni az automatizáció által fenyegetett állások között. Munkájuk változatos, ismerniük kell a zenéket, de gépi szempontból még fontosabb, hogy kapcsolatot kell teremteniük a közönséggel, a szó szoros értelmében meg kell mozgatniuk őket. Azaz rendelkezniük kell az empátia kifejezetten emberi, gépileg nehezen (egyelőre nagyjából sehogy sem) utánozható készségével.

robot_dj0.jpg

A fekete Phantom robot a Foundation (Alapítvány) Robotic Lab startup fejlesztése. Katonai célokra tervezték, ő a cég első nyilvánosan szereplő robotja, a későbbiekben autókat gyártó, raktárakban ténykedő – és persze harci zónákban aktív – humanoidok követhetik.

Mike LeBlanc a nevével Isaac Asimov előtt tisztelgő startup társalapítója tizenhárom évet szolgált a haditengerészetnél, és elmondta, hogy ügyfeleik között autógyártók, raktári és logisztikai cégek szerepelnek, de az amerikai Védelmi Minisztérium is a listán van. Gépeiket egyelőre békés célokra, repülőgép-karbantartásra és távoli régiókban üzemanyag-feltöltésre használja a hadsereg.

robot_dj.jpg

A Boston Dynamics és öt másik vezető robotikai cég megállapodott, hogy robotjaikat soha nem használhatják fegyverként. LeBlanc pont fordítva látja, szerinte a humanoid robotok kulcsszerepet játszanak a jövő hadviselésében. Ezért fejlesztenek nagyobb, gyorsabb és erősebb gépeket.   

Phantom január 31-én, egy péntek éjszaka debütált lemezlovasként. A Tech GigaParty rendezvény a 21. század első huszonöt évét volt hivatott ünnepelni, illetve a rendezők igyekeztek a hátralévő hetvenötből is felvillantani valamit a Burning Man fesztiválra emlékeztető publikumnak. LeBlanc szerint a robot kulturális-diplomáciai küldetést teljesített a bulin. Technót és house-t játszott harminc percben, humán DJ-t követett. Hetekig tanították a mozdulatokra, a számok kiválasztásában emberek segítették előzetesen.

Sankaet Pathak a másik társalapító elmondta, hogy a DJ-szett a távoli múlttól a messzi jövőig mesélte el az ember történetét. A kísérő vizuális anyagot MI generálta.

Számítógépet használnak az ágensek

Az Anthropic, a Google, az OpenAI és más mesterségesintelligencia-fejlesztők számítógép-használatra alkalmas ágenseken dolgoznak. A kínai Tsinghua Egyetem és a szintén kínai ByteDance vállalat kutatói bemutatták, hogyan gyakoroltathatók az ágensek alapjául szolgáló modellek ehhez.

UI-TARS modelljük a Qwen2-VL kép-nyelvmodell finomhangolt változata érvelést használva dönt arról, hogyan klikkeljen az egérrel, a billentyűzeten mire nyomjon rá, és sajátítson el más cselekvéseket desktop gép és mobilalkalmazások használatához. A súlyok az Apache 2.0-án keresztül kereskedelmi és nem-kereskedelmi célokra egyaránt szabadon használhatók.

agens.jpg

A kutatók gondolatláncokkal (Chain-of-Thought, CoT) úgy bővítették a képernyőképekből és cselekvésekből álló gyakorló adatsort, hogy nem pontosított kép-nyelv modellt promptolva, az az aktuális cselekvéseket korábbi képernyőképek, cselekvések és generált CoT-k alapján magyarázta meg. Mivel a magyarázat időnként rossz volt, többféle CoT-t és cselekvést generáltak az adott képernyőképhez, majd kiválasztották a korrekt cselekvéshez vezető gondolatláncot.

A finomhangolt UI-TARS utasításból, képernyőképekből, CoT-kből és cselekvésekből CoT-t és cselekvést generált. Utána virtuális PC-n lefuttatták, kiszűrték a hibás CoT-ket és cselekvéseket, az outputokat pontozták, az alacsony pontszámúakat eltávolították, aztán a folyamatot és a finomhangolást megismételték. Humán résztvevők a CoT-ket és a cselekvéseket úgy korrigálták, hogy egyrészt elkerüljék a hibákat, másrészt, ha mégis van hiba, javítsák ki azokat.

Végül a modellt úgy optimalizálták, hogy az előző lépés hibás példáival szemben előnyben részesítse a javított példák generálását. Az UI-TARS következtetéshez kapott egy képernyőképet, egy utasítást és egy lehetséges műveletet, majd létrehozta a CoT-t és a végrehajtandó műveletet. Ezt követően új képernyőképet kapott, és megint generált hozzá gondolatláncot és cselekvést, és így tovább.

UI-TARS remek teszteredményeket ért el, például vagy ugyanúgy, vagy jobban teljesített, mint az Anthropic Claude 3.5 Sonnet csúcsmodelje. 

Fokozódik a verseny, olcsóbb csúcsmodell az OpenAI-tól

Az OpenAI közkinccsé tette az o1 modellek utódát, a gyorsabb, kevésbé drága, kódolásban, matematikában és tudományokban különösen jól teljesítő o3-minit. A nagy nyelvmodell (LLM) választható alacsony, közepes és magasszintű érvelési „erőfeszítést” kínál.

Mit jelent ez a valóságban? A szintek progresszíven több érvelési tokent kínálnak gondolatlánc (Chain-of-Thought, CoT) generálására, ami persze több időt és magasabb költséget is jelent. A modell a ChatGPT Plus, a Team és a Pro előfizetői számára, valamint az API (alkalmazásprogramozói felület) felhasználói körében érhető el. Regisztrált felhasználók az ingyenes ChatGPT szolgáltatáson keresztül, az „érvelés”-t választva tesztelhetik.

o3.jpg

Az o3-mini gyakorló adatkészletének összeállítói a tudományos és technológiai területen történő problémamegoldásra fektették a hangsúlyt, a modellt megerősítéses tanulással finomhangolták gondolatlánc-adatokon. Az o1 családhoz hasonlóan, díjat számít fel az érvelési műveletek során feldolgozott tokenekért, amelyeket elrejt a felhasználó elől. A rivális érvelő modellek, mint például a DeepSeek R-1, a Gemini 2.0 Flash Thinking és a QwQ-32B-Preview elérhetővé teszik ezeket a tokeneket.

Az o3-mini maximális inputja 200 ezer, maximális outputja százezer token, ismeretbázisát viszont 2023 októberével lezárták.

A felhasználók dicsérik a gyorsaságát, érvelését és kódolási képességeit. Megállapították, hogy a sok kontextusos, „tömbszerűbb” promptokra jobban reagál. Kisebb mérete miatt azonban nem rendelkezik a való világ átfogó ismeretével, és tények felidézésével is problémái vannak.

Nem sokkal az o3-mini közkinccsé tételét követően az OpenAI bemutatta a „mélykutató” ágenst (deep research), az o3-on alapuló ChatGPT kutatóágenst. Magát az o3 családot decemberben, a CoT-megközelítés újabb evolúciós állomásaként jelentették be. A mostani közkinccsé tétel kicsit úgy tűnik, mintha a kínai DeepSeek R-1-ére igyekeztek volna gyorsan reagálni, de az OpenAI hangsúlyozza: minden az ütemezés alapján megy. Egy biztos: tovább bővítették, finomították az o1 család érvelő-technológiáját, amellyel más fejlesztőknek is felállították az új mércét. Újabb alkalmazások várhatók, az MI egyre inkább szakmai partnerként, nem pedig intelligens gyakornokként fog működni.

Minél több felhasználó tanulja meg, hogyan promptoljon érvelő modelleket, annál jobb lesz az eredmény.

Kínai asztronauták mesterséges fotoszintézissel készítenek rakéta-üzemanyagot a világűrben

Kínai asztronauták elmondták, hogy a kelet-ázsiai szupernagyhatalom Tiangong űrállomásán, a Shenzhou-19 űrmisszió keretében, a „mesterséges fotoszintézis” nevű új eljárással rakéta-üzemanyagot – üzemanyag-összetevőket – készítettek, valamint oxigént és más fontos, hasznos űrbéli forrásokat is állítottak elő.

A széndioxidot és a vizet félvezető katalizátorokkal alakították oxigénné és etilénné. Ezt a szénhidrogént általában űrjárművek hajtóanyagainak előállításához használják.

kinai_urhajosok.jpg

A technológia zöld növények természetes fotoszintézisét utánozza fizikai és kémiai mérnöki módszerekkel. A széndioxid-forrásokat zárt terekben vagy földönkívüli légkörben oxigén és szénalapú üzemanyagok előállítására használják.

A kísérlet távlatosabb projekteket alapozhat meg. Olyan erőfeszítésekhez szolgálhat kiindulási pontként, hogy távoli helyeken lévő erőforrásokat a helyszínen alakítsanak át más forrásokká, például belélegezhető levegővé vagy az interplanetáris űrutazásokhoz szükséges rakéta-üzemanyaggá.

kinai_urhajosok0.jpg

A kínai asztronauták munkája egyben kritikus technikai támogatást is nyújt az ember űrbéli túléléséhez és a világűr további felfedezéséhez.

Félvezető katalizátorok használata eltér a hagyományos oxigén-előállító technikáktól, mint például a Nemzetközi Űrállomáson (ISS) alkalmazott elektrolízis, amellyel a napenergiát belélegezhető levegő forrásává alakítják át. Szakértők szerint az elektrolízis viszont túlzottan energiaigényes hosszútávú űrutazásokhoz.

Elektrolízis helyett a kínai kutatók kisebb energiahasználatot várnak a széndioxid mind szobahőmérsékleten, mind szabvány légköri nyomás alatti félvezető katalizátorokkal történő átalakításától. Részletekről egyelőre nem árultak el sokat, úgyhogy még nem tudni, mennyire és hogyan kivitelezhető, különös tekintettel az olyan távoli és barátságtalan környezetekre, mint például a Mars felszíne.

Ha viszont bebizonyosodik, hogy a módszer működik, a kínai űrkutatás komoly lendületet kap. 2035-ig a Hold déli sarkának környékén kívánnak bázist létesíteni, amelyhez állandó és belélegezhető, megbízható oxigénforrásra, az űrhajó visszaútján pedig üzemanyagra lesz szükségük.

Felpörög a megerősítéses tanulás

A DeepSeek R-1-e és a szintén remekül teljesítő Kimi k1.5 egyaránt megerősítéses tanulással generálja érvelését. Az OpenAI o1 körüli tavalyi munkák úttörőnek számítanak ezen a területen. 

Konklúzió? A megerősítéses tanulás több éves elbizonytalanodás után mégis az egyik legjárhatóbb út nagy nyelvmodellek (LLM-ek) fejlett érvelésének kidolgozásában.

megerositeses_tanulas.jpg

A technika lényege, hogy a modellt jutalmazza vagy bünteti adott cselekvés megvalósításáért, célok kivitelezéséért. A felügyelet melletti és a felügyelet nélküli tanulással ellentétben, az outputot nem hasonlítja össze ismert igazságokkal, explicit nem is mondja meg a modellnek, hogy milyennek kell lennie az outputnak. Helyette a random viselkedő modell a jutalom alapján jut el az óhajtott viselkedésig.

A megerősítéses tanulás például ezért nagyon népszerű játékos vagy robotirányító modelleknél. Ezeken a területeken nélkülözhetetlen is, LLM-ek fejlesztésénél viszont az emberi preferenciákhoz való igazodásra korlátozódott.

Emberek vagy az MI megítélésének megerősítése volt az elsődleges módszer, hogy az LLM-eket emberi preferenciákhoz való igazodásra ösztönözzék, A közvetlen preferencia-optimalizálást csak ezt követően dolgozták ki. 

Az újfajta LLM-ek esetében, az általuk generált gondolatláncot (Chain-of-Thought, CoT) javítandó, a megerősítéses tanulás pontos megoldásra bátorítja a modellt matematikai, kódolási, tudományos és minden olyan probléma esetében, amelyre létezik ismert megoldás. A tipikus LLM-gyakoroltatással ellentétben, amikor a modell outputjaiból a következő tokent generálja, és tokenenként kap visszajelzést, ezúttal a jó megoldáshoz vezető érvelő lépések szekvenciájáért kap jutalmat.

Még akkor is így tesz, ha közben, a prompt és a válasz között sok közbülső tokent kell generálnia. A megteendő következtető lépések explicit gyakorlása nélkül megtervezi a kimenetet, leellenőrzi a következtetést, értékeli a megközelítést. LLM-fejlesztők meg is lepődtek, mennyire hasznos ezen a területen a megerősítéses tanulás.

A technika nem egészen három éve túl bonyolultnak tűnt ahhoz, hogy megérje fáradozni vele. Most kulcsfontosságúvá vált.

Izgalmas és tanulságos a gépi tanulás fejlődéstörténete.    

Lekapcsolták a cyberbűnözés két legnagyobb piacterét

A német hatóságok által vezetett, az Europol, az amerikai Igazságügyi Minisztérium és az amerikai szövetségi bűnüldöző ügynökségek támogatását élvező nemzetközi akció felszámolta a két legnagyobb cyberbűnöző piacteret, a Cracked-et és a Nulled-et. A piactereken negatív figurák kereskedtek illegális javakkal, köztük hackelésre alkalmas eszközökkel.

A műveletben Németország és az USA mellett Ausztrália, Franciaország, Görögország, Olaszország, Románia és Spanyolország is részt vett.

cybercrime.jpg

Hét ingatlant kutattak át, tizenhét szervert és hatvanhét eszközt foglaltak le, több mint 300 ezer dollárnyi készpénzt és kriptovalutát koboztak el, két személyt vettek őrizetbe. Egyikük Spanyolországban élő argentin állampolgár, ő volt a Nulled egyik adminisztrátora.

A két fórum által tíz országban használt tizenkét fiókot és tíz domént, egy fizetési szolgáltatót és egy tárhelyet is leállítottak. Mindezek az illegális oldalakat támogató gazdasági hálózathoz tartoztak.

cybercrime0.jpg

Az Europol szerint a két piactérnek együtt több mint tízmillió felhasználója volt, cyberbűnözők „egyablakos ügyintézési pontként” használták illegális javak és „cyberbűn, mint szolgáltatás” (cybercrime-as-a-service, CaaS) termékek, például lopott adatok, malware-ek és hackeléshez használt programok beszerzéséhez.

Az USA Igazságügyi Minisztériuma közölte, hogy a Cracked 2018 márciusa óta értékesített lopott bejelentkezési adatokat, hacker-eszközöket és szolgáltatásokat malware-ek és lopott adatok tárolására. Több mint négymillió felhasználója volt, a termékeket huszonnyolc millió posztban reklámozták.

Szövetségi ügyészek szerint az oldal több mint négymillió dollárt keresett, és tevékenysége miatt minimum tizenhétmillióan váltak áldozattá csak az Egyesült Államokban.

A Nulled 2016 óta kínált hasonló termékeket több mint ötmillió felhasználójának, negyvenhárom milliónál több hirdetett posztban. Évi bevétele meghaladta az egymillió dollárt.    

süti beállítások módosítása