Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

A TikTokon máig valótlanságok terjednek a koronavírusról

2023. június 21. - ferenck

A TikTok egyedi funkcióit a Covid-19-cel kapcsolatos valótlanságok terjesztésére használták – derül ki Morgan Lundy, az Urbana-Champaign Illinois Egyetem PhD-hallgatójának kutatásából.

A szövegformátumú Twitterrel ellentétben, a TikTok megtévesztő információk észrevételét jelentős mértékben megnehezítő mikrovideó-formátumot használ. Lundy ezért alkalmazott kvalitatív eljárásokat a dezinformáció megjelenési módjának mélyebb megértéséhez.

tiktok_covid.jpg

A TikTokon nagyon gazdag médiakörnyezetben terjed az információ: hang, álló és mozgóképes anyagok, szövegek, testbeszéd, mémek, valamint mindezek kontextusa. Egyszerre hatnak egymásra, létrehozva a megosztásra szánt „jelentést” vagy információt/dezinformációt.

Lundy kettős megközelítést használt: egyrészt algoritmust gyakoroltatott, és hashtag mintavételekkel dolgozott, próbált adatokhoz jutni. másrészt várt kifejezések helyett a „közösségi nyelvet” vizsgálva próbált pontosabb, reprezentatívabb képet kapni a dezinformációról. A TikTok algoritmusok együttműködésen alapuló szűrésének hihetetlen reaktivitása külön kihívás az infodémia megfékezésében – vonta le az egyik legfontosabb következtetést a kutató.

Minél több dezinformációval kerülünk kapcsolatba, annál többet fogunk még látni, és ha csak néhány videót lájkolunk, utána jó eséllyel elmerülünk például az oltással kapcsolatos félretájékoztatásban, mert cunamiként zúdul ránk a félretájékoztatás – hangzik egy másik következtetés.

Kiderült, hogy a dezinformációellenes törekvéseket meghiúsítandó, az oltástagadók szándékosan kódolt nyelvet, hibásan írt szavakat használnak, felcserélik a hashtag-eket. A kutató megállapította, hogy a koronavírussal szkeptikus korábbi anyagok kedvenc témái – az oltóanyag mellékhatásainak parodizálása, az oltóanyag gyártása és jóváhagyása körüli aggodalmak, kormányokkal és vakcina-tartalmakkal kapcsolatos összeesküvés-elméletek, „a Covid-19 nem veszélyes” stb. – a közegészségügyi erőfeszítések ellenére, változatlanul népszerűek.

A kutatás azt is szépen szemlélteti, hogy a vakcinával kapcsolatos félretájékoztatás gyakran tipikus logikai tévedések formájában jelenik meg, azaz egyes információk igazak lehetnek, viszont hamis következtetéseket vonnak le belőlük.

Lundy bizakodik, hogy a dezinformáció TikTokon való terjedésének alapos feltárása segít az egészségügynek. Eddig pozitív visszajelzéseket kapott.

A japán MI-fejlesztők bármilyen gyakorlóadatot használhatnak

Korrekt-e mesterségesintelligencia-modellek tanításához nyilvánosan és törvényesen hozzáférhető adatokat használni? – teszik fel egyre többen és gyakrabban a kérdést.

Japán döntést hozott a témában, amelynek értelmében gépitanulás-mérnökök bármilyen talált, a szellemi jog által védett adatokkal dolgozhatnak. Akkor sem követnek el törvénytelenséget, ha a modellt kereskedelmi célokra használják, mert bármilyen legális célra használható.

szabad_adathasznalat.jpg

A törvény elvileg megtiltja az illegálisan beszerzett, szellemi joggal védett anyagok használatát. Sok adat esetében viszont lényegében nem lehet megállapítani, hogy honnan származnak, így ez a cikkely kvázi betarthatatlan.

A szellemi jogok tulajdonosai nem akadályozhatják meg munkáik „adatelemzésre”, benne MI-modellek gyakoroltatására történő használatát. Egyetlen kivétel van: ha a használat miatt aránytalan kár éri az illetőt.

A szellemi jogra vonatkozó törvényt 2018-ban módosították Japánban, a gépi tanulást célzó felhasználásnak már akkor is elég szabad teret engedtek.

Ellenzéki politikusok a törvény szigorítását javasolták. Képzőművészek és zenészek szintén a szigorítást támogatták, arra hivatkozva, hogy a megélhetésüket fenyegeti, ha az MI engedélyük nélkül gyakorol az alkotásaikon.

A japán döntés azért meglepő, mert a világban más tendenciák látszódnak érvényesülni.

Az Európai Unióban fejlesztők kutatási célra használhatnak jogvédett anyagokat. A még ebben az évben érvénybe lépő MI-törvény megköveteli a generatív mesterséges intelligencián dolgozóktól a gyakorlásra használt jogvédett munkák nyilvánosságra hozását.

Az Egyesült Királyságban szintén csak gyakorlásra használhatók jogvédett anyagok. Az USA szabályozása megengedőbb: „korrekt használat” esetén mindaddig engedély nélkül gyakoroltathatók MI-k jogvédett anyagokon, amíg nem sértik a jogtulajdonos érdekeit. A „korrekt használat” fogalmát viszont pontosan még nem definiálták.

A mesterséges intelligencia egyik valós hosszútávú veszélye

Az MI potenciális veszélyei, az emberiséget kipusztító gépek, a világvége az utóbbi hónapok közbeszédének slágertémája, de a kevésbé végromlás-szerű, viszont azzal ellentétben, aktuális és reális fenyegetést jelentő elfogultság, részrehajlás is sok, a végítéletnél magasabb szakmai szintű vita tárgya.

Andrew Ng, a gépi tanulás egyik legismertebb szaktekintélye az apokalipszisnél reálisabb és elképzelhetőbb hosszútávú veszélyre figyelmeztet. Nem szereti a hipotetikus forgatókönyveket, mert a reális problémákról vonják el a figyelmet, de mégis belemegy egybe, mégpedig azért, mert szinte senki nem foglalkozik az MI ezen aspektusával.

andrew_ng.jpg

Az MI minden bizonnyal olcsóbb lesz, jobban végzi el ugyanazt a feladatot, mint a humán munkaerő jelentős része, akik így többé már nem állítanak elő gazdasági értéket. A folyamat az emberi jogok csökkenéséhez vezethet.

Ma is megfigyelhető egyes országokban, hogy sokan kevéssel járulnak hozzá a gazdasághoz, és az alapvető emberi jogokban (szólásszabadság, oktatáshoz való jog, magánélet védelme, mentesség a hatósági zaklatásoktól) is alig van részük. Természetes erőforrásokban, például olajban dúskáló több állam kevésbé demokratikus, mint a kevesebb erőforrással rendelkezők, hasonló súlyú országok.

Képzeljük el, hogy az állam vezetője külföldi vállalatokkal termelteti ki a legfontosabb nyersanyagokat, értékesíti azokat, és a befolyó anyagiakból a hatalmát fenntartó erőszakszervezeteket működteti. A lakosság zöme szinte semmiféle gazdasági értéket nem generál, a vezetőnek pedig nem áll érdekében az oktatásukkal, biztonságukkal és a jogaikkal foglalkozni.

Ha az MI pár évtized alatt eljut arra a szintre, hogy a lakosság jelentős része miatta nem termel gazdasági értéket, a demokráciákban is csorbulhatnak az emberi jogok – különösen akkor, ha kevesen férnek hozzá az MI-hez, a technológiai hatalom szűk csoporton belül koncentrálódik.

A nagy nyelvmodellek munkára való hatását feltáró elemzésekből kiderül, hogy a ChatGPT miatt állásukat vesztő személyek gyorsan találnak másikat. Az MI viszont olyan gyorsan fejlődik, hogy ez nem lesz mindig így, mert az átképzés és az új munkahelyek teremtésének tempója nem tartja a lépést a technológiáéval.

Az átlagjövedelmek emelkedése hosszú ideje nem követi a munka termelékenységének növekedését. Ha az MI egy szűk elit kezében marad, a folyamat felgyorsul, és drámai helyzetet idézhet elő.

Tömegek tekintenek büszkén a munkájukra, mert látják az értelmét, és tudják: gazdasági értéket teremtenek vele. A felvázolt forgatókönyv megvalósulása esetén, ugyanezen személyek nagy része a termelésben már nem tölt be számottevő szerepet, és úgy érzik, nem fontosak többé.

Hogyan előzhetjük meg ezt?

Ng javaslata az MI-hez való hozzáférés demokratizálása. Két egymáshoz kapcsolódó mód van rá: a technológia árának csökkentése, valamint a lehető legtöbb embernek meg kell tanítani az MI használatát, meg kell érteniük, miről van szó. Ha megtörténik, nagyobb eséllyel állítanak elő értéket, és a technológia pozitívabb jövőbe vezet.

Hamisan vádol csalással diákokat az MI-csalásokat felderítő szoftver

A Davisi Kaliforniai Egyetem (UCD) egyik végzős hallgatóját a plágiumellenőrző Turnitin szoftver csalással gyanúsította. Az illetőnek magát kellett megvédenie, és bizonyítania, hogy nem használt mesterségesintelligencia-chatbotot dolgozata megírásához. Egyébként is stresszes állapotban még stresszesebbé vált, végső osztályzata gyengébb is lett a vártnál.

Később megtudta: nem volt egyedül, mert más diáktársairól is ugyanazt állította a szoftver, és a felsőoktatási intézmény elnézést sem kért tőlük. Bebizonyosodott az igazsága, a nyomozás viszont nyilvántartásban maradt, azaz egy szoftverhiba veszélyeztetheti további pályafutását.

ai_plagiarism.jpg

A történet rávilágít a Turnitin és hasonló programok hibáira. A valódi csalások számának növekedésével párhuzamosan egyre több diákot vádolnak meg igazságtalanul MI segítségével elkövetett plágiummal.

Egy huszonegy éves politológia-hallgató elmondta, hogy az alaptalan vádaskodás elveszi a motivációt, csomó idő megy el feleslegesen, miközben hasznosabb dolgokkal foglalkozhatna, például tanulna.

Az UCD egyik történelem-szakos hallgatóját, miután az MI-detektor GPT-Zero csalással gyanúsította, tanára megbuktatta. Az illető és apja sikeresen végigjárták a kacskaringós felülvizsgálati folyamatot, majd segítettek a hasonló cipőben járó végzős hallgatónak.

A probléma legfőbb oka, hogy ezek a programok nem teljesítenek elég jól abban, amire fejlesztették őket. Független teszteken rengeteg hibát vétenek, de még az OpenAI saját csalásdetektáló alkalmazásának is meggyűlt a baja az ember és az MI által generált szövegek megkülönböztetésében.

Később az UCD közölte, hogy a Turnitin bétaváltozatát használták, mert „korai hozzáférést” kaptak. A fejlesztőcég honlapján közölte, hogy a szoftver a teszteken 98 százalékos pontossággal teljesített, de sajnos előfordulnak hamis pozitívok is. Az OpenAI szintén a honlapján jelentette be, hogy az MI-detektor nem mindig pontos, majd hozzáfűzték: egy dokumentum mesterséges intelligenciával történő generálásának eldöntésekor, a hibás döntést elfogadó bírálóknak mást is kellene használniuk, nem lenne szabad, hogy ezeknek a szoftvereknek a véleménye legyen az egyetlen bizonyíték.          

3D számítógépes grafikával elkészítették Tutanhamon fáraó arcát

Új 3D modellező technikákkal nemzetközi kutatócsoport elkészítette a Krisztus előtt kb. 1342 és 1324 között élt Tutanhamon egyiptomi fáraó koponyájának és lágyszöveteinek a rekonstrukcióját. A rekonstrukció nyilvánosságra hozott adatok és az egyiptológiai irodalom miatt valósulhatott meg. 

Az egyik legismertebb egyiptomi uralkodó végső nyugvóhelye volt az első háborítatlan állapotban megtalált fáraósír. Nyolc-kilenc éves korától mintegy tíz évig uralkodott, az ország történetének egyik legmozgalmasabb, legeseménydúsabb időszakában került trónra.

tutanhamon.jpg

Eredetileg Tutanhatonnak, „Aton élő képmásának” hívták, feltételezett apja, a reformer Ehnaton uralkodásának tizenegyedik évében születhetett. Ehnaton számolta fel a politeizmust, és vezette be a Napisten/napkorong, Aton kultuszát, sokak szerint a monoteizmus egy korai formáját. Egyiptom összes hagyományos istenének imádatát betiltotta.

Az új vallás rövid ideig maradt meg, Tutanhamon utolsó éveire a politeizmust teljesen visszaállították, az uralkodó nevének megváltoztatása, az Aton helyetti Amon a régi istenekhez való visszatérést jelentette.

Tutanhamon pontos külsejéről nem maradt fenn bizonyíték, a rekonstrukcióval viszont többen megpróbálkoztak.

tutanhamon0.jpg

Az első 1983-ban Pat Gatliff törvényszéki művész munkája volt. A fáraó arcát az arról készített röntgenfelvételek alapján alkotott gipszkoponyát használva, rekonstruálta.

A másodikra 2005-ben került sor, ekkor három, egymással összehangolt csapat különböző alkotásait mutatta be az egyiptomi állam. Egy egyiptomi és egy francia csapat tisztában volt a fáraó identitásával, a harmadik, amerikai nem. Az egyiptomiak 3D számítógépes modellezést, a franciák az antropológiai szobrokat készítő Elisabeth Daynes szakértelmét használták, míg az amerikaiak törvényszéki szobrászra hagyatkoztak.

tutanhamon1.jpg

A szobrok az apró különbségek ellenére nagyon hasonlítottak egymásra, és Ehnaton első feleségére, Nofertitire is – nem ő, hanem a jelenlegi feltételezések szerint valószínűleg Ehnaton egyik lánytestvére volt Tutanhamon anyja.

A harmadik rekonstrukció 2022-es. Christian Corbet szobrász tomografikus szkenek alapján készítette el az arc, majd a kutatási eredmények, a szkenek és más adatok felhasználásával a koponya rekonstrukcióját, ezekből pedig úgynevezett 3D-s arc-megközelítést hoztak létre.

Megállapították, hogy a fiatal uralkodónak, valószínűleg genetikai okok miatt, szokatlanul nagyméretű agya volt.

Falcon: nyílt forrású nagy nyelvmodellt fejlesztettek Abu Dhabiban

A szabad kereskedelmi felhasználást engedélyező nyílt forrású licenceknek köszönhetően független fejlesztők, fejlesztőcsoportok is építhetnek akár a nagy techvállalatok termékeivel versenyképes rendszereket. Egy nemrég kiszivárgott Google-feljegyzés szerzője egyenesen a cég üzleti tevékenységét fenyegető jelenségként írt ezekről a nyílt forrású fejlesztésekről.

Az Egyesült Arab Emírségekben, Abu Dhabi Technológiai Innováció Intézetében (TII) pont ilyen, csúcsteljesítményű, nyílt forráskódú nagy nyelvmodellt (large language model, LLM) dolgoztak ki. A neve Falcon (Sólyom), és a szabad kereskedelmi alkalmazásokat engedélyező Apache 2.0 licenccel szerezhető be.

emirsegek.jpg

Eredetileg a TII tízszázalékos „engedélyezési díjat” kért minden olyan felhasználótól, akik egymillió dollárnál több bevételt generálnak a Sólyomra épülő kereskedelmi alkalmazásokkal. Aztán meggondolták magukat, ejtették a korlátozást, és a mostani licenc sokkal engedékenyebb.

A negyvenmilliárd paraméteres modellt arra tanították be, hogy egybillió tokenes szövegben előrejelezze a következő tokent. Architektúrája az OpenAI GPT-3-jához hasonló, néhány eltéréssel, például a kevesebb memóriaigényű algoritmusokat használ egyes következtetésekhez.

Az előzetesen transzformerekkel gyakoroltatott modell négy verziója szerezhető be: az általános rendeltetésű Falcon-40B, a chatre kitalált Falcon-40B-Instruct, a kompaktabb Falcon-7B és a Falcon-7B-Instruct.

A Sólyom komoly előnye, hogy a nyílt forráskódú nagy nyelvmodelleknél, versenytársainál, különösen a legfőbb rivális – Meta-fejlesztés – LLaMA-nál jobb teljesítményre képes, ráadásul a gyakoroltatás költségei alacsonyabbak, és így energiatakarékosabb is.

Az a tény, hogy Abu Dhabiban ilyen nagy nyelvmodellt fejlesztettek, egyértelműen jelzi a terület globálissá válását, hogy a mesterséges intelligenciában egyre több helyen, egyre több tehetség tűnik fel, az Egyesült Államokon és Kínán kívül más országok is felkerültek a generatív MI-világtérképre.

Feléleszti-e a halódó virtuális valóságot az Apple csúcskategóriás headsetje?

Az 1980-as és 1990-es évek cyberpunk művei általában high-tech alapú disztópikus jövőt vetítettek előre. A virtuális valóság (VR) valamilyen formában nagyon sokban megjelent, részben arra a tényre is reflektálva, hogy a számítógépek fejlődésével, az internettel, a történelemben először mosódtak össze a fizikai és a digitális világ határai. Mindannyian rácsodálkoztunk a szédítő lehetőségekre, köztük a VR-re is.

A hálózatokat ma már az infokom nagyvállalatok uralják, a világok közötti képlékeny határokhoz pedig hozzászoktunk. A virtuális valóságot viszont nem tudtuk megszokni, pedig már a boldog emlékű 1990-es évek közepén úgy tűnt, hogy hamarosan jön a nagy áttörés. A következő „mindent elsöprő” VR-hullám a 2010-es évek közepén kecsegtetett újfent az áttöréssel, hogy aztán szinte semmit ne söpörjön el, és a technológia az IT egyik örök ígérete maradjon.

apple_vr.jpg

A Facebook 2014-ben kétmilliárd dollárért vásárolta meg az akkor legígéretesebb VR headseteket gyártó Oculust. Évekkel később Meta néven újrabrandelte magát, mert Marc Zuckerberg és munkatársai úgy érezték, hogy jön az egyébként először Neal Stephenson 1992-es kultikus cyberpunk regényében, a Snow Crash-ben felvázolt online Metaverzum, fizikai munkahelyünket tömegesen lecseréljük rá, és majd a Minecraftban és hasonló világokban fogunk VR headsettel – sisakkal – a fejünkön dolgozni.

A Metaverzum a reklámkampányba fektetett csillagászati összegek ellenére eddig legalábbis hasonló csőd, mint a Google Glass volt közel egy évtizede. Június első hetében viszont a baljós jelen ellenére új lehetőséget kapott a virtuális valóság – az Apple bemutatta régóta várt Vision Pro headsetjét. Kezdőára tipikus Apple árazás: potom 3500 dollár. (A Meta eszközei nagyságrendekkel olcsóbbak, de azok sem működnek a piacon. Zuckerberg gyorsan le is nyilatkozta, hogy teljesen más az üzleti modelljük, mert ők az átlagfelhasználót célozták meg.)

A „térbeli számításokra” kitalált új VR/AR (az AR a jóval felhasználóbarátabb kiterjesztett valóság, az augmented reality rövidítése) csúcseszköz ideig-óráig újraélesztheti az érdeklődést, viszont nehezen látható át, hogy szélesebb rétegek vásárolják meg. Egyelőre egyetlen nagyvállalat sem talált ki az átlagfogyasztó-tömegek számára vonzó felhasználást a virtuálisvalóság-technológiákra.

A Vision Pro egyébként lenyűgöző technológia, gyönyörű design, hamisítatlan Apple-termék. Biometrikus azonosításhoz, például a FaceID-hez írisz-szkennelés, szemkövetéssel digitális elemekkel léphetünk interakcióba, nyers számítási kapacitásban és kivitelezésben simán kiüti a riválisnak tűnő Oculus és HTC headseteket. Negatívuma, hogy az eleme egy töltéssel csak két órát bír el. A felhasználónak nagyobb televízióra és hangrendszere sincs szüksége, mert a 4K mikro OLED-del megkapjuk. Más kérdés, hogy egy 4K tv ára négyszáz dollár alá ment.

A headset egyelőre csak játékfejlesztők, geekek, tudomány és művészet metszéspontján alkotók fantáziáját mozgatta meg. Ha ők a célközönség, akkor a Vision Pro anyagi értelemben nem lesz sikeres. És az Apple nem nyilatkozott arról, hogy megoldották-e a „sisakok” egyik nagy problémáját: találtak-e ellenszert a felhasználók nem elhanyagolható részében a technológia által okozott mozgás- és tájékozódás-zavarokra?

Jön vagy nem jön a mesterségesintelligencia-apokalipszis?

A mesterséges intelligencia utóbbi időben tapasztalt gyors fejlődése a területtel évtizedek óta foglalkozó szakembereket is annyira meglepte, hogy hajlamosak eltúlozni a veszélyeket. Kétségtelenül rejlenek benne kockázatok, de apokaliptikus jövőképek felvázolása helyett – James Cameron már a Terminátor-filmek legújabb darabját tervezi –, célszerűbb lenne azok átgondolt feltárása.

Két hete a safe.org az MI kockázatait a világjárványokéhoz és a nukleáris háborúéhoz hasonlító, nagy médiavisszhangban részesült anyagot tett közzé, amelyet a mélytanulás (deep learning) két úttörője, Yoshua Bengio és Geoffrey Hinton is aláírt. Soros György a technológiát ugyanolyan veszélyesnek tartja, mint az éghajlatváltozást és Oroszország Ukrajna elleni invázióját – „halálos fenyegetés a nyílt társadalomra.” Egyes ismert technológiai oldalak, mint a régebben referenciának számító Futurism szinte kizárólag csak az MI-t kárhoztató, „utolsóítélet-nap” cikkeket közölnek a témában, és például az OpenAI vezérigazgató Sam Altman-nek azt is felrótták, hogy csak most látta az MI-ről szóló (disztópikus) 2014-es Ex Machinát.

ai_doomsday.jpg

Hinton elmondta a BBC-nek, hogy megkérdőjelezi életműve értelmét, Bengio pedig reális veszélyre, Mi-vel történő vegyi fegyverek gyártására figyelmeztetett. Mi történik, ha hadseregek, terroristák, személyes bosszút tervező egyének ilyen célra használják? – teszi fel a kérdést. Szerinte a kormányoknak regisztrálnia kellene a fejlesztőket, és ugyanúgy figyelni, felügyelni a munkájukat, mint ahogy a gyógyszer- és a légjármű-ipari vállalatokkal teszik. Számítástudományi szakembereknek képesítéssel járó etikai tréningen kellene átesniük. Egy blogbejegyzésben a saját céljait követő MI-ről is írt, májusban pedig az MI Biztonsági Központ a mesterséges intelligencia akár az emberi faj kipusztulásáig vezető működésével riogató közleményét írta alá.

Andrew Ng, az egyik legelismertebb gépitanulás-szakértő és a józan hangok egyike múlt heti hírlevelében megemlítette, hogy nehezen tudja elképzelni, miként jelenthet az MI az emberiség pusztulásához vezető veszélyt. Az előítéletek, az elfogultság, a pontatlan outputok, állások megszűnése, a hatalomkoncentráció valós problémák, viszont mindezek ellenére, az MI a társadalom előnyére válik. Javít az egészségügy és az oktatás minőségén, biztonságosabbá teszi a járműveket, hozzájárul az egészségesebb táplálkozáshoz, javakat és szolgáltatásokat tesz elérhetőbbé, demokratizálja az információhoz való hozzáférést.

ai_doomsday0.jpg

Ng nincs egyedül.

Chris Manning, ausztrál gépitanulás-szakértő szerint az MI-közösség nagy része, a csendes többség hasznos szoftvereket fejleszt, és nem osztja a „hangos MI Biztonság tömeg” kipusztulásos rémképeit. A kockázatokat eltúlozzák – jelentette ki.

Emily Bender, amerikai nyelvész a valós kockázatoktól (diszkrimináció, megfigyelés, információs ökoszisztéma szennyezése, adatlopás, munkaerő kizsákmányolása) való elterelést lát az „MI-ítéletnap” indokolatlan túlhangsúlyozásában.

„Az MI-átokban hívés (doomerism) csali” – írja Matteo Wong, a The Atlantic tudományos, technológiai és egészségügyi szerkesztője. A szabályozók rengeteg időt töltenek el azzal, hogy megakadályozzák a mesterséges intelligenciát autonóm nukleáris fegyverek gyártásában, pedig egyetlen atomhatalom sem tervez még ilyet. Ezt az időt célszerűbb lenne az adatok és a személyiségi jogok védelmével, vagy az MI átláthatóságával és a trösztellenességgel tölteni – javasolja.

A világháló őskorának egyik hőse (a Netscape társalapítója, az első széles körben használt webböngésző, a Mosaic társfejlesztője stb. stb.), Marc Andreessen az MI előnyeiről írt tanulmányt. Minden egyes új technológia megjelenésekor előrejelezhető módon kitört a morális pánik: a liftek agylázat okoznak, az autók elpusztítják a világot, a rögzített hanganyagok ártanak a csecsemőknek és így tovább. A mélytanulás kezdetén, tíz éve Elon Musk és Stephen Hawking figyelmeztetett az MI veszélyeire.

Most ugyanaz folyik, mint tíz éve, csak több neves tudós is fél – fűzi hozzá Ng.

A vita nyilván sokáig folytatódik.

Maximum háromórás szárazföldi utazás a kontinens egyik végpontjából a másikba

A hyperloop technológia lényege, hogy utasszállító kapszulák villanymotor által hajtott, légritkított csőben haladnak. Megvalósulásával jelentősen felgyorsul majd a földi személy- és teherszállítás, a következő évtizedben az egymástól 350 kilométerre fekvő városok közötti távolság félóra alatt tehető meg. Igazából nem vasút, hanem a legjobb vonatokat és repülőket kombináló, teljesen új közlekedési eszköz.

Az eredeti ötlet, a Hyperloop Alpha Elon Musk cégéhez, a SpaceX-hez fűződik, 2013-ban ötvenhét oldalas tanulmányban mutatták be a technológiát. Musk szerint az új megoldás az ötödik önálló szállítási rendszer. (A közúti, a vasúti, a vízi és a légi közlekedés a másik négy.)

utazas.jpg

Andrés de León, a személy- és teherszállítással egyaránt foglalkozó kaliforniai Hyperloop Transportation Technologies vezérigazgatója szerint a technológiával az összes kontinentális távolság három óra alatt megtehető. 2026 és 2028 között válhat valósággá – emelte ki.

A hyperloop ma már kétmilliárd dolláros globális piac, az előrejelzések szerint 2040-re 800 milliárdos, 2050-re kétbilliós lesz. Egyre több a projekt, a lineáris motort, lebegő rendszert és aerodinamikus meghajtást egybekombináló spanyol Zeleros például már ezer km/h sebességben, fenntartható mobilitásban gondolkozik. A rendszer skálázhatóságán és más piacokon való alkalmazási lehetőségein is dolgoznak, többek között szállítmányok kikötőbeli mozgásának „széntelenítésére” is a hyperloopban látják a megoldást. (A tetőn lévő napelemek öt-tizenöt százalékkal több energiát generálnak, mint amennyit a rendszer fogyaszt.)

A fenntarthatósági elvek betartása egyébként is – szinte minden területen – az elsőszámú szempontok közé tartozik. Nem véletlenül, mert a közlekedés a globális széndioxid-kibocsátás huszonhárom százalékáért felelős, az általa okozott szennyezés költsége 54,1 billiárd dollár.

A környezetbarát szempontok érvényesítése („nettó zéró szén rendszer”) mellett a hyperloop másik nagy előnye a biztonság. A technológia folyamatos monitoring-tevékenységet végző, a kapszulába épített, biztonságos passzív mágneses lebegést garantáló intelligens szenzorokkal működik. A tervek szerint mindezek mellett költséghatékony és kényelmes utazási mód.

A Hyperloop Transportation Technologies hozta létre (a dél-franciaországi Toulouse-ban) az első teljes, négy méter átmérőjű hyperloop-tesztrendszert és az első komplett utasszállító kapszulát.

Gyorsan fejlődik a szövegből generált képek szerkesztése

Sokat fejlődnek a szöveges utasítás alapján szöveget létrehozó modellek, látványosan egyre jobbak az outputok. Vajon a képgenerátorok hatékonyabb gyakoroltatásától – hogy tényleg a promptokat kövessék – is hasonló eredmény várható?

A Berkeley-i Kaliforniai Egyetem (UC Berkeley) kutatói által fejlesztett InstructPix2Pix módszerrel valószínűleg közelebb kerülünk a célhoz. Előzetesen gyakoroltatott szövegből képet generáló modellt képek újravizsgálására finomhangolnak vele. Egyszerű utasításokat használ, például „helyettesítsd banánnal a narancsot”. Még a kép narancsokat tartalmazó részét sem jelöli meg a promptban.

text_to_image.jpg

A módszer – értelemszerűen promptot nélkülöző – hagyományos és promptból generált képekkel egyaránt működik.

Ha képet és szerkesztési utasítást adunk egy tipikus előzetes tanuláson átment képgenerátornak, az eredmény tartalmazhatja az óhajtott elemeket, de valószínűleg másként néz ki, mint ahogy elképzeltük. Viszont úgy finomhangolhatjuk, hogy a promptot, a promptból generált képet, a prompt átszerkesztett változatát, az ahhoz kapcsolódó megváltoztatott képet és a változtatást leíró utasítást tartalmazó adatsort használva, utasításainkra tényleg megfelelő választ adjon.

text_to_image0.jpg

Többszáz vagy többezer kép annotálása nagyon költséges és fáradságos lehet, egy ilyen adatsor viszont szerencsére szintetizálható is. Képek és a promptoknak megfelelő leírások korpuszával kezdjük, majd egy előre gyakoroltatott nagy nyelvmodell átdolgozott promptokkal, végül a képgenerátor pedig átdolgozott lépekkel áll elő.

A kutatók a Stable Diffusiont finomhangolták, és a kép átdolgozására vonatkozó utasítást adtak neki. A finomhangoló adatsort a GPT-3 nagy nyelvmodell, maga a szövegből képet alkotó Stable Diffusion, és a kezdő prompt átdolgozott változatával generált képeket újfent átdolgozó Prompt-to-Prompt segítségével dolgozták ki.

Az InstructPix2Pix a teszteken kifejezetten jó eredményt ért el, és a képgenerálást is egyszerűbbé teszi. Meglévő modellek átgondolt használatával a kutatóknak, viszonylag kevés ember által címkézett példával dolgozva, új feladatra sikerült betanítaniuk a modelljüket.

süti beállítások módosítása