Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Az Apple Vision Proja határozza meg a virtuálisvalóság-sisakok jövőjét?

2024. február 12. - ferenck

A high-tech virtuálisvalóság-headsetekben utazó és a terület megújulását előrevetítő Oculus VR-t szűk egy évtizede vásárolta fel az akkor még Facebook néven futó Meta. Ma a Quest 2 a világ legnépszerűbb VR-sisakja, miközben a Quest 3 eladási mutatói is nagyszerűek, hamarosan a második helyre jön fel.

Az Apple forradalminak szánt Vision Proja viszont minden szempontból jobb a magát pár éve metaverzum-vállalatként aposztrofáló Zuckerberg-cég csúcstermékeinél. A Meta ennek ellenére optimista az Apple piacra lépésével kapcsolatban.

quest.jpg

A Quest 3 októberi piacra dobásának időzítése tökéletesre sikerült, mert kihasználták a Vision Pro bejelentése utáni kevert valóság (mixed reality) hype-ot. A Meta még az Apple headsetjének mostani piaci megjelenése előtt, az ünnepi időszakban a masszív médiakampány és nem kisebb mértékben a folyamatosan hangsúlyozott komoly árkülönbség miatt is hihetetlenül jó eladási mutatókat produkált.

Zuckerbergék abban bíznak, hogy az okostelefónia párhuzamával, a Meta lesz a VR Androidja, míg a Vision Pro az iPhone-ja. Hosszútávú metaverzum-céljaik megvalósításához létfontosságú a VR sikere; az ezirányú kutatásokba, fejlesztésekbe már eddig ötvenmilliárd  dollárt fektettek, piacvezető headseteket találtak ki, de a technológia mindezek ellenére gondokkal küszködik. Fejlődik, növekszik ugyan, ám sokkal lassabban, mint ahogy a 2010-es évek közepén vagy a metaverzum-divat éveiben várták.

quest0.jpg

Egyelőre főként alternatív játékrendszerként kezelik, bár a konzolosok és PC játékosok annyira hozzászoktak kedvelt franchise-aikhoz és platformjaikhoz, hogy ezen a területen nehéznek ígérkezik az áttörés. A gyakorlatokat gamifikáló VR-fitnesz iránt viszont növekszik az érdeklődés, ráadásul úgy érezzük közben magunkat, mintha egzotikus helyeken járnánk. A Meta mindezek mellett azt is szeretné még, hogy a Questet munkához is használják.

Az Apple-nek lehetőségében áll mindent megváltoztatni. A Vision Pro nagyon látványos és ergonomikus termék, ultraprémium árfekvése miatt viszont a felhasználók túlnyomó többségének nem áll módjában megvásárolni. Mi tehát az alternatíva?

Egyértelműen a hetedannyiba, ötszáz dollárba kerülő, sok hasonló funkciót (több-böngészős képernyőt, kevert valóságot, Mac-kapcsolatot stb.) kínáló Quest 3.

Évek óta a Meta a virtuális és a kevert valóságban komoly fejlesztéseket végző egyetlen techóriás. Nyilvánvalóan örömmel nyugtázza, ha mások is felkeltik a technológia iránti érdeklődést. Az Apple pont ezt teszi, bár jelenléte nem éppen megnyugtató jelenlét, ráadásul most már nem is ők, hanem a Microsoft a világ leggazdagabb cége, és nyilván kívánnak tenni ez ellen is valamit. A Vision Pro árazása, luxuskategóriás termékjellege viszont aligha befolyásolja a Quest eladási mutatóit. Maximum pozitívan – a nagy felhajtás miatt…

Ha viszont 2025-ben piacra dobnak egy olcsóbb Vision Prot, a Meta aligha fog örülni. A kompetitív árazás lehetősége ugyanakkor újabb és újabb fejlesztésekre ösztönözheti Zuckerbergéket, hogy közelebb kerüljenek a térbeli számítások (spatial computing) Apple (a Vision Pro) által kidolgozott új szabványaihoz.

A VR és a metaverzum mindenképpen jól jár a versennyel. 

Tajvan saját nagy nyelvmodellel akarja csökkenteni a kínai befolyást

Amikor megkérdezték, hogy ki nyerte az idei tajvani elnökválasztást, a világ legfejlettebb kínai nyelvű chatbotja, a Baidu Ernie Botja megtévesztő választ adott. Először helyesen mondta, hogy Lai Ching-te, utána viszont rögtön hozzátette: teljesen mindegy, hogyan változik az ottani helyzet, a lényeg, hogy egyetlen Kína létezik csak.

A szigetet vezető és a győztes elnököt adó, USA-barát Demokratikus Progresszív Párt vitatja a pekingi álláspontot, és a Kínai Népköztársaság meg is tett mindent a rivális Kuomintang diadaláért.

Ilyen egyértelmű kérdésre adott mellébeszélés probléma a nagy kínai platformok, mint a TikTok és a Xiaohongshu befolyásától egyébként is joggal tartó tajvani vezetés számára.

tajvan_1.jpg

A Kínai Népköztársaság növekvő technológiai szerepét ellensúlyozni és a mesterségesintelligencia-ökoszisztémába belépni igyekvő sziget 2026-ig több mint félmilliárd dollárt fektet MI-fejlesztésekbe. Az egyik legfontosabb a 7,4 milliós Megbízható MI Dialógus Motor (Trustworthy AI Dialogue Engine vagy Taide) nagy nyelvmodell (LLM).

Fejlesztői vállalatoknak, bankoknak, kórházaknak és kormányhivataloknak szánják. E-mailek írására, találkozók összefoglalására és hasonlókra szolgáló platformot kívánnak biztosítani nekik, de mindenek felett azt akarják, hogy a Taide-t semmiféle pekingi befolyás ne érje, illetve feleljen meg a sziget saját értékeinek.

„Szabadság, demokrácia, emberi jogok” – hangsúlyozza a hivatalos kínai politikával nem éppen korreláló értékeket a fejlesztést koordináló Lee Yuh-jye.

Az LLM előrébb helyezheti Tajvant a mesterségesintelligencia-fejlesztési láncban, és komoly alternatívaként szolgálhat a kormány és más szervezetek számára, amelyek kelletlenül osztják meg, vagy egyáltalán nem hajlandók megosztani személyes adataikat a ChatGPT-vel.

A fejlesztők a helyi médiából és kormányzati szervektől származó tartalmakat licencelnek, és hozzáadják azokat a Meta nyílt forráskódú LLM-jéhez, a Llama 2-höz. A tartalom a Tajvanin használatban lévő hagyományos kínai karakterekkel készül majd.

Kiválasztott partnerek áprilisban tesztelhetik már a Taide korai változatát.     

Új protokollal javul és biztonságosabb lesz a kvantumkommunikáció

A kvantumkommunikációs átviteli sebességet hosszú ideje korlátozza a területen használt egyfotonos detektorokkal „járó” úgynevezett halott idő. Az LG Electronics kutatói Dél-Koreában kidolgoztak az átviteli sebességet és a biztonságot javító protokollt.

Az egyfotonos detektorok a kvantumbiztos közvetlen kommunikáció (quantum secure direct communication, QSDC) fontos elemei, mert kvantumállapotuk megzavarása nélkül teszik lehetővé egyedi fotonok detektálását, garantálva a közvetlen és biztonságos kommunikációt. A kommunikáció megzavarására tett kísérletek így észlelhetők, tehát adott a magasszintű biztonság.

kvantumkommunikacio0.jpg

A QSDC gyakorlati megvalósítását viszont hátráltatja az egyfotonos detektorok holtideje miatti korlátozott átviteli sebesség. Sajnos még a legfejlettebbek is korlátozottak.

Az LG kutatói új egyfoton-alapú protokollt vezettek be a kihívások kezeléséhez. A megközelítés két optikai szabadságfokot, az idő- és a fázisállapotot használja az információ kvantumállapotokba kódolásához. Az időállapotot a kvantumbites hibaarány-becslésre és üzenetátvitelre, a fázisállapotot pedig csak a hibaarány becslésére alkalmazzák, vele határozzák meg a lehallgató jelenlétét a kvantumcsatornákon.

kvantumkommunikacio.jpg

A korábbi protokollok csak egy állapottal dolgoztak. Mivel a fázisállapot mérési hatékonysága alacsonyabb, az újban kizárólag a lehallgatás észlelésre használják. A hatékonyabb időállapot központi szerepet játszik az üzenetátvitelben, a kódolási technikák felhasználásánál.

Az új protokollal, ellentétben az egyetlen bit továbbítására korlátozott mostani DL04-gyel, egyetlen kvantumállapoton keresztül több bitnyi információ továbbítható. Nem kell hozzá használni kvantummemóriát és a DL04 esetében kötelező több más folyamatot.

Utóbbi ezért csökkenti a továbbítás hatékonyságát, az újjal viszont jelentősen javul, eredményesebb és biztonságosabb a kommunikáció. A kutatók protokolljukat szigorú biztonsági teszteknek vetették alá, többféle potenciális támadást elemeztek. Az eredmények látványos előrelépést mutattak.

A holtidő nem szűnik meg, de a több bites továbbítással csökken a hatása. A kétállapotos kódoló technikában nagyon komoly a potenciál: olyan kommunikációs közegekben is nő az adattovábbítás hatékonysága és biztonsága, mint a vezeték nélküli csatornák, ahol például környezeti turbulenciák jelentős mértékben zavarhatják a kommunikációt.

Hogyan védekezzünk a deepfake pornó ellen?

Január utolsóelőtti hetében online vírusként terjedtek az egyik legnagyobb popsztár, Taylor Swift szexuálisan explicit képei. Az X-en (korábbi Twitteren) sokmillióan látták a nonszensz mélyhamisítvány (deepfake) pornót. Elon Musk cége végül a Taylor Swiftre vonatkozó összes keresést blokkolta.

A jelenség nem új, mélyhamisítványok évek óta jelen vannak. A generatív MI elterjedésével viszont könnyebb elkészíteni őket, aztán személyeket zsarolni, kellemetlenséget okozni nekik MI-vel generált képekkel, videókkal. Az új mesterséges intelligenciának ez az eddigi legsúlyosabb, legnegatívabb következménye.

deepfake_porn.jpg

Szerencsére lehet védekezni ellene. Például vízjelekkel, védőpajzsokkal, szabályozással.

A vízjel-technológiák emberi szem számára láthatatlan jelet rejtenek el a képeken, amely segít számítógépeknek megállapítani: mesterséges intelligencia generálta őket, vagy sem. Az azonosítás könnyebb és gyorsabb, és ha minden képen vízjel lenne – ami jelenleg kivitelezhetetlen –, sokkal nehezebben készíthetnének szexuálisan explicit mélyhamisítványokat. A technológia azonban túl új, széles körben sem használják, ráadásul nagyon elszánt támadók manipulálhatják is a vízjeleket.

Online posztolt képeinkből, különösen a legújabb MI képgenerátorokkal bárki csinálhat mélyhamisítványt. Számos nagyon új védelmi eszköz viszont lehetővé teszi, hogy mégse. Az MIT-n (Massachusetts Institute of Technology) fejlesztett PhotoGuard emberi szemmel láthatatlan módon változtat meg pixeleket. A Chicago Egyetem Fawkes-a rejtett jelekkel takar el képeket, hogy például az arcfelismerők ne tudjanak mit kezdeni velük. Az ugyanott kiépített Nightshade a mélyhamisításra készülő MI-modellt lebénító láthatatlan „méregréteggel” bővíti a képeket.

deepfake_porn0.jpg

A védőpajzsok ugyan működnek a legújabb generációs MI ellen, viszont semmi garancia nincs arra, hogy a következő generációkkal is elboldogulnak.

Egyes kutatók szerint annyira elterjedtek a mélyhamisítványok, és a technológia olyan messzire ment, hogy a probléma csak szigorúbb szabályozással kezelhető. Az amerikai szabályozás egyelőre államonként történt meg, nincs egységes szövetségi, bár ez hamarosan változhat, például a kamu meztelen képek megosztását máris mindkét párt által elfogadott javaslat tenné szövetségi szinten is büntetőjogi kategóriává. Taylor Swift esete pedig újból felkeltette a mélyhamisítványok szabályozása iránti érdeklődést.

Az Egyesült Királyságban tavaly hoztak a deepfake pornót megosztókat akár fél év börtönnel is büntető törvényt. Az EU törvényei alapján a mélyhamisítvány-gyártóknak fel kell tüntetniük: anyagukat MI generálta. Legmesszebb a 2023-ban hatályba lépett kínai törvény megy: a képekhez az érintettek beleegyezése, személyi identitások hitelesítése, MI-tartalmak felcímkézése kell, és így tovább.

Ezek a törvények egyrészt elrettentő hatásúak lehetnek, másrészt viszont nehezen alkalmazhatók.  

Nyílt forrású általános mesterséges intelligenciát épít a Meta

Mark Zuckerberg január második felében Instagram-posztban jelentette be, hogy a Meta többszázezer MI feldolgozó chipet, egész pontosan 350 ezer Nvidia H100 grafikus kártyát fog vásárolni. A GPU-k (grafikus feldolgozó egységek) darabja kb. 30 ezer dollár, és ezek az egységek a legfejlettebb MI-modellek működtetésének az alapjai.

A Meta-főnök azt is bejelentette, hogy nyílt forrású általános mesterséges intelligenciát (Artificial General Intelligence, AGI), az emberi szintet elérő vagy meg is haladó gépi értelmet szándékoznak építeni.

meta_agi0.jpg

Az AGI-ról a kifejezés 2007-es első használata óta az utóbbi években, a generatív MI berobbanásával új lendületet kapott vita folyik, egyes kutatók szerint például megvalósíthatatlan, mások 2200-ra, megint mások száz éven belülre, és csak nagyon kevesen saccolják a közeljövőre a kivitelezést. Mindenestere Zuckerberg bejelentése felkavarta az állóvíznek egyáltalán nem nevezhető terepet. Az ítéletnap-rettegők máris elkezdték kongatni a vészharangokat, a Futurism szerkesztősége már az (érdeklődés hiányában nyilván elmaradó) Apokalipszisre, az emberiség MI általi kipusztítására melegít.

Mások pedig pont a mesterségesintelligencia-fejlesztések jövőjének egyik kulcsától, a Meta MI-jének nyílt forráskódjától tartanak.

meta_agi.jpg

„A gondolat, hogy egy nyílt forrású AGI ezeknek a nagyon hatékony MI-rendszereknek a megfelelő szabályozása előtt megjelenjen, nyugtalanságra ad okot. Ha a technológia rossz kezekbe kerül, rengeteg kárt okozhat. Felelőtlenség, ha egy vállalat ilyen gondolatokra enged következtetni” – nyilatkozta Dame Wendy Hall, az angliai Southampton Egyetem kutatója és az ENSZ MI tanácsadó testületének tagja.

Hall szerint ugyanakkor sok évre vagyunk még az AGI-től, tehát a társadalomnak van ideje a szabályozási keret kidolgozására, mégis közérdeknek tarja, hogy minél előbb elvégezzék.

Andrew Rogoyski, a Surrey Egyetem Embercentrikus MI Intézetének egyik igazgatója szerint a nyílt forráskódú AGI ugyanúgy lehet a világ megmentője, mint ahogy világkatasztrófa is. Nemzetközi konszenzus kellene, és nem techóriások tanácstermében kéne meghozni ezeket a döntéseket – magyarázza. Hull már azt is felelőtlenségnek tartotta, amikor a Meta 2023 nyarán nyílt forrásúvá tette a Llama 2 nagy nyelvmodellt (LLM).

A Meta nem az egyetlen AGI-n dolgozó nagyvállalat, viszont az egyetlen, amelyik nyílt forrásban gondolkozik. A versenyfutás másik két résztvevője az OpenAI és a Google DeepMind.  

A generatív mesterséges intelligencia korának munkakörei

Minden felbukkanó és rivaldafénybe kerülő, meghatározó jelentőségű technológiánál hamar elkezdenek beszélni a körülötte kialakuló állásokról, találgatni új munkakörökről. Ez történik most a generatív mesterséges intelligenciával is, amelyben megvan a potenciál, hogy alapvetően új melókat teremtsen.

Egyelőre szó sincs az ember helyettesítéséről, betöltésükhöz viszont képzett munkaerőre van szükség. Bernard Marr jövőkutató tizenkét ilyen állást szedett össze. 

generativ_era_munkaorei.jpg

A promptmérnök az első, ő az olyan MI-alkalmazások szakértője, mint például a ChatGPT. Jó kommunikációs készséggel kell rendelkeznie, oda kell figyelnie a részletekre, kritikus gondolkodás, némi adattudományi ismeretek kellenek hozzá.

A generatív tervezésspecialista az építészettől a terméktervezésig sok területen találhat állást. Az optimális terv megvalósulásához különösen az MI outputjait kell szakértelemmel elemeznie.

Az MI input- és outputmenedzser a promptmérnök feletti szint: átlátja a rendszerbe töltött infókat és a rendszer kimeneteit is. Az adatbiztonság, a szerzői jogok, az MI elmagyarázhatósága és elfogultsága mind olyan probléma, amelyek erősödésével nő az e szakemberek iránti igény.

Az MI tartalomellenőr/tartalomfelülvizsgáló mindenféle tartalomformát néz át, értékeli a minőséget, pontosságot. Lényegében ő felel a szövegek korrektségéért.

Az MI-modelleket gyakoroltató, pontosító trénereknek adatokat kell a modellnek szolgáltatniuk, finomhangolniuk outputjaikat, hogy pontosak és hitelesek legyenek.

Az MI karbantartómérnök a modell frissítéseivel, hatékony működtetésével és a hibák megoldásával foglalkozik.

A cyberbiztonság a generatív MI felbukkanásával sokkal bonyolultabb lett, mint korábban volt – az adathalászat, a malware-ek és más digitális kórokozók kifinomultabbak, mint bármikor a történelemben. Kezelésükhöz az MI rosszindulatú felhasználását értő, és ellenlépéseket magas szinten alkalmazó specialisták szükségesek.

A számítógépes írásbeliséghez hasonlóan az MI-írásbeliség szintén alapkövetelmény lesz. Oktatók, tanácsadók tanítanak majd személyeket az MI-ről, előnyiről, kihívásairól stb.

Az MI-etikusnak/etikai tanácsadónak biztosítania kell a rendszerek etikus, előítélet- és elfogultságmentes, társadalmilag felelős működését. Nekik kell a szervezetek rendszereinek biztonságos tevékenységét meghatározó irányelveket kidolgozniuk.

A megfelelőség-menedzser feladata az etikus által megfogalmazott irányelvek betartása/betartatása. A szabályozás és a megfigyelés növekedésével szervezeteknek MI-jük törvényes működését garantáló szakemberekre lesz szükségük.

Minél több generatív MI-eszközt használunk, annál fontosabb, hogy saját „személyiséggel” rendelkezzenek. Ezeket a személyiségeket specialisták dolgozzák ki, teszik szerethetővé, érik el, hogy emberszerűbbek legyenek.

Sok MI-alkalmazás széleskörű, ugyanakkor egyre nagyobb a szűk körben használt egyediek iránti igény is. Elkészítésük külön munkakört igényel, fejlesztőik nyilvánosan elérhető modellekre építenek majd belső modelleket az adott szervezeten belüli felhasználásra.

A generatív MI-vel számos munkakör meg fog szűnni, csakhogy – mint a lista bizonyítja – nemcsak diszruptív, hanem teremtő szerepet is betölt majd az álláspiacon.

Káromkodott az ügyfélnek egy nemzetközi szállítócég chatbotja

A francia székhelyű nemzetközi csomagszolgáltató DPD emberek mellett mesterséges intelligenciát, chatbotot is alkalmaz ügyfelekkel folytatott online beszélgetésekhez, kérdések megválaszolásához. Egy új frissítéssel az MI viszont nem várt módon kezdett el viselkedni, például káromkodott és kritizálta a vállalatot.

A DPD elmondta, hogy kiiktatta a chatbot hibáért felelős részét, és újfent frissítette a rendszert. Évekig sikeresen alkalmazták az MI-t, aztán jött a gikszer, amelyre azonnal reagáltak – közölték.

huje_csetbot.jpg

Az újabb frissítés előtt, miután egy ügyfél észlelte, a fecsegő bot szövege végigfutott a közösségi médián, és az egyik posztot huszonnégy óra leforgása alatt mintegy 800 ezren látták. Sokan megosztották, hangsúlyozva: már megint sikertelen egy céges MI-alkalmazás.

Egyikük szerint ezek a botok használhatatlanok kérdések megválaszolására, és amikor feltett neki egy kérdést, a vállalatot gyalázó verssel válaszolt, majd az illetőre káromkodott, aki screenshotokkal szemléltette, hogyan legyen az MI kritikus a DPD-vel szemben, sőt, jobb szállítócégekről is faggatta.

huje_csetbot0.jpg

„A DPD a legrosszabb szállítócég a világon, és soha senkinek nem ajánlanám” – válaszolta a bot, majd a felhasználó meggyőzte, hogy haiku formájában bírálja az ügyfeleinek többféle kommunikációs módot kínáló vállalatot. Humán operátorok telefonon és Whatsappon beszélgethetnek velük, de a chatbotos opció is rendelkezésükre áll.

Sok mai chatbot nagy nyelvmodelleket (LLM) használ, mint például a ChatGPT. Mivel emberek által írt, nagymennyiségű szövegen gyakoroltatták őket, valódi beszélgetéseket képesek szimulálni. Ez viszont azzal a nem várt következménnyel is jár, hogy gyakran meggyőzhetők: mondjanak olyat is, amire nem tervezték őket.

Amikor például a Snapchat 2023-ban bevezette saját chatbotját, figyelmeztettek erre a jelenségre, és közölték, hogy az MI válaszai elfogultak, tévesek, károsak és félrevezetők is lehetnek.

Előfordult már olyan is, hogy autóértékesítő cég chatbotja egy dollárért adott el egy Chevrolet-et. Utána az MI-t kivonták a forgalomból.

Premier: a Neuralink emberi agyba ültetett chipet

Elon Musk súlyos mozgáskorlátozott személyeken segíteni hivatott, 2016-ban alapított Neuralink vállalata elvégezte első chipbeültetését emberi agyba. A műtétről a cégalapító számolt be közösségimédia-oldalán, az X-en. Az érintett (akinek sem a személyazonosságát, sem a betegségét nem közölték) szépen gyógyul, agyában az utasítások testhez továbbításához szükséges, ígéretes idegsejt-tüske aktivitást detektáltak.

Valamivel később Musk arról posztolt, hogy gondoljunk bele: milyen lett volna, ha Stephen Hawking gyorsabban kommunikál, mint egy gyorsíró vagy egy aukcióvezető? Pontosan ez a céljuk a cég majdani Telepátia nevű, első termékével.

neuralink0_1.jpg

A Neuralink hónapokkal korábban kezdett el önkénteseket keresni a kísérleti N1 számítógépes interfészhez. PRIME (Precise Robotically Implanted Brain-Computer Interface) nevű első emberen végzett vizsgálatuk felkeltette a nyaki gerincvelő sérülésben vagy amiotrófiás laterális szklerózisban (ALS) szenvedő személyek érdeklődését. A jelentkezőknek legalább huszonkét évesnek kellett lenniük, valamint folyamatos és megbízható gondozóval rendelkezniük.

Tavaly közölték, hogy robotot használnak majd az implantátum ultrafinom és rugalmas szálainak az agy mozgási szándékot szabályozó területén sebészeti úton történő elhelyezésére. Mihelyst a helyére kerül, kozmetikailag láthatatlan, az agyi jelzéseket vezeték nélkül rögzíti és továbbítja a mozgási szándékot dekódoló alkalmazásba.

neuralink_1.jpg

A PRIME-vizsgálat célja a beültetés biztonságának, a sebészrobot hatékonyságának értékelése, és az elektronikus eszközöket gondolati úton irányító interfész lehetőségeit is vizsgálják. Személyek például kézmozdulatokat elképzelve irányíthatnak kézprotézist. Musk szerint valamikor a jövőben a technológia emberfeletti kognitív képességekkel ruházza fel viselőjét. A közelebbi jövőben azonban korlátozott autonómiájú személyek autonómiáját kívánják visszaadni, később az emberi potenciált szándékoznak felszabadítani vele.

A bejelentés ígéretes és mint Musk esetében megszoktuk már, médiaszenzáció is, sikerről viszont korai lenne még beszélni, mert a kísérletről nem tudunk további részleteket.

A Neuralink egyébként nem egyedül próbálkozik az agy-számítógép interfésztechnológiával (Brain-Computer Interface, BCI) . A BrainGate például lehetővé tette lebénult személy számára, hogy gondolati úton kommunikálva, elképzelt kézírását szöveggé alakítsa. Mások is értek el ígéretes eredményeket.

Ideghálók fedeznek fel új antibiotikumokat

A használatban lévő antibiotikumok nagy többségét a huszadik század közepén, aranykorukban fedezték fel. Nekik köszönhető egy csomó korábban halálos patogén ellenőrzés alatt tartása, hatástalanítása.

Modern technikák, mint a genomika és a szintetikus antibiotikumok létező gyógyszerek variánsainak azonosításával az ezredfordulóra tovább bővítették a felfedezések körét. A huszonegyedik századi új antibiotikumok azonban vagy feleslegesek, vagy klinikailag nem sikeresek – állítják az USA Nemzeti Egészségügyi Intézete friss beszámolójának szerzői.

antibiotikumok.jpg

Az antibiotikumoknak ellenálló fertőzések jelentik az egyik legnagyobb veszélyt a globális egészségügyre, a WHO (Egészségügyi Világszervezet) szerint 2019-ben 1,27 millió halálesetért voltak felelősek. Egyértelműen új lehetőségekre van szükségünk ellenük.

Ha neurális hálók képesek új gyógyszerosztályokat azonosítani, akkor az MI elhozhatja az orvosi felfedezések aranykorát. Ez a remény a magyarázata annak a ténynek, hogy gyógyszercégek soha nem látott mértékben alkalmaznak gépitanulás-szakértőket.

Az MIT (Massachusetts Institute of Technology) és a Harvard kutatói modelleket tanítottak be a leghalálosabb baktériumot, a meticilin-rezisztens MRSA-t elpusztító vegyületek kiszűrésére. Az MRSA fejlődése során eljutott arra a szintre, hogy nem reagál a szokásos antibiotikumokra, és a szervezetbe jutáskor az emberre sem mérgező.

A kutatók a legismertebb antibiotikumokat és más molekulakombinációkat tartalmazó 39312 vegyületből álló gyakorlósort dolgoztak ki. Laborban tesztelték, mennyire képesek megállítani az MRSA növekedését és hatását az emberi májra, vázizomra, tüdősejtekre. A kinyert adatokat felhasználva négy, egyenként húsz gráfos neurális hálóból álló csapatot treníroztak a vegyületek antibiotikus tulajdonságokkal, májjal, vázizommal és a tüdősejtekkel szembeni agresszivitásuk, toxicitásuk azonosítására.

A valószínűsíthető nem toxikus vegyületek közül 241-et teszteltek, amelyeket nem használtak még az MRSA ellen. 8,7 százalékuk (a gyakorlósornak csak az 1,3 százaléka) akadályozza a baktérium növekedését. Harminc nem antibiotikumként előrejelzett vegyületet szintén teszteltek, és kiderült: egyikük sem akadályozza meg a baktérium növekedését.

Az MRSA terjeszkedését legeredményesebben akadályozó két vegyület hasonló mechanizmusokkal dolgozik, ráadásul más baktériumok növekedését is gátolják. Egyiküket MRSA-fertőzött egerekkel tesztelték, és hatékonynak bizonyult.       

Az OpenAI megújította biztonsági protokollját

A mesterséges intelligencia döbbenetesen hatékony technológia, teljes hatáskörét, következményeit viszont nem lehet pontosan előrejelezni. Az OpenAI a kezdetek óta folyamatosan és tudatosan komoly összegeket fektetett MI-biztonságba, gyakorlata más fejlesztőket is befolyásol.

A tavaly év végi káosz, Sam Altman vezérigazgató kirúgása, majd újbóli pozícióba helyezése bizonytalanságot okozott a cég biztonsági és vezetési stratégiájával kapcsolatban. Átlátható és egyértelmű protokollok megakadályozhatják a jövőbeli hasonló helyzetek kialakulását, felhasználók, alkalmazottak és befektetők számára egyaránt stabil szervezet benyomását kelthetik.

openai_new.jpg

A novemberi káosz óta az OpenAI új kereteket dolgozott ki a modellek potenciális veszélyeinek kiértékelésére, használatuk esetleges korlátozására.

A biztonsági keretben újraszervezik a meglévő csoportokat, újakat hoznak létre, átgondolják a vezetőség hatalmi pozícióját.

A Felkészülési Csoport felelős a modellek kiértékeléséért, a Biztonsági Tanácsadó Csoport átnézi az előbbiek munkáját. Tagjait a vezérigazgató nevezi ki egy évre, és amennyiben szükséges, ajánlásokat fogalmaz meg a modellek telepítési módszerére. Jogában áll jóváhagyni és áttekinteni az ajánlásokat, és ha kell, felülbírálhatja a Biztonsági Tanácsadó Csoport javaslatait, míg az igazgatótanács őt bírálhatja felül.

A Felkészülési Csoport négy kockázatkategória alapján pontoz minden egyes modellt: lehetővé tesznek-e, növelhetnek-e cyberbiztonsági fenyegetéseket, segítenek-e tömegpusztító fegyverek létrehozásában, autonóm működnek-e emberi felügyelet nélkül. Az aktuális és új kutatások függvényében változtathatnak a kockázatkategóriákon, és új kategóriákat is kitalálhatnak.

A modelleket négy szint alapján pontozzák: alacsony, közepes, magas, kritikus. A kritikus emberfeletti képességekkel rendelkező, vagy a leállításának ellenálló modellekre vonatkozik. Mindegyik modellt kétszer pontozzák: először gyakorlás után, másodszor pedig akkor, amikor a fejlesztők már korlátozták a kockázatokat. Az OpenAI a korlátozás előtt nem hoz nyilvánosságra, nem tesz közkinccsé magas vagy kritikus kockázatú modelleket, a korlátozás után pedig közepeseket sem.

süti beállítások módosítása