Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Vírusírás nagy nyelvmodellel

2024. április 18. - ferenck

Németország változatos ipari szektorainak tucatnyi szervezetét érte koordinált hackertámadás. A támadás egy részét külön figyelemmel vizsgálták a biztonsági szakemberek, mert önmagában a malware-ben ugyan semmi érdekes nem volt, viszont egyértelműnek tűnik, hogy a kódját mesterséges intelligencia generálta. Az MI generálta malware-t a TA547 IAB (Initial Access Broker) használta adathalász támadásokhoz.

Az IAB számítógépes rendszerekbe és hálózatokba beszivárgó, nem engedélyezett hozzáféréseket más rosszindulatú szereplőknek értékesítő aktor. Nagyon jó a biztonsági szempontból gyenge pontok azonosításában és kiaknázásukban, zsarolószoftveres (ransomware) csoportoknak és más rosszfiúknak nyújt fontos szolgáltatásokat. Általában közvetítőként teszi lehetővé a behatolást megfertőzött rendszerekbe.

ai_hackers.jpg

A támadások az új idők előhírnökei is lehetnek, pánikra viszont nincs még ok. A védekezés ugyanaz, független a program írójának kilététől. A következő évek nagy nyelvmodellek (large language models, LLM) írta vírusai nem lesznek kifinomultabbak az ember által kódoltaknál. A hackerek egyelőre tehetségesebb vírusfejlesztők a mesterséges intelligenciánál.

TA547 nem ismeretlen a pénzügyileg motivált cybertámadásokkal foglalkozó szakemberek előtt, Az évek múlásával a fejlesztési ciklusok iterációi, más malware-ek adaptálása, új technikák kipróbálása viszont mind felgyorsultak.

ai_hackers0.jpg

Támadásai rövid, személyeskedő e-mailekkel kezdődnek, általában valamilyen cégnek adja ki magát. Az e-mailek jelszóval védett ZIP-, azok tömörített LNK-fájlokat tartalmaznak. Utóbbiak aktiválják az infókat eltulajdonító Powershell szkriptet.

A Powershell az LLM-ek generálta kódok karakterjegyeit viseli, tehát a mögötte álló személyek valamilyen chatbotot használtak a megírásához.

Az MI megjelenésében semmi különös nincs. Hackerek ugyanúgy kísérleteznek a technológiával, mint bárki más. Kíváncsiak, hogyan könnyíti meg, teszi eredményesebbé és gyorsabbá tevékenységüket. Egyesek MI-vel kutakodnak a célponttal, emergens módon kialakuló gyengeségeivel kapcsolatban.

Egyelőre nincs bizonyíték arra, hogy a hackerek jobb malware-eket íratnak MI-vel, mintha saját maguk fejlesztenék a vírust. Malware-írásban még az ember az első, ráadásul az LLM-ek fejlesztői megtették a szoftvereik rosszindulatú használata elleni óvintézkedéseket.

Kérdés, meddig nincs fokozott veszély. Ha pedig jönnek a gép által írt szuper malware-ek, a védekezés nagyjából ugyanaz lesz, mint ma – csak gyorsabb és szofisztikáltabb.

Csótány-drón deríti fel az erdei lombkoronát

Dús vegetációval rendelkező környezetek folyamatos megfigyelése komoly kihívás tudósoknak – áll a Svájci Szövetségi Erdő, Hó és Tájintézet anyagában, majd a szerzők hozzáfűzik: egyes ágakból ugyan lehet mintákat gyűjteni, de a lombkorona mélyére még nem sikerült robotokkal, drónokkal behatolni, alaposan felmérni, feltérképezni azt.

Az intézet kutatói szerint az ágak rugalmassága okozza a legnagyobb problémát, a felderítést végző drónok rezgését, elbizonytalanodását.

csotany_dron.jpg

Sok más infokommunikációs alkalmazáshoz hasonlóan, a megoldást ezúttal is a természet, a biológia, annak másolása jelenti. A biomimikri jelen esetben is működik.

Az Intézet és az ETH Zürich szakemberei, a Pisai Egyetemmel együttműködve, állapították meg, hogy a csótányok testszerkezete lehet a megoldás. Az egyik legnagyobb undort kiváltó állat teste ugyanis áramvonalas és alacsony súrlódású anyagból áll.

A rovar fizikumával kapcsolatos megfigyeléseiket drónra alkalmazták. A gépet térbeli intelligenciával ruházták fel, érintési/tapintási (haptikus) visszacsatolásra képes. Ez azt jelenti, hogy reagál, amikor kapcsolatban, érintkezésben van a környezetével.

Az első teszteken sikeresnek bizonyult. Arrébb tolt leveles vagy levél nélküli faágakat, és elhaladt mellettük. A drón teste azonban nem volt annyira áramvonalas, mint a csótányé, és súrlódást is nehezebben bírta, így a kezdeti sikerek után, egy bizonyos pontot követően elakadt.

Következő lépésben mindenképpen orvosolni fogják ezeket a hiányosságokat. Például egyszerre kellene több akadályra eredményesen reagálnia, később pedig távolabbi területek biológiai sokszínűségét (biodiverzitását) mérheti.        

A YouTube figyelmeztette az OpenAI-t: ne használják videóikat modelljeik gyakoroltatásához

Amikor Mira Muratit, az OpenAI főmérnökét a Wall Street Journal arról faggatta, hogy milyen adatokat használtak a szövegből videót generáló Sora csúcsmodell trenírozásához, a CTO mellébeszélt.

„Egy alkotónak elvárásai vannak, ha feltölti kemény munkájának gyümölcsét a platformunkra. Ezek egyike a szolgáltatási feltételek betartása. Ennek értelmében átiratok és videórészek letöltése nem engedélyezett, mert egyértelműen megsértik vele a szabályzatot” – mondta néhány napja Neal Mohan, a YouTube vezérigazgatója.

youtube_openai.jpg

Magyarán, a YouTube-ot tulajdonló Alphabet, azaz a Google számára elfogadhatatlan, hogy az OpenAI temérdek videót használjon fel a platformról modelljei betanításához.

Egyre több kiadó, platform tiltakozik anyagaik ilyen jellegű – általában engedély nélküli – felhasználása miatt, és a támadások célkeresztjében a mesterségesintelligencia-kutatásokban élenjáró OpenAI, valamint közvetve a Microsoft áll.

youtube_openai0.jpg

Kérdés persze, hogy a tiltakozás mennyire hiteles az internetes keresést lényegében monopolizáló Google-hoz tartozó YouTube vezetőjétől. A Google ugyanúgy mások anyagain tanítja mesterségesintelligencia-modelljeit, mint az OpenAI, velük készül a keresőmotor MI-vel felerősített változata.

Tehát lényegében irrelevánsnak is tűnhet a vádaskodás, ráadásul, ha láttunk már Pixar-filmet vagy hasonlókat, jól tudjuk, hogy – elvileg – semmi új nincs a számítógép által generált videókban, „csak” az OpenAI módszere és a tartalom is más. Legfőbb – és óriási – különbség, hogy az utóbbi anyagainak létrehozásához ember (humán input, humán kreativitás, humán munka) sem kell már, míg a Pixar-mozikhoz nagyon is szükség van rá.

Sora látványos videói egyszerű promptok alapján pillanatok alatt elkészülnek, az MI mindent megcsinál, az eredmény elragadó. Egyre tökéletesebbek lesznek, egyre kevésbé kérik rajta számon a humán oldalt.

A gyakorlóadatokat illetően viszont még pereskedések, óriási jogi csatározások, szabályozások várhatók.  

Jön az Apple nagy nyelvmodellje, félhet a ChatGPT

Az Apple eddig kimaradt a ChatGPT-vel jelképezett mesterségesintelligencia-forradalomból, a generatív MI diadalútjából, a nagy nyelvmodellek (large language models, LLM) fejlesztéséből. Tavaly már röppentek fel hírek változásokról, hogy az almás cég bekapcsolódna a versenybe, nagy titokban folyó kutatásfejlesztésekről, de semmi konkrétum nem látott napvilágot, semmit nem jelentettek be.

Most ismét úgy tűnik, hogy valami készül náluk, és a Siri felturbózásáról szóló híresztelések beigazolódhatnak. A vállalat egyik frissen megjelent kutatási anyagában ugyanis bepillantást nyerhetünk abba, mi is készül náluk. Röviden: Siri mesterségesintelligencia-kapacitását bővítik, hosszabban: négy változatban fejlesztenek egy LLM-et.

apple_nyelvmodell0.jpg

A nyelvmodell neve ReALM a Referencia-felbontás nyelvi modellezésként (Reference Resolution as Language Modeling) rövidítése. Segíti Sirit a kontextus és így az egész beszélgetés megértésében, ám ennél is fontosabb, hogy a – cég szerint – még a legkisebb modell is a ChatGPT-vel hasonló szinten teljesít.

A ChatGPT képfájlokat és PDF-eket képes feldolgozni, a teljes képernyőt (onscreen) viszont nem tudja elolvasni, és így a teljes tartalomra sem tud reagálni. ReALM igen, ami versenyelőnyt jelent.

A modell négy változatban/méretben készül. A számok a millió és milliárd paraméterre vonatkoznak: ReALM-80M, ReALM-250M, ReALM-1B, ReALM-3B.

Mérték a teljesítményét (benchmark) és összehasonlították az OpenAI GPT-3.5-ével és a GPT-4-ével is. Az OpenAI és a Microsoft számára egyaránt nyugtalanító hír, hogy a ReALM-80M, azaz a legkisebb modell is a GPT-4 szintjén van, ami arra enged következtetni, hogy a többi sokkal jobb teljesítményre képes.

Az anyag szerzői hangsúlyozzák, hogy a ReALM előrelépést jelent a hasonló funkciókkal rendelkező rendszerekkel szemben, és a legkisebb változat is akár öt százalékkal jobb az onscreen információ feldolgozásában.

Egyelőre nem tudni, hogy az LLM mikor kerül piacra. Valószínűleg a vezetőség beszél majd róla a cég júniusi éves fejlesztői konferenciáján.

A mesterséges intelligencia biológiai kockázatainak kezelése

Több mint százötven ázsiai, európai és észak-amerikai biológus önkéntes kötelezettségvállalást írt alá a fehérjék tervezésére használható gépitanulás-modellek belső és külső felügyeletéről. A szintetikus biológiai kutatásokkal kapcsolatos tíz vállalás nagy vonalakban és elég általánosan (kevés konkrétummal) arról szól, hogy elkerülik az esetleges károkat okozó vizsgálódásokat, és támogatják a fertőző betegségek kitörésére és hasonló vészhelyzetekre vonatkozókat.

Elkötelezték magukat a fehérjeszerkezeteket a felhasználó által meghatározott jellemzők, például az alak vagy a hosszúság alapján generáló modellek kockázatainak kiértékelése mellett. Magát a kockázatelemző módszert is felülvizsgálják.

bio_risk.jpg

A DeepMind fehérjeszerkezeteket felfedező AlphaFold modellje alapján speciális tulajdonságú fehérjék tervezését biztosító alkalmazásokat fejlesztettek. Kimeneteik segítenek betegségek kezelésében, javítják a mezőgazdaság termelékenységét, ipari folyamatokban eredményes enzimek létrehozásában vesznek részt. A hibák és a helytelen használat miatti aggályok miatt viszont nemzeti és nemzetközi szervezetek figyelik ezeket a tevékenységeket.

A biológusok vállalása a modellek biztonságos használatáról sokat segíthet az ilyen problémák kezelésében.

bio_risk0.jpg

Csak olyan szolgáltatóktól szereznek be szintetikus DNS-t, akik a potenciálisan veszélyes molekulák előállítására való tekintettel szigorúan szűrik azt. Meg is állapodtak új szűrési módszerek kidolgozásának a támogatásáról.

Nyilvánosságra hozzák kutatásaik lehetséges eredményeit, kockázatait és a kockázatok mérséklésére tett erőfeszítéseiket. Rendszeres üléseken felülvizsgálják a szintetikus biológia lehetőségeit, és beszámolnak a nem etikus, megkérdőjelezhető praktikákról.

Magukat a vállalásokat is folyamatosan felülvizsgálják.

Az MI esetleges biológiai fegyverként történő használata a mesterséges intelligencia biztonságával foglalkozó kutatások visszatérő témája. A jelenlegi felelős MI-ről és fehérjetervezésről szóló megállapodást tavaly év vége felé dolgozták ki a Washington Egyetemen. Nagyjából egyidőben tartották az MI Biztonsági Csúcsot, ahol szintén behatóan foglalkoztak a témával.    

Újabb mesterségesintelligencia-céget olvaszt magába a Microsoft

Szokatlan üzlet keretében a Microsoft átvette az egykor szárnyaló mesterségesintelligencia-startup, a Mustafa Suleyman (hajdani DeepMind társalapító és a tavaly megjelent Következő hullám bestseller szerzője) által alapított Inflection nagy részét.

A Microsoft alkalmazza a vezérigazgató Suleymant és a cég dolgozóinak többségét, közel 650 millió dollárt fizetve a modellekhez való hozzáférésért és a jogvédelemért. Az Inflection a fogyasztók kiszolgálásától a nagyvállalatokra helyezi át a hangsúlyt.

inflection.jpg

A sok tehetség, a hatékony támogatás és a többmilliárd dolláros érték ellenére, az Inflection gondokkal küszködött. Az egyik legizgalmasabb és legígéretesebb startupból áramvonalasított vállalatiszoftver-szolgáltatóvá vált, ami persze a chatbot-szektor versenyképességét is remekül szemlélteti.

A céget Suleyman, Karén Simonyan és a LinkedIn-igazgató Reed Hoffman alapította, részben Microsoft-támogatással. Eredetileg az OpenAI és az Anthropic vetélytársaként pozícionálták magukat, MI-asszisztenseket próbáltak fejleszteni. Legismertebb termékük az érzelmi támogatást nyújtó Pi chatbot.

inflection0.jpg

Satya Nadella, a Microsoft vezérigazgatója hónapok óta folytatott tárgyalásokat Suleymannal, aki magával akarta vinni a csapatot. Formálisan nem vásárolták fel a függetlenként, különálló entitásként maradt Inflectiont, és a 650 millió is a fele a tavaly kapott 1,3 milliárd dolláros befektetésnek, a becsült négymilliárdos értéktől pedig még messzebb van.

A Microsoft 620 milliót fizetett az Inflection modelljeinek nem kizárólagos licencéért. A legnagyobb nyelvmodell, az Inflectiom-2.5 és az API-k (alkalmazásprogramozói felületek) az Azure felhőszolgáltatáson lesznek elérhetők.

A hetvenfős csapat zömét, köztük Simonyant is a Microsoft alkalmazza új Microsoft MI részlegében. Az Inflection harmincmillió dollárért lemondott a Microsoft munkaerő-kölcsönzési tevékenységével kapcsolatos törvényes jogokról.

Az összegből és a bevételekből az Inflection kompenzálja a saját tőkéjüket a startupban megtartó befektetőket.

A Microsoft korábbi MI-csapatának egy részét megtartó új szervezet a nagyvállalat mesterségesintelligencia-törekvéseit felügyeli a jövőben: fogyasztói termékeket, mint a Bing, Copilot asszisztenseket stb.

A szokatlan szerződést (mivel nem akvizíció) valószínűleg a trösztellenes vizsgálatok elkerüléséért kötötték.  A Microsoft és az OpenAI kapcsolata – ami változatlanul stratégiai prioritás – már eleve felkeltette az USA, az Egyesült Királyság és az EU törvényhozóinak a figyelmét…     

Több környezetben is működhet ugyanaz az ágens

Ágensek különféle környezetekben történő feladat-végrehajtásra való betanításával közelebb kerülünk ahhoz, hogy bármilyen szituációban tudjanak dolgozni – és természetesen az általános mesterséges intelligenciához (AGI) is. Valahogy úgy, mint az ember, és ha megvalósul, akkor a robotikában, szimulációban, valamint a játékokban várhatók az első alkalmazások.

Eddig tipikusan úgy tervezték őket, hogy meghatározott, tehát egyetlen szoftverkörnyezetben tevékenykedjenek, de a Google és a kanadai Brit Columbia Egyetem Skálázható, Utasítható Több-világos Ágense (SIMA) változatos közegekben – hét videójátékban és négy kutatási környezetben, háromdimenziós virtuális világokban – tanulta meg szöveges utasítások követését.

agensek0.jpg

A rendszer architektúrája több transzformer és más neurális hálóból áll. Megtanították neki, hogy adatsort és tíz másodperces feladatokra tördelt játékmenetet, képernyőn megjelenő képeket, szöveges utasításokat, billentyű-lenyomásokat és egérmozgatást használva utánozzon humán játékosokat.

Olyan játékokkal dolgoztatták, mint például a harmadik személyben, kecske formában kivitelezendő Goat Simulator 3 (goat = kecske), az első vagy harmadik személyes űrbéli felfedező- és túlélőkaland No Man’s Sky, az elsőszemélyes bányászó-építő Hydroneer.

agensek.jpg

A megadott utasítások és a képernyő-kép egy kockája alapján előre gyakoroltatott transzformer-pár szövegekhez és képekhez beágyazásokat generált. Egy másik, a következő képkockát előrejelző transzformer videóbeágyazásokat hozott létre.

A szöveges, képes és videóbeágyazások alapján transzformerek elsajátították, hogyan jelenítsék meg a játékot, majd a játékreprezentációból kiinduló újabb (nem transzformer) háló megtanulta elkészíteni a kapcsolódó billentyű- és egérműveleteket.

SIMA teljesítményét kilenc kategóriában értékelték ki. A Goat Simulator 3 feladatainak negyven százalékát abszolválta, a No Man’s Sky-ban 34 százalékot ért el, míg a humán játékosok átlaga hatvan volt. Az egyetlen játékra specializálódott ágenseknél másfélszer jobban teljesített.

A SIMA a Google korábbi kísérletei folytatásának tekinthető. A nagyvállalat ugyanis fejlesztett már az emberrel egy-egy játékban (Go, klasszikus Atari-játékok, StarCraft II) rivalizáló ágenseket.          

Lelőtték az életmentő rendőrségi robotkutyát

A magyarul stukkert, pisztolyt jelentő Roscoe, a Massachusettsi Állami Rendőrség robotkutyája tragédiát előzött meg egy, bűnöző által elbarikádozott házban. A rendőrség bombaelhárító csoportjához tartozó gépet március hatodikán vetették be az egyik bostoni külvárosban, miután a rendőrökre lőttek az épületből.

Bombaelhárításhoz gyakran használt két másik robotot is beküldtek a házba, hogy a „kutya” segítségével megtalálják a gyanúsítottat.

roscoe.jpg

A rendőrök által távirányított Roscoe először a két emeletet ellenőrizte, és csak utána talált valakit az alagsorban. A puskával felfegyverzett személy kétszer feldöntötte a robotkutyát, majd háromszor rálőtt, kiiktatva a gép kommunikációs kapacitását.

Az illető utána rálőtt egy másik robotra, majd az úszómedencére tüzelt. A rendőrök erre könnygázt vetettek be, és elfogták a bűnözőt.

Az incidens ékes példája annak, milyen előnyökkel járnak az ajtónyitásra és lépcsőmászásra képes robotplatformok fegyveres gyanúsítottakat érintő taktikai küldetések során – írta a rendőrség egy sajtóanyagban.

Egyrészt kritikus jelentőségű helyiség-felszabadítást biztosított, és remek volt a helyzetfelismerő képessége. Roscoe rászabadítása a gyanúsított lakhelyére meghiúsította, hogy a rendőrségi eljárásnak ebben a szakaszában a bűnüldöző szervtől valaki, ember is részt vegyen a műveletben, hogy lövöldözés alakuljon ki a gyanúsított és a rendőrök között.

Nem kellett humán operátornak közvetlenül beavatkoznia, tehát Roscoe életet mentett meg.

A fejlesztő Boston Dynamics a világ egyik leghíresebb robotikai vállalkozása, Roscoe eredeti neve pedig Spot, a gépet így ismerik világszerte. A cég elmondta: ez volt az első alkalom, hogy valamelyik gépüket lelőttek, viszont megnyugvással töltötte el őket, hogy „csak” egy robot, és nem emberi lény az áldozat. Az esemény remek példája, hogy egy Spot-féle mobil robot hogyan használható életmentésre.         

Minden tartalom kamutartalom lesz?

A generatív mesterséges intelligencia térnyerésével egyre nehezebb megállapítani, hogy a monitoron elénk táruló látvány valóság vagy számítógép által generált fantázia, és ez a képek mellett audió- és videóanyagokra is érvényes.

Az eszközök egyre kifinomultabbak, soha nem volt ennyire könnyű képet, mozgóképet, szöveget és hangot létrehozni bármiről, amit csak akarunk, függetlenül attól, hogy létezik vagy sem, hogy a valóság pontos lenyomata vagy semmi köze hozzá.

fake_1.jpg

Eljöhet a nap, amikor nem is lesz már szükségünk a való világban rögzített tartalmakra, és persze jóval egyszerűbb is, ha a számítógépet utasítjuk: tedd ezt, aztán azt! Ha így történik, egy csomó kreatív állás megszűnhet, de tényleg ezt a jövőt akarjuk? – teszi fel, majd igyekszik megválaszolni a kérdést Bernard Marr futurológus.

Nem csak a generatív MI-ről van szó, Photoshoppal és szűrőkkel korábban is meg lehetett másítani, el lehetett torzítani a valóságot. A mélyhamisítványok (deepfakes) a legfejlettebb – viszont nem az egyedüli – technológia erre, mert mélytanulással csiszolódott neurális hálókkal teremt teljesen meggyőző, de nem valódi tartalmakat. Bűnözők használják is serényen, ám arról se feledkezzünk meg, hogy a mélyhamisítványoknak csak kis része készül negatív célokra. De mivel a generatív MI a mindennapok részévé vált, a kamutartalmak a dezinformáció terjedéséhez, demokratikus folyamatok aláásásához elegendők.

fake0.jpg

És még az etikusan készített tartalmak is problémásak hírügynökségek, újságok számára, mert a hitelességüket veszíthetik el. Újságíróknak szigorúbban és alaposabban kellene ellenőrizniük forrásaikat, és közben meg is kellene győzniük az egyre szkeptikusabb olvasótábort.

A szabályozás és az oktatás – különösebben az utóbbi – szintén sokat segíthet. Marr szerint az oktatás a fontosabb, bár a március tizenharmadikán törvényerőre emelkedett EU-s szabályozás értelmében, ha nem magánszemélyek publikálnak kamuképeket, fel kell tüntetniük, hogy MI munkái.

A jövőben viszont még többen, még kevesebb hozzáadott értékkel alkothatnak, ami egyáltalán nem jelenti a kreativitás végét, csak az átalakulást, miközben az ember-gép együttműködés szorosabbá válik, ugyanakkor Marr szerint az állásvesztés miatti aggályok valósak.

Az ember alkotta tartalomra azonban mindig lesz igény – összegez a jövőkutató.      

Nvidia-főnök: a mesterséges intelligencia hallucinációi kezelhetők, öt éven belül pedig itt lesz az általános MI

Az Nvidia éves fejlesztői konferenciáján Jensen Huang vezérigazgató arról beszélt, hogy az általános mesterséges intelligencia (artificial general intelligence, AGI) az emberiséget érintő egzisztenciális kérdéseket vet fel, mert a gépek szinte minden területen felülmúlják majd az embert: jobban gondolkoznak, tanulnak, teljesítenek. Az AGI döntéshozási folyamatának és céljainak kiszámíthatatlansága, előre-jelezhetetlensége a koncepció lényege. Elképzelhető, hogy ezek a folyamatok és célok nem egyeznek az emberével.

Sokan tartanak attól, hogy az autonómia és a képességek bizonyos szintjét elérve, az AGI ellenőrizhetetlenné válik, és olyan forgatókönyvek valósulhatnak meg, amelyekben a cselekedeteit nem lehet megjósolni, megváltoztatni.

mi_halluvinaciok.jpg

A szenzációhajhász média az időintervallumra rákérdezve, az emberiség, de legalábbis a mostani status quo végének dátumára keres válaszokat. Az MI-vállalatok vezetői gyakran nem is reagálnak ezekre a kérdésekre.

Huang viszont igen. Szerinte sok függ attól, mit is értünk AGI-n. Több párhuzamot von, az egyikben például az időzónák bonyolultsága ellenére, mindenki tudja, hogy lesz Újév és 2025 is elkezdődik. Ha az Nvidia fejlesztői konferenciájára tartunk, a San Joséi Kongresszusi Központhoz közelítve, a hatalmas transzparensekből tudjuk, hol lesz az esemény. A lényeg: legyen valamilyen időbeli vagy térbeli közmegegyezés arról, hogyan mérjük, hogy megérkeztünk.

Ha az AGI-t speciális valamiként, például programok által kiválóan, vagy az embernél, mondjuk nyolc százalékkal jobban abszolvált tesztekkel definiáljuk, akkor Huang szerint öt év múlva itt lesz. A tesztek ügyvédi vagy orvosi vizsgák, logikaiak, gazdaságiak lehetnek. Hacsak a kérdező nem nagyon speciális az AGI a kérdés kontextusában való jelentésével kapcsolatban, Huang nem bocsátkozik előrejelzésekbe.

Az MI hallucinációi – amikor hihetőnek tűnő, de kitalált válaszokat ad kérdésekre – viszont könnyen kezelhetők. Biztosra kell menni, hogy a kérdés megalapozott, valós tényeken alapul. Át kell vizsgálni a forrást és a kontextust, a bennük lévő tényeket ismert igazságokkal kell összevetni, és ha a válasz a tényeket illetően teljesen vagy csak részben pontatlan, ki kell szórni a teljes forrást, és a következővel kell foglalkozni.

Az MI-nek ugyanis nemcsak válaszolnia kell, hanem kutakodnia is, hogy megállapítsa: melyik válaszok a legjobbak.

Kritikus esetekben, például egészségügyi tanácsadásnál, több és ismert forrás használandó, és a válaszadó rendelkezzen a lehetőséggel, hogy azt mondja: „nem tudom a választ”, vagy „nem tudok konszenzusra jutni.”

süti beállítások módosítása