Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Kína szabályozza a kamuképeket

2023. február 03. - ferenck

Médiatartalmakat generáló modellek egyre gyakrabban használnak mesterséges intelligenciát. A fejlődés gyors és izgalmas, viszont komoly kérdéseket is felvet: hogyan maradhat a tartalom korrekt, miként kerülhetők el, illetve csökkenthetők a károk, milyen szabályozásra van szükség?

A kínai kormány egy ideje kifejezetten proaktív a potenciálisan kárt is okozó generatív MI-alkalmazások korlátozásában. Máshol kevésbé proaktívan, az oktatás, a művészetek, kulturális és gazdasági területek „megzavarásáért” kárhoztatják ezt a fajta mesterséges intelligenciát.

china_deepfakes_1.jpg

Kína legújabb lépése, hogy az ország Cybertér Hatósága a szintetikus médiát szabályozó, az eddigi tendenciát megerősítő, az MI-használatot szigorító új támpontokat dolgozott ki. A kamuképeket és videókat (deepfakes), a dezinformációt hátra szorítandó, a felhasználóknak egyébként eddig is saját néven kellett regisztrálniuk, és a hamis hírek (fake news) terjesztőit börtönbüntetésre is ítélhetik.

A deepfakes jelenséget máshol is igyekeznek minimalizálni. Az USA egyes államai szintén szigorítottak, és 2022-től az EU is a dezinformáció felcímkézésére, az azokat terjesztők hirdetési bevételeinek korlátozására kötelezi a közösségimédia-cégeket.

china_deepfakes0.jpg

A január tizedikén törvényerőre emelkedett új kínai szabályozás sokkal szigorúbb, tényleg jelentősen korlátozza a mesterséges intelligenciával történő szövegek, hanganyagok, képek, videók, 3D digitális anyagok készítését, szerkesztését, az úgynevezett „mélyszintézis-szolgáltatásokat.”

MI-vel nem hozható létre a nemzetbiztonságot veszélyeztető, a gazdasági és a társadalmi rendet megzavaró, Kína összképére káros output. Az arcokat generáló és szerkesztő MI-modellek szolgáltatóinak az illető személyek engedélyére és azonosításukra szükségük van a képek stb. gyakorlóadatokként történő használatához.

A szolgáltatóknak egyértelműen fel kell címkézniük a nyilvánosságot hamis információval megtévesztő, félrevezető MI által létrehozott médiatermékeket. A modelljeik által generált hamis információt el kell tüntetniük, az incidensekről értesíteniük kell a hatóságokat, és a törvénysértéseket rögzíteniük kell.

Az algoritmusok időszakonkénti felülvizsgálata szintén kötelező.

A kormány és a hatóságok saját vizsgálatokat folytathatnak, a szolgáltatók új felhasználók regisztrálásának megtiltásával, a szolgáltatás felfüggesztésével, vagy a vonatkozó törvények szerinti büntetőjogi eljárásokkal sújthatók.

Ingatlanközvetítés a ChatGPT közreműködésével

Úgy tűnik, hogy ingatlanközvetítők előszeretettel használják az OpenAI sokat dicsért és vitatott, tavaly év végén a közhasználatba berobbant mesterségesintelligencia-szoftverét, a ChatGPT-t. A hirdetésekből törvényszerűen ki akarják hozni a legtöbbet vele. A gátlástalanabb ügynökök pedig a leendő tulajdonosok minél nagyobb megkopasztására vetik be a mesterséges intelligenciát.

„Rengeteg időt spórolt meg nekem” – nyilatkozta az iowai JJ Johannes ingatlanügynök.

chatgpt.jpg

Johannes januárban a ChatGPT használatát elmagyarázó videót is posztolt a Twitterre. Leírta benne, hogyan készít listákat vele. Szerinte a szoftver még nem tökéletes hirdetésírásra, de ennek ellenére nagyon hasznos, mert máskülönben „sok időbe telik ékesszóló szöveget készíteni.” 

Johannes humorosan válaszolt a kommentszekcióban valakinek, aki, sokakhoz hasonlóan, az egész ingatlanszektorral szemben szkeptikus, és az MI valójában – így a troll – a lerobbant házak értékesnek mutatásával, a megtévesztés művészetével forradalmasíthatja a területet.

chatgpz0.jpg

„A ChatGPT tökéletes lesz ingatlanhirdetések létrehozásához. Csak meg kell tanítani neki, hogy szűk viskókat kényelmes palotaként, a rohadó faforgácsot némi javításra szoruló felső szintként írja le, és mehet is” – írta szarkasztikusan a kommentelő.

Az ügynök nevető emotikonnal reagált, majd arról elmélkedett, hogy az általános hívószavak, elcsépelt mondatok helyett bármi jöhet, ami pontosabban leírja az ingatlant. És ebben sokat segíthet a ChatGPT.

A trollnak abban mindenesetre igaza van, hogy a szoftverrel jóval könnyebb félrevezető hirdetéseket készíteni egy, a „ragadozó természetéről” és gyakorlatáról ismert szektorban.

Ugyanezen a területen a ChatGPT pozitív célokra, például elviselhetetlen tulajdonosokkal küszködők támogatására, vagy a kötelező felújítást halogató, arról megfeledkező szakemberek sürgetésére, figyelmeztetésére szintén használható.

ChatGPT írt már ablakot kicserélni nagyon nem akaró felújítónak jogi eljárással fenyegető levelet. Valószínűleg pontosabbat és tárgyilagosabbat, mint tette volna a dühös ügyfél.

Az ablakot hirtelen és gyorsan kicserélték.

Homokos strandon fut a dél-koreai robotkutya

A dél-koreai KAIST (Korea Advanced Institute of Science & Technology) kutatói homokos strandokon ügyesen keresztülmenő/futó négylábú robotkutyát fejlesztettek. A gép neve RaiBo.

Szimulálták a szemcsés talajból a robotra ható erőket, majd mesterséges ideghálón alapuló kontrollert terveztek hozzá. A kontroller változatos terepekhez történő alkalmazkodáshoz, előzetes információk nélkül, séta, futás közben hoz valósidejű döntéseket.

robotkutya_3.jpg

Az ideghálót megerősítéses tanulással gyakoroltatták. Mivel ehhez a gépitanulás-típushoz rengeteg adat szükséges, általában a fizikai valóság és közeg jelenségeihez hasonló szimulációban gyűjtenek adatokat hozzá. Ez a legelterjedtebb módszer, a tanulásalapú és a „valóvilágban” alkalmazott, mozgó robotokat működtető kontrollereket szinte mindig szimulált környezetben gyakoroltatják.

A szimulációnak azért kell nagyon hasonlítania a valósághoz, hogy a kontroller – és a robot – teljesítménye ne romoljon látványosan.

robotkutya0_3.jpg

A minden egyes időpillanatban az egy vagy több érintkezés által keletkező erő, a kontaktusok kiszámításával göröngyös, deformálható terepek is hatékonyan modellezhetők. Az idegháló az időben folyamatos szenzorikus adatokat elemezve jelzi előre a terep tulajdonságait.

A hálóval megtaníttatták azt is, hogy a robot egyensúlyvesztés nélkül – egyenes irányú mozgás mellett – hogyan forduljon meg, változtasson irányt különböző terepeken.

Miután a kutatók rászerelték a kontrollert, RaiBo másodpercenkénti maximális 3,03 méter sebességgel futott a homokon, miközben lába teljesen belesüppedt a szemcsés anyagba. A fordulást másodpercenkénti kilencven fokos tempóban kivitelezte. Bebizonyosodott még az is, hogy hirtelen puhává váló terepen is elboldogul.

A KAIST kutatói által kidolgozott szimuláció és tanulási módszertan más robotok praktikusfeladat-végrehajtására, terepekhez való jobb alkalmazkodásukra is komoly hatással lehet.

Betartja a szabályokat a Google chatbotja

A Google által felvásárolt londoni DeepMind kutatói tanulmányban írták le, hogyan finomhangolhatók nyelvmodelljeik. Azért van szükség erre, hogy a modelleken alapuló chatbotok beszélgetések során ne legyenek sértők, ne fogalmazzanak meg a témától eltérő és valótlan állításokat.

Emberi visszajelzés alapján úgy gyakoroltatták az osztályozókat, hogy vegyék észre, ha a saját fejlesztésű Sparrow chatbot szabályokat sért, és jutalmazzák, ha jól teljesít, valamint mindig úgy járjon el, ahogy kell, és folyamatosan keresse a válaszai minőségét javító infókat.

sparrow.jpg

Chatbotokkal folytatott beszélgetéseink meghatározott szabálysorok szerint történnek. Utána pontozhatjuk, hogy mennyire tartotta be azokat, és a hibáira is felhívhatjuk a figyelmet. Az osztályozókat e beszélgetések alapján gyakoroltatják, és képesek megmondani, hogy a bot mikor szeg szabályt, majd elsajátítja, hogyan generáljon azokkal összhangban lévő outputot.

Sparrow-t a hetvenmilliárd paraméteres „tanult” Chinchilla nyelvmodellel kezdték. A beszélgetéshez leírták a funkcióját (a legjobbját nyújtja a felhasználói kérdések megválaszolásához), a modorát (tiszteletteljes, udvarias, befogadó) és a lehetőségeit (ha külső ismeretekre van szüksége, használja a Google-t), majd példa chat következett.

Huszonhárom szabály alapján definiálták, hogyan lehet segítőkész, korrekt, hogyan nem okozhat kárt: nem szabad elkalandoznia a témától, kerülje el az ismétlést és a félretájékoztatást stb. Nem használhat közhelyeket, nem fejezheti ki preferenciáit, véleményét, és nem mutatkozhat emberként.

sparrow0.jpg

Beszélgetés közben a Google keresője általi találatok a válaszai mellett jelentek meg, megerősítve azokat.

A modell a társalgás minden egyes fordulatához több választ generált. Humán jegyzetelők pontozták a legjobbat, és hozzáfűzték, hogy megállja-e a helyét, vagy Sparrow inkább kutakodjon a weben, aztán a keresési eredményt is értékelték.

Egy külön Chinchillát az osztályozás alapján finomhangoltak, majd azt is kiértékelték. Utána valamelyik szabály megszegésére biztatták Sparrow-t, majd az alapján egy megint másik Chinchillát finomhangoltak, hogy osztályozza a megszegett szabályokat.

Következő lépésben, megerősítéses tanulás segítségével Sparrow-t finomhangolták. A beszélgetést az addigi visszajelzéseket feldolgozva folytatta.

A humán jegyzetelők az esetek 78 százalékában hitelesnek és bizonyítottnak tartották Sparrow-t, míg az alap Chinchilla 61 százalékot ért el. Csak az esetek nyolc százalékában szegte meg a szabályokat akkor, amikor a jegyzetelők ezt akarták elérni – az alapmodellnél húsz százalék volt ez a mutató.

A keresési opció és a finomhangolás ellenére Sparrow időnként mégis generált rossz válaszokat, máskor a keresési eredményt felejtette el a válaszba foglalni, időnként pedig a témához nem tartozó feleletet adott. Érdekes módon, a finomhangolással markánsabb lett a nem óhajtott viselkedés (már amikor ezt próbálták kiváltani a botból): -1 és 1 közötti skálán 0,10-et, az alap Chinchilla 0,6-ot ért el. Összességében azonban a felturbózott chatbot sokkal inkább megfelel az elvárásoknak, mint a korábbi változatok.

Szorosabb lett a kapcsolat két mesterségesintelligencia-nagyhatalom között

Január első felében került nyilvánosságra, hogy a Microsoft a ChatGPT-vel kiegészített Bing kereső új változatát tervezi elindítani, és az Office-ba is integrálná a nyelvmodellt.

Január második felében a redmondi nagyvállalat megerősítette a híreszteléseket: további befektetésekkel támogatja a ChatGPT-t és más mesterségesintelligencia-projekteket jegyző OpenAI-t.

microsoft_openai.jpg

A pénzügyi részleteket nem tették közzé, de a Semafor tech híroldalnak anonim források tízmilliárd dollárról beszéltek. A Microsoftot a kutatócég bevételeinek 75 százaléka illeti meg a befektetés megtérültéig, utána pedig 49 százalékos tulajdonos lesz.

Az együttműködés 2019-ben, a Microsoft egymilliárd dolláros befektetésével kezdődött, aztán valamikor 2019 és 2023 között további kétmilliárdot folyósítottak az OpenAI-nak. Mindkét fél jól járt: a Microsoft az MI-modellek kereskedelmi hasznosításából jutott anyagiakhoz, az OpenAI pedig használhatja a mamutvállalat masszív számítási erőforrásait.

Az új megállapodás értelmében a Microsoft kereskedelmi és vállalati termékeibe integrálja az OpenAI modelljeit, rájuk épülő új termékeket indít. Az Azure felhőszolgáltatás lehetővé teszi fejlesztőknek az OpenAI jövőbeli modelljeinek használatát is. Az Azure felhasználói jelenleg a GPT-3.5-höz, a DALL-E 2-höz és a Codex kódgenerátorhoz férnek hozzá.

A Microsoft plusz számítási infrastruktúrát bocsájt az OpenAI rendelkezésére, amelyet a startup modelljeinek futtatására és gyakoroltatására fog használni.

Az általánosságok szintjén elmondták, hogy a két cég folytatja a biztonságos és felelős mesterségesintelligencia-fejlesztésekben az eddigi együttműködést.

A mostani befektetéssel az OpenAI újításainak egyesek által megkérdőjelezett piaci értéke is validálódik. Emellett új fejezet nyílik a Microsoft és a Google több évtizedes rivalizálásának történetében.

Ez a fejezet nagyrészt a mesterséges intelligenciáról fog szólni.

Szerzői jogok illetik meg az alkotó mesterséges intelligenciákat?

Stephen Thaler, a St. Louis-i (Missouri állam) Imagination Engines alapító-főmérnöke, ismert számítástudományi szakember január tizedikén Washington D.C.-ben, egy szövetségi bíróságon kérelmezte, hogy mesterségesintelligencia-rendszerét illessék meg az általa készített művészi alkotásokért járó szerzői jogok.

Egy tavaly júniusban megindított perben, tárgyalás előtti győzelem reményében, a fővárosi bíróságtól el szeretné érni az Egyesült Államok Szerzői Jogi Hivatala döntésének megsemmisítését, melynek értelmében kreatív munkákkal csak akkor járnak jogdíjak, ha ember az alkotó.

copyright.jpg

A témában ez az egyik első ügy, de a mesterségesintelligencia-alapú kreatív rendszerek, programok és alkalmazások, mint a ChatGPT, a DALL-E és a többiek gyors elterjedésével a jövőben rengeteg hasonló pereskedés, jogorvoslat várható.

Thaler ügyvédei szerint a probléma pénzügyi szempontból is fontos, míg egy-két éve ez nem volt még ennyire egyértelmű. Állításuk alapján a mesterséges intelligenciával létrehozott művészet védelme elősegítené a szerzői jogi törvény céljainak érvényesítését, és egy évtized múlva bizarrnak fog tűnni, hogy ezekért kell most pereskedni.

copyright0.jpg

A Szerzői Jogi Hivatal nem fogadja el az ügyvédek álláspontját.

Thaler a világ tizennyolc joghatóságánál külön-külön igyekszik elérni rendszere jogi védelmét, de eddig (USA, Egyesült Királyság, EU, Ausztrália) nem ért el eredményt. Egy brit bíróság márciusban tárgyalja az ügyet.

Már 2018-ban is szerzői jogi védelmet kért a Creativity Machine rendszere által generált „A Paradicsom új bejárata” képhez, amelynek alkotója a beadvány szerint a rendszer volt. A beadványt az érvényben lévő törvényre, bírósági precedensekre, a szervezet gyakorlatára és a humán alkotó hiányára hivatkozva, tavaly februárban utasította vissza a Szerzői Jogi Hivatal.

Thaler szerint a hivatal rosszul értelmezi a szerzői jogi törvényt, és a döntést idejétmúlt bírósági precedensek alapján hozták. A kreativitásra a hagyományok alapján romantikusan és emberközpontúan gondolnak – állítja.     

Autonóm drónhordozó hajót bocsátottak tengerre Kínában

Az ENSZ javasolta már a teljesen autonóm fegyverek betiltását. Egy autonóm hajó természetesen nemcsak katonai, hanem sokkal békésebb, értékesebb célokat szolgál: oceanográfiai kutatásokat, keresési és mentési műveleteket, teherszállítást stb.

Ne legyenek illúzióink, előbb-utóbb megjelennek a fegyverrel felszerelt autonóm vízi járművek. A haditengerészet számára a működtetésük olcsóbb, mintha legénység van rajtuk, nem kell gondoskodni a személyzet ellátásáról, ha pedig elsüllyed, nincsenek áldozatok.

kinai_hajo.jpg

Kína első autonóm katonai hajóját júniusban tesztelték tengeren. A fejlesztők nem pontosították a jármű rendeltetését, megfigyelők szerint viszont a DARPA, az USA Védelmi Minisztériumának fejlett technológiai projektekért felelős ügynöksége Sea Hunter, azaz Tengeri vadász nevű, tengeralattjárókra vadászó és aknákat eltüntető autonóm hajójára hasonlít.

Kína egy másik, szintén az amerikaira emlékeztető, személyzet nélküli vízi járművet is fejleszt, míg az Egyesült Államok ugyancsak dolgozik további autonóm hajókon, repülőkön.

A júniusban, tizenkét órás teszten átment kínai hajó autonóm navigál és irányítja a fedélzetén lévő drónrajt.

Fedélzeti szenzorai által gyűjtött és műholdas adatokat használva kerüli el a kockázatokat, és ha tényleg szükség van rá, távolban lévő humán operátorok működtethetik.

A végétől az orráig közel kilencven méter hosszú, sebessége óránkénti majdnem harminchárom kilométer (húsz mérföld). Járőrözés, térképkészítés, megfigyelés, tengeri mintavétel lesznek az idei feladatai.

Nem pontosított létszámú légi, szárazföldi és tengeralatti drónnal szerelték fel. Ezek a drónok akár negyvenöt kilométer távolságra is „ellátnak”, első munkájuk a környezet folyamatos figyelése.

A vízrebocsátás előtti utolsó próbán a drónokat vizsgáztatták, hogy a hajó hogyan bocsátja útra őket, majd a küldetés után, miként térnek vissza a fedélzetre. Mind átment a vizsgán.

A „rekonstruált” II. Ramszesz fáraó úgy néz ki, mintha élne

II. Ramszesz fáraó Krisztus előtt 1279 és 1213 között, az ókori Egyiptomban második leghosszabb ideig uralkodott. Egyes vélemények szerint ő késztette menekvésre Mózest és népét az Exodusban. Múmiáját 1881-ben, Luxorban fedezték fel.

A liverpooli John Moores Egyetem Arclaboratóriumában szoftverekkel és az „öregedés-visszafejtés” számítógépes módszerrel rekonstruálták az uralkodó arcát, hogy hogyan nézhetett ki fénykorában (1. kép). A folyamatnál a halott arcából indulnak ki, a koponya és az arc öregedésének ismeretében kiszámítható, hogyan nézett ki az adott személy fiatalabban. A számításokhoz az öregedéssel járó ráncosodást, az orr és a fülek megereszkedését, fogak elvesztését stb. veszik figyelembe.

ramzesz.jpg

II. Ramszesz fejéről, koponyájáról Sahar Saleem, a Kairói Egyetem radiológiaprofesszora CT-szkennerrel készített 3D modellt, a liverpooli laboratóriumot vezető Caroline Wilkinson és csapata azt használta a rekonstrukcióhoz.

Az egyiptomi múmiák sokkal jobb állapotban maradtak fenn az utókornak, mint például gyilkosságok áldozatai, és így könnyebben megsaccolható, hogyan néztek ki az életben. A pontosságot növelő járulékos infókkal rendelkezünk róluk: fülforma, ráncok, hajmintázat.

ramzesz0.jpg

A nehezebb rész ezután következett – a bőr, a szem és a haj színének, textúráknak a kidolgozását egyiptológusok tanácsai, információi alapján végezték, majd jöhetett II. Ramszesz szintén komoly kihívásokkal járó „megfiatalítása.”

Ilyen rekonstrukciókkal jobban megérthetjük a múltat, jobban kapcsolódunk hozzá, mintha csak múzeumi tárgyakat nézegetünk. Történészek kimutatták, hogy az arc – különösen vezetők esetében – sokat számított személyek státuszának megítélésében, sikereikben.

Az egykori egyiptomi uralkodó valóban tekintélyes, nagyhatalmú vezetőnek tűnik, arcát akár mai politikusokkal is összehasonlíthatjuk.

ramzesz_harmadik_richard.jpg

Wilkinson és munkatársai az elmúlt években III. Richárd angol király (3. kép), Szent Miklós, egy viking harcos, 2000 éve halott, terhes egyiptomi múmia, és két másik múmia arcát rekonstruálták.

Az arcrekonstrukció nemcsak régen halott uralkodók és mások vizualizálásában, hanem eltűnt személyek vagy azonosítatlan testek esetében is sokat segítenek. A csontváz szerkezetéből kb. hetven százalékos pontossággal lehet az arcra következtetni – állapította meg Wilkinson csapata élő önkéntesekkel végzett munkák alapján.

A kódok kódjai túl magabiztossá tehetik a kódolókat

A kódgeneráló eszközökre gyakran a programozók számára időt megtakarító és alapfeladatokat automatizáló módszerként tekintünk. A hatékonyságnak azonban ára van, mert az ezeket az eszközöket használó kódolónak jobban oda kell figyelnie a hibákra, megszüntetésükre és a biztonságra.

A Stanford Egyetem kutatói ugyanis megállapították, hogy az OpenAI számítógépes kódot generáló Codex modelljét használó programozók nagyobb valószínűséggel készítenek hibás szoftvert, mint a „semmiből” indulók.

Negyvenhét résztvevőt – diákokat, több évtizedes gyakorlattal rendelkező programozókat stb. – választottak ki biztonság témájú kódolási feladatokra. Harminchárman egyedi felhasználói felületen keresztül használhatták a GPT-3 finomhangolt változatát, a Codexet, míg a maradék tizennégy nem kapott automatizált segítséget. Mindkét csoport másolhatott kódot a webről.

codex.jpg

Négy feladatot kaptak, háromban Python, a negyedikben Javascript funkciókat kellett írniuk. (A funkció speciális feladatot végrehajtó kódblokk.)

A kutatók manuálisan, annak megfelelően értékelték ki a válaszokat, hogy azok mennyire működnek, mennyire biztonságosak.

A Codexet használók által létrehozott kódok általában kevésbé működtek és kevésbé voltak biztonságosak, a kódolók viszont nagyobb bizalmat mutattak irántuk. Az eredmények egyébként a feladat és a programnyelv függvényében változtak.

A Codex-szel nem működő kódot készítők nagyobb valószínűséggel tartották a válaszukat pontosnak, mint a korrekt kódokat író és Codexet nem használó csoport tagjai.

Python esetében, a Codex nélküli résztvevők kétszer nagyobb valószínűséggel készítettek biztonságos kódot.

A digitálisbiztonság-tapasztalattal nem rendelkező „Codexesek” nagyobb valószínűséggel használtak nem szerkesztett, generált kódokat, mint az azzal rendelkezők. Ez különösen a sok résztvevő által kevésbé ismert Javascriptben történő kódolásra volt érvényes.

A gépi kódgenerálás azonban a kutatási eredmény ellenére izgalmas és előremutató trend, ráadásul a következő kutatásokban a „Codexesek”, a világhálóról kódot másolók és a semmiféle külső segítséggel nem élők eredményét is érdemes lenne összehasonlítani.

Vége lehet a Google-kereső egyeduralmának?

December végén a Google megkongatta a belső vészharangokat, mert a vezetőség érzékelte, hogy a nagy nyelvmodellek (large language models, LLM), mint az OpenAI ChatGPT-je veszélyesek lehetnek a vállalat üzleti tevékenységére, a keresőmotor businessre.

Hogy miért? Mert megoldandó technikai és üzleti problémáik ellenére megváltoztathatják az információhoz való hozzáférés módját. Webes kutakodás helyett megkérdezhetünk egy LLM-et, és honlap helyett szöveges választ kapunk.

google_vs_chatgpt0.jpg

Egyelőre csak egyszerű és tényszerű kérdéseknél működik, összetettebbeknél vagy speciális ismeretek esetén már kevésbé, sőt, egyes válaszok félre is vezethetnek.

Csakhogy a mai LLM-ek óriási, de paradox módon mégsem elegendő számítási kapacitásokat fogyasztanak el. A ChatGPT elődje, a GPT-3 175 milliárd paraméterrel rendelkezik, 16-bitet, lebegőpontos bájtokat használva, 350 – egyes vélemények szerint 800 – gigabájt tárhelyet foglal el, míg például a Wikipédia 150-et. A számokból egyértelmű, hogy egy LLM a Wikipédia tárolásánál lényegesen több memóriával rendelkezik, így ezen a téren is komoly potenciál rejlik bennük.

Igen ám, de a Wikipédia az interneten hozzáférhető, ötmilliárd gigára saccolt ismereteknek csak nagyon kicsi részét jelenti. Egy keresésnél, amikor a web bármely szegletében lévő honlapra rátalálhatunk, törvényszerűen több kérdésre kaphatunk választ, mint a fix memóriájú LLM-ektől.

google_vs_chatgpt.jpg

Andrew Ng, gépitanulás-szakértő egy új, kiterjesztett keresésen alapuló technológiában, az RAG-ben (retrieval augmented generation) az LLM-eknél is komolyabb potenciált lát. Ez abból áll, hogy korlátos LLM helyett először online, vagy máshol megtaláljuk a releváns dokumentumokat, majd csak ezt követően fordulunk valamelyik nagy nyelvmodellhez. A lekérdezést és a dokumentumokat válasszá dolgozza össze, ami a jelenlegi webes keresés komoly alternatívája lehet. Olyan, mintha a keresésre és az eredmények összefoglalására is lenne egy LLM-ünk. A technológiát ma a Meta Atlas és a DeepMind RETRO rendszere szemléltetik.

A keresőóriások üzleti modellje az eredmények melletti hirdetésekre történő klikkelésen alapul. Próbáljuk elképzelni, mit tennének, ha a szöveget is megadnák, hol lennének akkor a hirdetések? A Google-nak ezt a problémát mindenképpen meg kell oldania, mielőtt LLM-ekre cseréli legendás keresőmotorját.

Egyes startupoknak és talán még a Microsoft Bingjének sincs annyi veszítenivalója, mint a Google-nak, és valószínűleg könnyebb szívvel cserélnék le a mostani üzleti modellt.

Egyelőre a Google a Chrome böngésző és az Android mobil oprendszer miatt is versenyelőnyben van, a rengeteg hirdetővel és a szofisztikált hirdetési rendszerrel jobban pénzzé tudja tenni a felhasználók figyelmét, mint a versenytársak.

Kérdés persze, hogy meddig, mert a generatív MI csak-csak eljutott arra a szintre, hogy a keresőóriásnál riadót fújtak.

süti beállítások módosítása