Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

A YouTube figyelmeztette az OpenAI-t: ne használják videóikat modelljeik gyakoroltatásához

2024. április 16. - ferenck

Amikor Mira Muratit, az OpenAI főmérnökét a Wall Street Journal arról faggatta, hogy milyen adatokat használtak a szövegből videót generáló Sora csúcsmodell trenírozásához, a CTO mellébeszélt.

„Egy alkotónak elvárásai vannak, ha feltölti kemény munkájának gyümölcsét a platformunkra. Ezek egyike a szolgáltatási feltételek betartása. Ennek értelmében átiratok és videórészek letöltése nem engedélyezett, mert egyértelműen megsértik vele a szabályzatot” – mondta néhány napja Neal Mohan, a YouTube vezérigazgatója.

youtube_openai.jpg

Magyarán, a YouTube-ot tulajdonló Alphabet, azaz a Google számára elfogadhatatlan, hogy az OpenAI temérdek videót használjon fel a platformról modelljei betanításához.

Egyre több kiadó, platform tiltakozik anyagaik ilyen jellegű – általában engedély nélküli – felhasználása miatt, és a támadások célkeresztjében a mesterségesintelligencia-kutatásokban élenjáró OpenAI, valamint közvetve a Microsoft áll.

youtube_openai0.jpg

Kérdés persze, hogy a tiltakozás mennyire hiteles az internetes keresést lényegében monopolizáló Google-hoz tartozó YouTube vezetőjétől. A Google ugyanúgy mások anyagain tanítja mesterségesintelligencia-modelljeit, mint az OpenAI, velük készül a keresőmotor MI-vel felerősített változata.

Tehát lényegében irrelevánsnak is tűnhet a vádaskodás, ráadásul, ha láttunk már Pixar-filmet vagy hasonlókat, jól tudjuk, hogy – elvileg – semmi új nincs a számítógép által generált videókban, „csak” az OpenAI módszere és a tartalom is más. Legfőbb – és óriási – különbség, hogy az utóbbi anyagainak létrehozásához ember (humán input, humán kreativitás, humán munka) sem kell már, míg a Pixar-mozikhoz nagyon is szükség van rá.

Sora látványos videói egyszerű promptok alapján pillanatok alatt elkészülnek, az MI mindent megcsinál, az eredmény elragadó. Egyre tökéletesebbek lesznek, egyre kevésbé kérik rajta számon a humán oldalt.

A gyakorlóadatokat illetően viszont még pereskedések, óriási jogi csatározások, szabályozások várhatók.  

Jön az Apple nagy nyelvmodellje, félhet a ChatGPT

Az Apple eddig kimaradt a ChatGPT-vel jelképezett mesterségesintelligencia-forradalomból, a generatív MI diadalútjából, a nagy nyelvmodellek (large language models, LLM) fejlesztéséből. Tavaly már röppentek fel hírek változásokról, hogy az almás cég bekapcsolódna a versenybe, nagy titokban folyó kutatásfejlesztésekről, de semmi konkrétum nem látott napvilágot, semmit nem jelentettek be.

Most ismét úgy tűnik, hogy valami készül náluk, és a Siri felturbózásáról szóló híresztelések beigazolódhatnak. A vállalat egyik frissen megjelent kutatási anyagában ugyanis bepillantást nyerhetünk abba, mi is készül náluk. Röviden: Siri mesterségesintelligencia-kapacitását bővítik, hosszabban: négy változatban fejlesztenek egy LLM-et.

apple_nyelvmodell0.jpg

A nyelvmodell neve ReALM a Referencia-felbontás nyelvi modellezésként (Reference Resolution as Language Modeling) rövidítése. Segíti Sirit a kontextus és így az egész beszélgetés megértésében, ám ennél is fontosabb, hogy a – cég szerint – még a legkisebb modell is a ChatGPT-vel hasonló szinten teljesít.

A ChatGPT képfájlokat és PDF-eket képes feldolgozni, a teljes képernyőt (onscreen) viszont nem tudja elolvasni, és így a teljes tartalomra sem tud reagálni. ReALM igen, ami versenyelőnyt jelent.

A modell négy változatban/méretben készül. A számok a millió és milliárd paraméterre vonatkoznak: ReALM-80M, ReALM-250M, ReALM-1B, ReALM-3B.

Mérték a teljesítményét (benchmark) és összehasonlították az OpenAI GPT-3.5-ével és a GPT-4-ével is. Az OpenAI és a Microsoft számára egyaránt nyugtalanító hír, hogy a ReALM-80M, azaz a legkisebb modell is a GPT-4 szintjén van, ami arra enged következtetni, hogy a többi sokkal jobb teljesítményre képes.

Az anyag szerzői hangsúlyozzák, hogy a ReALM előrelépést jelent a hasonló funkciókkal rendelkező rendszerekkel szemben, és a legkisebb változat is akár öt százalékkal jobb az onscreen információ feldolgozásában.

Egyelőre nem tudni, hogy az LLM mikor kerül piacra. Valószínűleg a vezetőség beszél majd róla a cég júniusi éves fejlesztői konferenciáján.

A mesterséges intelligencia biológiai kockázatainak kezelése

Több mint százötven ázsiai, európai és észak-amerikai biológus önkéntes kötelezettségvállalást írt alá a fehérjék tervezésére használható gépitanulás-modellek belső és külső felügyeletéről. A szintetikus biológiai kutatásokkal kapcsolatos tíz vállalás nagy vonalakban és elég általánosan (kevés konkrétummal) arról szól, hogy elkerülik az esetleges károkat okozó vizsgálódásokat, és támogatják a fertőző betegségek kitörésére és hasonló vészhelyzetekre vonatkozókat.

Elkötelezték magukat a fehérjeszerkezeteket a felhasználó által meghatározott jellemzők, például az alak vagy a hosszúság alapján generáló modellek kockázatainak kiértékelése mellett. Magát a kockázatelemző módszert is felülvizsgálják.

bio_risk.jpg

A DeepMind fehérjeszerkezeteket felfedező AlphaFold modellje alapján speciális tulajdonságú fehérjék tervezését biztosító alkalmazásokat fejlesztettek. Kimeneteik segítenek betegségek kezelésében, javítják a mezőgazdaság termelékenységét, ipari folyamatokban eredményes enzimek létrehozásában vesznek részt. A hibák és a helytelen használat miatti aggályok miatt viszont nemzeti és nemzetközi szervezetek figyelik ezeket a tevékenységeket.

A biológusok vállalása a modellek biztonságos használatáról sokat segíthet az ilyen problémák kezelésében.

bio_risk0.jpg

Csak olyan szolgáltatóktól szereznek be szintetikus DNS-t, akik a potenciálisan veszélyes molekulák előállítására való tekintettel szigorúan szűrik azt. Meg is állapodtak új szűrési módszerek kidolgozásának a támogatásáról.

Nyilvánosságra hozzák kutatásaik lehetséges eredményeit, kockázatait és a kockázatok mérséklésére tett erőfeszítéseiket. Rendszeres üléseken felülvizsgálják a szintetikus biológia lehetőségeit, és beszámolnak a nem etikus, megkérdőjelezhető praktikákról.

Magukat a vállalásokat is folyamatosan felülvizsgálják.

Az MI esetleges biológiai fegyverként történő használata a mesterséges intelligencia biztonságával foglalkozó kutatások visszatérő témája. A jelenlegi felelős MI-ről és fehérjetervezésről szóló megállapodást tavaly év vége felé dolgozták ki a Washington Egyetemen. Nagyjából egyidőben tartották az MI Biztonsági Csúcsot, ahol szintén behatóan foglalkoztak a témával.    

Újabb mesterségesintelligencia-céget olvaszt magába a Microsoft

Szokatlan üzlet keretében a Microsoft átvette az egykor szárnyaló mesterségesintelligencia-startup, a Mustafa Suleyman (hajdani DeepMind társalapító és a tavaly megjelent Következő hullám bestseller szerzője) által alapított Inflection nagy részét.

A Microsoft alkalmazza a vezérigazgató Suleymant és a cég dolgozóinak többségét, közel 650 millió dollárt fizetve a modellekhez való hozzáférésért és a jogvédelemért. Az Inflection a fogyasztók kiszolgálásától a nagyvállalatokra helyezi át a hangsúlyt.

inflection.jpg

A sok tehetség, a hatékony támogatás és a többmilliárd dolláros érték ellenére, az Inflection gondokkal küszködött. Az egyik legizgalmasabb és legígéretesebb startupból áramvonalasított vállalatiszoftver-szolgáltatóvá vált, ami persze a chatbot-szektor versenyképességét is remekül szemlélteti.

A céget Suleyman, Karén Simonyan és a LinkedIn-igazgató Reed Hoffman alapította, részben Microsoft-támogatással. Eredetileg az OpenAI és az Anthropic vetélytársaként pozícionálták magukat, MI-asszisztenseket próbáltak fejleszteni. Legismertebb termékük az érzelmi támogatást nyújtó Pi chatbot.

inflection0.jpg

Satya Nadella, a Microsoft vezérigazgatója hónapok óta folytatott tárgyalásokat Suleymannal, aki magával akarta vinni a csapatot. Formálisan nem vásárolták fel a függetlenként, különálló entitásként maradt Inflectiont, és a 650 millió is a fele a tavaly kapott 1,3 milliárd dolláros befektetésnek, a becsült négymilliárdos értéktől pedig még messzebb van.

A Microsoft 620 milliót fizetett az Inflection modelljeinek nem kizárólagos licencéért. A legnagyobb nyelvmodell, az Inflectiom-2.5 és az API-k (alkalmazásprogramozói felületek) az Azure felhőszolgáltatáson lesznek elérhetők.

A hetvenfős csapat zömét, köztük Simonyant is a Microsoft alkalmazza új Microsoft MI részlegében. Az Inflection harmincmillió dollárért lemondott a Microsoft munkaerő-kölcsönzési tevékenységével kapcsolatos törvényes jogokról.

Az összegből és a bevételekből az Inflection kompenzálja a saját tőkéjüket a startupban megtartó befektetőket.

A Microsoft korábbi MI-csapatának egy részét megtartó új szervezet a nagyvállalat mesterségesintelligencia-törekvéseit felügyeli a jövőben: fogyasztói termékeket, mint a Bing, Copilot asszisztenseket stb.

A szokatlan szerződést (mivel nem akvizíció) valószínűleg a trösztellenes vizsgálatok elkerüléséért kötötték.  A Microsoft és az OpenAI kapcsolata – ami változatlanul stratégiai prioritás – már eleve felkeltette az USA, az Egyesült Királyság és az EU törvényhozóinak a figyelmét…     

Több környezetben is működhet ugyanaz az ágens

Ágensek különféle környezetekben történő feladat-végrehajtásra való betanításával közelebb kerülünk ahhoz, hogy bármilyen szituációban tudjanak dolgozni – és természetesen az általános mesterséges intelligenciához (AGI) is. Valahogy úgy, mint az ember, és ha megvalósul, akkor a robotikában, szimulációban, valamint a játékokban várhatók az első alkalmazások.

Eddig tipikusan úgy tervezték őket, hogy meghatározott, tehát egyetlen szoftverkörnyezetben tevékenykedjenek, de a Google és a kanadai Brit Columbia Egyetem Skálázható, Utasítható Több-világos Ágense (SIMA) változatos közegekben – hét videójátékban és négy kutatási környezetben, háromdimenziós virtuális világokban – tanulta meg szöveges utasítások követését.

agensek0.jpg

A rendszer architektúrája több transzformer és más neurális hálóból áll. Megtanították neki, hogy adatsort és tíz másodperces feladatokra tördelt játékmenetet, képernyőn megjelenő képeket, szöveges utasításokat, billentyű-lenyomásokat és egérmozgatást használva utánozzon humán játékosokat.

Olyan játékokkal dolgoztatták, mint például a harmadik személyben, kecske formában kivitelezendő Goat Simulator 3 (goat = kecske), az első vagy harmadik személyes űrbéli felfedező- és túlélőkaland No Man’s Sky, az elsőszemélyes bányászó-építő Hydroneer.

agensek.jpg

A megadott utasítások és a képernyő-kép egy kockája alapján előre gyakoroltatott transzformer-pár szövegekhez és képekhez beágyazásokat generált. Egy másik, a következő képkockát előrejelző transzformer videóbeágyazásokat hozott létre.

A szöveges, képes és videóbeágyazások alapján transzformerek elsajátították, hogyan jelenítsék meg a játékot, majd a játékreprezentációból kiinduló újabb (nem transzformer) háló megtanulta elkészíteni a kapcsolódó billentyű- és egérműveleteket.

SIMA teljesítményét kilenc kategóriában értékelték ki. A Goat Simulator 3 feladatainak negyven százalékát abszolválta, a No Man’s Sky-ban 34 százalékot ért el, míg a humán játékosok átlaga hatvan volt. Az egyetlen játékra specializálódott ágenseknél másfélszer jobban teljesített.

A SIMA a Google korábbi kísérletei folytatásának tekinthető. A nagyvállalat ugyanis fejlesztett már az emberrel egy-egy játékban (Go, klasszikus Atari-játékok, StarCraft II) rivalizáló ágenseket.          

Lelőtték az életmentő rendőrségi robotkutyát

A magyarul stukkert, pisztolyt jelentő Roscoe, a Massachusettsi Állami Rendőrség robotkutyája tragédiát előzött meg egy, bűnöző által elbarikádozott házban. A rendőrség bombaelhárító csoportjához tartozó gépet március hatodikán vetették be az egyik bostoni külvárosban, miután a rendőrökre lőttek az épületből.

Bombaelhárításhoz gyakran használt két másik robotot is beküldtek a házba, hogy a „kutya” segítségével megtalálják a gyanúsítottat.

roscoe.jpg

A rendőrök által távirányított Roscoe először a két emeletet ellenőrizte, és csak utána talált valakit az alagsorban. A puskával felfegyverzett személy kétszer feldöntötte a robotkutyát, majd háromszor rálőtt, kiiktatva a gép kommunikációs kapacitását.

Az illető utána rálőtt egy másik robotra, majd az úszómedencére tüzelt. A rendőrök erre könnygázt vetettek be, és elfogták a bűnözőt.

Az incidens ékes példája annak, milyen előnyökkel járnak az ajtónyitásra és lépcsőmászásra képes robotplatformok fegyveres gyanúsítottakat érintő taktikai küldetések során – írta a rendőrség egy sajtóanyagban.

Egyrészt kritikus jelentőségű helyiség-felszabadítást biztosított, és remek volt a helyzetfelismerő képessége. Roscoe rászabadítása a gyanúsított lakhelyére meghiúsította, hogy a rendőrségi eljárásnak ebben a szakaszában a bűnüldöző szervtől valaki, ember is részt vegyen a műveletben, hogy lövöldözés alakuljon ki a gyanúsított és a rendőrök között.

Nem kellett humán operátornak közvetlenül beavatkoznia, tehát Roscoe életet mentett meg.

A fejlesztő Boston Dynamics a világ egyik leghíresebb robotikai vállalkozása, Roscoe eredeti neve pedig Spot, a gépet így ismerik világszerte. A cég elmondta: ez volt az első alkalom, hogy valamelyik gépüket lelőttek, viszont megnyugvással töltötte el őket, hogy „csak” egy robot, és nem emberi lény az áldozat. Az esemény remek példája, hogy egy Spot-féle mobil robot hogyan használható életmentésre.         

Minden tartalom kamutartalom lesz?

A generatív mesterséges intelligencia térnyerésével egyre nehezebb megállapítani, hogy a monitoron elénk táruló látvány valóság vagy számítógép által generált fantázia, és ez a képek mellett audió- és videóanyagokra is érvényes.

Az eszközök egyre kifinomultabbak, soha nem volt ennyire könnyű képet, mozgóképet, szöveget és hangot létrehozni bármiről, amit csak akarunk, függetlenül attól, hogy létezik vagy sem, hogy a valóság pontos lenyomata vagy semmi köze hozzá.

fake_1.jpg

Eljöhet a nap, amikor nem is lesz már szükségünk a való világban rögzített tartalmakra, és persze jóval egyszerűbb is, ha a számítógépet utasítjuk: tedd ezt, aztán azt! Ha így történik, egy csomó kreatív állás megszűnhet, de tényleg ezt a jövőt akarjuk? – teszi fel, majd igyekszik megválaszolni a kérdést Bernard Marr futurológus.

Nem csak a generatív MI-ről van szó, Photoshoppal és szűrőkkel korábban is meg lehetett másítani, el lehetett torzítani a valóságot. A mélyhamisítványok (deepfakes) a legfejlettebb – viszont nem az egyedüli – technológia erre, mert mélytanulással csiszolódott neurális hálókkal teremt teljesen meggyőző, de nem valódi tartalmakat. Bűnözők használják is serényen, ám arról se feledkezzünk meg, hogy a mélyhamisítványoknak csak kis része készül negatív célokra. De mivel a generatív MI a mindennapok részévé vált, a kamutartalmak a dezinformáció terjedéséhez, demokratikus folyamatok aláásásához elegendők.

fake0.jpg

És még az etikusan készített tartalmak is problémásak hírügynökségek, újságok számára, mert a hitelességüket veszíthetik el. Újságíróknak szigorúbban és alaposabban kellene ellenőrizniük forrásaikat, és közben meg is kellene győzniük az egyre szkeptikusabb olvasótábort.

A szabályozás és az oktatás – különösebben az utóbbi – szintén sokat segíthet. Marr szerint az oktatás a fontosabb, bár a március tizenharmadikán törvényerőre emelkedett EU-s szabályozás értelmében, ha nem magánszemélyek publikálnak kamuképeket, fel kell tüntetniük, hogy MI munkái.

A jövőben viszont még többen, még kevesebb hozzáadott értékkel alkothatnak, ami egyáltalán nem jelenti a kreativitás végét, csak az átalakulást, miközben az ember-gép együttműködés szorosabbá válik, ugyanakkor Marr szerint az állásvesztés miatti aggályok valósak.

Az ember alkotta tartalomra azonban mindig lesz igény – összegez a jövőkutató.      

Nvidia-főnök: a mesterséges intelligencia hallucinációi kezelhetők, öt éven belül pedig itt lesz az általános MI

Az Nvidia éves fejlesztői konferenciáján Jensen Huang vezérigazgató arról beszélt, hogy az általános mesterséges intelligencia (artificial general intelligence, AGI) az emberiséget érintő egzisztenciális kérdéseket vet fel, mert a gépek szinte minden területen felülmúlják majd az embert: jobban gondolkoznak, tanulnak, teljesítenek. Az AGI döntéshozási folyamatának és céljainak kiszámíthatatlansága, előre-jelezhetetlensége a koncepció lényege. Elképzelhető, hogy ezek a folyamatok és célok nem egyeznek az emberével.

Sokan tartanak attól, hogy az autonómia és a képességek bizonyos szintjét elérve, az AGI ellenőrizhetetlenné válik, és olyan forgatókönyvek valósulhatnak meg, amelyekben a cselekedeteit nem lehet megjósolni, megváltoztatni.

mi_halluvinaciok.jpg

A szenzációhajhász média az időintervallumra rákérdezve, az emberiség, de legalábbis a mostani status quo végének dátumára keres válaszokat. Az MI-vállalatok vezetői gyakran nem is reagálnak ezekre a kérdésekre.

Huang viszont igen. Szerinte sok függ attól, mit is értünk AGI-n. Több párhuzamot von, az egyikben például az időzónák bonyolultsága ellenére, mindenki tudja, hogy lesz Újév és 2025 is elkezdődik. Ha az Nvidia fejlesztői konferenciájára tartunk, a San Joséi Kongresszusi Központhoz közelítve, a hatalmas transzparensekből tudjuk, hol lesz az esemény. A lényeg: legyen valamilyen időbeli vagy térbeli közmegegyezés arról, hogyan mérjük, hogy megérkeztünk.

Ha az AGI-t speciális valamiként, például programok által kiválóan, vagy az embernél, mondjuk nyolc százalékkal jobban abszolvált tesztekkel definiáljuk, akkor Huang szerint öt év múlva itt lesz. A tesztek ügyvédi vagy orvosi vizsgák, logikaiak, gazdaságiak lehetnek. Hacsak a kérdező nem nagyon speciális az AGI a kérdés kontextusában való jelentésével kapcsolatban, Huang nem bocsátkozik előrejelzésekbe.

Az MI hallucinációi – amikor hihetőnek tűnő, de kitalált válaszokat ad kérdésekre – viszont könnyen kezelhetők. Biztosra kell menni, hogy a kérdés megalapozott, valós tényeken alapul. Át kell vizsgálni a forrást és a kontextust, a bennük lévő tényeket ismert igazságokkal kell összevetni, és ha a válasz a tényeket illetően teljesen vagy csak részben pontatlan, ki kell szórni a teljes forrást, és a következővel kell foglalkozni.

Az MI-nek ugyanis nemcsak válaszolnia kell, hanem kutakodnia is, hogy megállapítsa: melyik válaszok a legjobbak.

Kritikus esetekben, például egészségügyi tanácsadásnál, több és ismert forrás használandó, és a válaszadó rendelkezzen a lehetőséggel, hogy azt mondja: „nem tudom a választ”, vagy „nem tudok konszenzusra jutni.”

Nyelvtanulás másként

A gépitanulás-modellek jellegzetesen olyan feladatokon gyakorolva tanulnak nyelveket, hogy egy adott szövegben előre kell jelezniük a következő szót. A Stanford Egyetem két kutatója viszont kevésbé fókuszált, inkább emberi módon trenírozott egy nyelvmodellt.

A nyelvet indirekt módon, szöveges kulcsokat szolgáltató szimulált környezetben való navigálással elsajátító, megerősítéses tanulásalapú ágenst fejlesztettek.

Ezek az ágensek a jutalmat maximalizáló cselekvések felfedezésével tanulnak. Ha a gyakorlókörnyezet a legmagasabb jutalom elérési módját elmagyarázó szöveget szolgáltat, az ágens hasznára válik, hogy megtanulja értelmezni az írott nyelvet. Tehát az írott szövegek megértésének megtanulása a jutalmak maximalizálásának sikerével jár együtt.

agens_nyelvtanulas.jpg

A kutatók a rácsvilág-környezeteket tartalmazó Minigrid megerősítéses tanulás könyvtárt használva, szimulált kétdimenziós közegsorozatot építettek. Az ágenst megtanították, hogy a DREAM („álom”, de itt biztos teljesen más jelentésű szavakat von össze) megerősítéses tanulás algoritmusnak megfelelően találjon meg egy adott helyiséget.

A folyosók által összekötött helyiségek kétdimenziós elrendezésűek, elrendezésenként tizenkét szobával, mindegyik tizenkét szín valamelyikére volt festve. A szoba-szín egyeztetés véletlenszerűen történt. Egy konzisztens helyiség utasításokat tartalmazott, hogy miként található meg a kék szoba.

A fejlesztők a színek váltogatásával és a kék szoba megtalálásra vonatkozó instrukciók folyamatos frissítésével, az elrendezés számos változatát hozták létre. Az utasítások vagy közvetlenek, vagy relatívok voltak.

Az ágens a kék szoba megtalálásáért jutalmat, minden egyes időbeli lépésért büntetést kapott. Lépésenként megkapta az irodai környezet egy részhalmazát, és számos művelet egyikét hajthatta végre. Az utasításokat tartalmazó helyet elérve, kapott a szövegről egy képet. Meghatározott ideig, vagy a kék szoba megtalálásáig folytatta a keresgélést.

Az ágens minden egyes alkalommal az összes helyiség érintése nélkül találta meg a kék szobát, és az is kiderült, hogy érti az utasításokban lévő szavakat.

Az algoritmus kiválasztása döntő jelentőségű volt. Más algoritmusokkal ugyanis nem a nyelvet, hanem például az ajtók ellenőrzését tanulta meg. A tény, hogy megerősítéses tanuláson alapuló ágens képes explicit gyakorlás nélkül nyelvet tanulni, új lehetőségekkel kecsegtet nyelvmodellek számára.

Új generatív eszközöket tesztel a Google

A Google kisszámú független hírügynökséget gyűjtött össze generatív publikációs eszközeinek egyéves tesztelésére. A mostani rendszer külső weboldalakat olvas, majd cikkeket hoz létre belőlük, amelyeket a szerkesztők átdolgozhatnak, megjelentethetnek.

A nagyvállalat elvárása, hogy a rendszert használva, naponta három cikket, hetente egy hírlevelet írjanak, havonta egy marketingkampányt bonyolítsanak le. A kimenetet nem kell MI által generált tartalomként megjelölniük. Ellenszolgáltatásként a kiadók évi tízezer dollárt meghaladó juttatást kapnak.

google_generative_news.jpg

A kiadók az olvasók számára érdekes anyagokat közlő weboldalakról (kormányzati oldalak, híroldalak stb.) listát készítenek, és ha az indexelt oldalak valamelyike új anyaggal áll elő, a rendszer értesíti a kiadót.

A kiadó választása alapján, nem azonosított generatív modell összefoglalja a tartalmat. A forrással való hasonlóság alapján színekkel kódolja a kimenetet: ha sárga, akkor kb. szószerinti másolás történt, ha kék, akkor hasonló az anyag, a piros pedig a forráshoz legkevésbé hasonló mondatokra vonatkozik.

google_generative_news0.jpg

A generált szöveget megjelenés előtt humán szerkesztő nézheti át.

A pilot program a Google Hírek kezdeményezésének (Google News Initiative) része. A program keretében a nagyvállalat médiaírásbeliség-programokat, tényellenőrző és digitális publikálóeszközöket biztosít a hírügynökségeknek.

A cég tavaly olyan hírügynökségeknek mutatta be a Genesis nevű eszközt, mint a The New York Times, The Washington Post és a The Wall Street Journal. Az új rendszerhez hasonlóan, Genesis is nyilvános információkat tanulmányozva generált új híreket. Ezen kívül főcímeket és különféle írói stílusokat javasolt. A megfigyelők tavaly is, és most is attól tartanak, hogy a Google esetleg a hírügynökségek megkerülésére használja majd fel a rendszereit, és hírösszefoglalókat tesz közzé közvetlenül a keresési eredmények között.

Az ilyen partnerségek, mindkét fél, a Google és a kiadók számára egyaránt hasznosak lehetnek.

A Google megtudja, mire van szükségük a kiadóknak, hogyan állja meg a helyét a határidők és a közönség miatti nyomás mellett a hírek előállítására kidolgozott generatív modell. A kiadók későbbi súlyos kritikák elkerülésében segítő tapasztalatokra tehetnek szert. Több ismert híroldal (CNET, Gizmodo, Sports Illustrated) követett már el komoly hibát, amikor mesterséges intelligencia is részt vett a hírkészítésben.

süti beállítások módosítása