Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe


A New York Times beperelte az OpenAI-t és a Microsoftot

2024. január 24. - ferenck

A mesterségesintelligencia-modellek egyre több vitát kavarnak, és mind gyakrabban hozzák fel ellenük sajtóanyagok, cikkek, irodalmi munkák jogtalan felhasználását. Ezeken az anyagokon trenírozzák őket, minél több adatot használ egy nagy nyelvmodell (LLM), annál hatékonyabb és pontosabb lesz, annál…

Tovább

Százszor energiahatékonyabb lett a mesterséges intelligencia

Az Illinois állambeli Északnyugati Egyetemen új nanoelektromos eszközt fejlesztettek gépitanulás-alapú osztályozó feladatok valóban energiahatékony megvalósítására. Az eszköz a jelenlegi technológiák fogyasztásának századrészét használva hatalmas adatmennyiség feldolgozására,…

Tovább

Elfogultak-e a gépilátás-rendszerek?

A Meta, a Facebook anyacége nyílt forrású adatsort tett közzé, hogy tesztelhető legyen a fényképeken és videókon objektumokat észlelő és csoportosítható gépilátás-modellek elfogultsága. A „Korrektség a gépi látás kiértékelésében” (FAirness in Computer Vision EvaluaTion), a FACET (aspektus) 32 ezer…

Tovább

Hogyan építsünk nagy nyelvmodellekre alkalmazásokat?

Egyre több nagy nyelvmodell (LLM) nyílt forrású vagy majdnem az, így fejlesztők több opció között választhatnak, hogy hogyan és milyen alkalmazásokat építsenek rájuk. A legegyszerűbb mód az utasításadás (prompting). Az előzetesen gyakoroltatott LLM-nek utasításokat adva, gyakorlósor nélkül percek,…

Tovább

Az adatcímkézők a mesterségesintelligencia-forradalom elfelejtett hősei

Fei-Fei Li, a Stanford Egyetem ismert mesterségesintelligencia-kutatója 2007-ben, még a Princeton Egyetemen – a közösségi ötletbörzén (crowdsourcing) alapuló adatannotálás úttörőjeként –, képfelismerő betanításához, a képek számát tízezrekről milliókra növelte. A munkához az Amazon Mechanikus Török…

Tovább

Annyi az adat, hogy új mértékegységek kellettek

Egyre több digitális adatot hozunk létre és tárolunk, és a folyamatosan növekvő számokkal csak akkor tudjuk tartani a lépést, ha új mértékegységeket találunk ki. Ennek az alapvetésnek a szellemében, a 27. Általános Súly- és Mértékkonferencián, november 19-én úgy döntöttek, hogy a Nemzetközi…

Tovább

Új számítógép-architektúra védi meg az érzékeny adatokat

Hirdetésektől a pénzügyekig és az egészségügyig, személyes adatainkat egyre több alkalmazásban használják fel. E jelenség miatt a szenzitív információ megvédése a számítási architektúrák egyik legfontosabb elemévé vált. Az ilyen jellegű alkalmazásoknak meg kell bízniuk a rendszerben, amin futnak, a…

Tovább

Kevesebb adaton tanulva alkot leírásból fotorealisztikus képeket egy MI

Az elmúlt évek látványos mesterségesintelligencia-eredményei a gépi tanuláson (machine learning) alapultak. A fejlődés azonban nem problémamentes, mert minél jobb eredményt ért el egy program, annál több adaton tanítják. Minél nagyobb az adatsor, annál komplexebb és drágább a rendszer, de ami talán…

Tovább

Tisztítsuk meg az adatsorokat!

A nyelvtől a látásmodellekig, a mély ideghálók teljesítménye folyamatosan javul, például hatékonyabbak, jobbak az általánosításban. Ezekre a rendszerekre sajnos az elfogultság, csoportok pontatlan és sztereotip megjelenítése szintén jellemző. A magyarázatokkal adósak maradnak, plusz törékenyek is –…

Tovább
süti beállítások módosítása