Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Egytrillió paraméteres idegháló

2020. szeptember 21. - ferenck

A gépi tanulás, különösen a mélytanulás (deep learning) dinamikus fejlődésének negatív következménye, hogy a rendszerek eredményes működéséhez egyre nagyobb, gigantikus számítási kapacitások kellenek, amelyet sok cég nem engedhet meg magának, tehát nem tudja kiaknázni a csúcstechnológia, „napjaink mesterséges intelligenciája” adta lehetőségeket.

Egy 2018-as OpenAI elemzés alapján a nagy ideghálók gyakoroltatásához szükséges számítási kapacitás három és félhavonta megduplázódik. A Massachusetts Egyetem 2019-es tanulmánya szerint a gyakorlás magas költségei miatt a felsőoktatási intézmények és a startupok nem tudnak újításokkal kísérletezni, egyszerűen nincs rá elég pénzük. Az Applied Materials félvezető-gyártó becslése alapján a mesterségesintelligencia-rendszerek számítási igénye 2025-re a világ elektromosáram-fogyasztásának 15 százalékát teheti ki.

Az MI-fejlesztés meghatározó szereplői, például a Google, az OpenAI vagy a Microsoft irdatlan számítási kapacitásokat használnak el a fejlesztéseihez, hogy a szakterület határait folyamatosan kitolják.

microsoft_1.jpg

A helyzetet egyre nehezebb kezelni, de szerencsére állandóan kísérleteznek a számítási igényeket csökkentő megoldásokkal.  

E próbálkozások jegyében a Microsoft nemrég frissítette nyílt forrású DeepSpeed könyvtárát. Az újítással felgyorsul a PyTorch mélytanulás-keret, ami azt jelenti, hogy ezentúl, viszonylag kevés processzor használatával, a korábbiaknál akár ötször nagyobb modellek, egytrillió paraméteres ideghálók taníthatók.

A könyvtárral eddig is értek el komoly eredményeket, például februárban a DeepSpeed segített a 17 billiárd paraméteres Turing-NLG nyelvmodell trenírozásában.

Az új változat négy nagyon fontos frissítést tartalmaz.

A párhuzamosságot különféle technikákkal növelik, így a processzor erőforrásai sokkal hatékonyabban működtethetők. A ZeRO-Offload alrendszer mind a hagyományos processzorokból, mind a grafikus chipekről összeszedi és optimalizálja a rendelkezésre álló erőforrásokat. Egy másik a bemenő adatok feldolgozását gyorsítja fel, míg egy harmadik csökkenti a működéshez elengedhetetlen kommunikáció mennyiségét.

Az összekombinált négy újítással válhatott valóra, hogy a 800 Nvidia V100 grafikus kártyát használó DeepSpeed trillió paraméter léptékű nyelvi modellekkel dolgozhasson. A megújult könyvtár nélkül 4 ezer Nvidia A100 kellene.

Egy ilyen – nyílt forrású – könyvtárral a nagyokon kívül más szereplők is dolgozhatnak óriási rendszerekkel. Minél több lesz belőlük, annál jobban csökken az MI-k „energiaétvágya.”

A bejegyzés trackback címe:

https://jelenbolajovobe.blog.hu/api/trackback/id/tr5916206756

Kommentek:

A hozzászólások a vonatkozó jogszabályok  értelmében felhasználói tartalomnak minősülnek, értük a szolgáltatás technikai  üzemeltetője semmilyen felelősséget nem vállal, azokat nem ellenőrzi. Kifogás esetén forduljon a blog szerkesztőjéhez. Részletek a  Felhasználási feltételekben és az adatvédelmi tájékoztatóban.

Nincsenek hozzászólások.
süti beállítások módosítása