A tavaly berobbant gondolatláncon (Chain-of-Thought, CoT) alapuló, következtető mesterségesintelligencia-modellek különösen a matematikában és a kódolásban érnek el jó eredményeket. Ilyen például az OpenAI Deep Research-e és o3-minije vagy a Google Gemini-2 Flash Thinkingje.
Elon Musk MI-cége, az alig kétéves xAI bemutató videót tett közzé Grok 3 nagy nyelvmodell-családjáról (LLM). A négy modellben van következtető és nem következtető, teljes és csökkentett méretű változat.
Következő generációs intelligencia, a következtető ágensek kora – harangozta be az xAI Grok 3-at.
A havi negyvendolláros X Premium+ előfizetői számára, és a SuperGrok előfizetés-szolgáltatáson is elérhető.
A modellek jelenleg szöveges inputra szöveges outputtal válaszolnak, de a következő hetekben az ígéretek alapján lesz audió input és output-lehetőség is, aztán nyilván tovább bővül az opciók köre. Az architektúráról, a paraméterekről, a gyakorló adatkészletről és módszerekről, más nagyágyúkhoz hasonlóan, az xAI nem közölt információt.
Az előzetes gyakoroltatáshoz 200 ezer Nvidia H100 GPU-t (grafikus feldolgozóegységet) használtak – a gyakoroltatásról lényegében ez az egyetlen nyilvános adat –, majd a modellnek megerősítéses tanulással gondolatláncot kellett generálnia.
A következtetéshez használt több feldolgozókapacitással az eredmények is javultak. Ez három móddal lehetséges, közülük az egyik, a DeepSearch, a mostani trendekhez igazodva, weben kereső és részletes beszámolókat készítő ágens.
Grok 3 mindegyik kategóriában nagyon jó eredményeket ért el, képességei megközelítik az OpenAI és a Google csúcsmodelljeit. Például a mini változat jobban teljesített, mint az OpenAI o3-minije.