Az alpesi ország világhírű egyetemei (EPFL, ETH Zürich) és a Svájci Nemzeti Szuperszámítási Központ együttműködésének eredményeként nemzeti nagy nyelvmodellt (LLM) fejlesztett. Az Apertus nevű MI a ChatGPT, a Meta Llama-ja és a DeepSeek többnyelvű (helyi) alternatívája lehet.
Két méretben indul: az egyik nyolc-, a másik hetvenmilliárd paraméteres, több mint ezer nyelv tizenötbillió tokenjén gyakoroltatták. Az Apertus gyakorlóadatainak negyven százaléka nem angol, és az LLM-ekben olyan alulreprezentált nyelveket is használtak hozzá, mint a svájci német és a rétoromán.
Az Apertus latinul nyitottat jelent, és ennek megfelelően – ellentétben a legtöbb kereskedelmi modellel – architektúrája, súlyai, gyakorlóadatai, fejlesztési módja, hozzáférhetősége, tehát minden nyílt, emellett pedig teljesen és bőségesen dokumentált. Tökéletesen megfelel a svájci adatvédelmi és szerzői jogi törvények és az EU-s MI Törvény átláthatósági követelményeinek.
A két modell megengedő nyílt forrású licenc alatt ingyenesen hozzáférhető oktatási, kutatási és kereskedelmi alkalmazásokhoz. A telepítés olyan platformokon keresztül támogatott, mint a Transformers, a vLLM, az SGLang és az MLX, így az Aperthus valóban sokféle eszközön futtatható.
A fejlesztésnél az átláthatóság és a tanítási folyamat teljes reprodukálhatósága voltak a kulcsszempontok. Az intézmények ezért publikáltak mindent az Apertusról. A használati feltételek a Hugging Face-en érhetők el.
Az adatintegritás és az etikai standardok betartására külön odafigyeltek: a gyakoroltatáshoz használt korpusz kizárólag nyilvánosan hozzáférhető adatokból áll. A rendszer szűri az adatokat, hogy tiszteletben tartsa weboldalak géppel olvasható, akár visszamenőleges leiratkozási kérelmeit, valamint hogy a tréning megkezdése előtt eltávolítsa a személyes adatokat és más nemkívánatos tartalmakat.
A fejlesztők egyéni használatra inkább a kisebb, a nyolcmilliárd paraméteres modellt ajánlják.