Gépitanulás-modellek feladatok, például képosztályozás hatékony kivitelezésére történő begyakoroltatása többmillió, esetleg többmilliárd kép megismertetésével jár. Ekkora adatsor összegyűjtése komoly kihívásokkal jár. Egyes esetekben, például, ha személyiségi jogokról (privacy), mondjuk, orvosi képekről van szó, különösen nehéz korrekt adatsor létrehozása.
Az MIT (Massachusetts Institute of technology) és a neves felsőoktatási intézményben alapított DynamoFL startup népszerű technikával, az úgynevezett egyesített tanulással (federated learning) igyekszik megoldást találni a privacy problémára. Eddigi közös munkájukkal a tanulási módszer gyorsabbá és pontosabbá vált.
Az egyesített tanulás együttműködés-alapú módszer gépitanulás-modellek gyakoroltatására. A módszerrel az érzékeny felhasználói adatok nem szivárognak ki, privát adatok maradnak.
Lényege, hogy többszáz vagy többezer felhasználó maga gyakoroltatja a saját modelljét. Saját adatokkal dolgozik a saját eszközén. Utána az összes felhasználó központi szerverre küldi a modelljét. A szerveren összekombinálják őket, a kombináltból újat hoznak létre, amelyet valamennyi felhasználónak visszaküldenek, és amely jobb, mint az eredetiek.
A FedLTN nevű modell a gépi tanulásban ismert lottószelvény-hipotézisen alapul. Lényege, hogy nagyon nagy idegháló-modellekben léteznek ugyanarra a teljesítményre képes, kisebb alhálózatok. Egy ilyen alhálózatnak a megtalálása hasonló a nyertes lottószelvény megtalálásához. (A névben lévő LTN a lottery ticket network-öt, a lottószelvény-hálózatot rövidíti.)
A FedLTN egyrészt pontosabb, másrészt kisebb a kombinált modell. Felgyorsítja a felhasználók és a központi szerver közötti kommunikációt (ami négyszer-hatszor gyorsabb lesz), miközben garanciát jelent arra, hogy minden egyes felhasználó a saját környezetéhez szabott modellt kap.
Más módszerekkel összehasonlítva, a FedLTN mérete legalább egy nagyságrenddel kisebb, mint a többié, miközben minimum tíz százalékkal pontosabb.