Richard Feynman, a világhírű fizikus, 1981-ben vetette fel a fizika számítógépes szimulálásának problémáját. Mivel a komputerek bináris logika (1-ek és 0-k) alapján végeznek számításokat, nehezen vagy egyáltalán nem kezelik a kvantummechanika bizonytalanságával.
A tudós javaslata: a kvantumviselkedést tükröző szerkezet, azaz kvantumszámítógép lehet az egyik megoldás. Feynman szerint a kvantummechanika valószínűségi megnyilvánulásait utánzó komputer lehet a másik.
Közel 40 évvel később a japán Tohoku Egyetem és az indianai Purdue Egyetem kutatói megépítették a Feynman által felvetett valószínűségi (sztochasztikus) számítógép hardverét. A fejlesztés a maiaknál energiahatékonyabb, bonyolultabb számításokat gyorsabban elvégző eszközöket vetít előre.
Hagyományos szilícium tranzisztorokat apró mágnessel kombinálva úgynevezett p-biteket (probabilistic, azaz valószínűségi biteket) generáltak. A mágnes mindössze 10 atom széles, és pont ebben a mérettartományban kezd el sztochasztikusan viselkedni. A fejlesztés egyik nagy érdeme a mágnes „hangolása”, amely egyrészt stabilitást eredményez, másrészt kontrollálható keretek között tartja a létrehozott bizonytalanságot.
Sztochasztikus számításokkal klasszikus komputerekkel nehezen megoldható problémák is kezelhetők, például a gépi tanulás.
A kutatók mai gépeknek fejtörést okozó matematikai feladatok elvégzésre programozták az eszközt, és kiderült, hogy a kivitelezéshez a csak szilícium tranzisztort használóknak legalább 1000 tranzisztor kell, míg az új gépnek nagyságrendekkel kevesebb, mindössze 8 p-bit. Emellett harmada területen dolgozik, az energiafogyasztás pedig a tizedére csökken.
A miniatürizáció egy ideje azt is jelenti, hogy a szilícium chipek által elvégzett egyre több művelettel, 1,6 évente megduplázódik az egységnyi energiafogyasztás melletti teljesítmény, ami valamivel több fogyasztást is jelent. A tendencia 2000 óta kicsit lelassult, az új gép viszont bebizonyította: sztochasztikus számításokkal drasztikusan javítható az energiahatékonyság.
A diszruptív technológia széleskörű használatához azonban több kutatás, nagyobb befektetések kellenének. A big data és az adatfeldolgozás iránti igény folyamatos növekedésével az energiahatékonysági szempontokat nem lehet többé ignorálni, ráadásul itt egy potenciális megoldás, amire előbb-utóbb az iparágnak és a döntéshozóknak is reagálniuk kellene.