Sok idegtudós szerint az emberi elme működési módja az agy számítógépes újraalkotásával érthető meg. Idegsejtről idegsejtre dolgozva, elképzelhető a gondolkodáshoz, emlékezethez, érzelmekhez stb. vezető neurális folyamatok megjelenítése, visszafejtése.
Ha a digitális agy elkészül, tudósok tesztelhetik a kognitív tevékenységekkel kapcsolatos jelenlegi elméleteket, kutathatják a multifunkcionális elméhez vezető paramétereket. Nick Bostrom, az Oxford Egyetem világhírű kutatója (a 2014-es nagyhatású bestseller, a Szuperintelligencia szerzője) szerint a szimuláció az emberi agytevékenység megjelenítésének ugyan rengeteg munkával járó, de egyik legígéretesebb módja. Más megoldások mellett a szimuláció is elvezethet emberi szintű vagy még értelmesebb mesterséges intelligenciákhoz.
Azonban van egy igen komoly probléma: komputereink nem tudják kezelni az emberi agy masszívan párhuzamos természetét. Még a legfejlettebb szuperszámítógépek sem birkóznak meg a méretekkel, és minél nagyobb az idegháló, annál több a gond. Például egy kobei (Japán) intézet K nevű gépe a kortexben lévő idegsejtek és szinapszisaik maximum 10 százalékát képes kezelni, és mivel a hardver egyre gyorsabb, a probléma részben szoftveres jellegű.
A németországi Jülichi Kutatóközpont nemzetközi csoportja egy népszerű szimulációs algoritmus átdolgozásával igyekszik kezelni a problémát, hogy lerövidítse a számítási időt és a memória fogyasztását.
„Az új technológiával minden eddiginél sokkal nagyobb mértékben tudjuk növelni a modern mikroprocesszorok párhuzamosságát, amely az exaléptékű komputereknél még fontosabb lesz” – nyilatkozta az intézetben dolgozó Jakob Jordan.
A JUQUEEN szuperszámítógépen az algoritmus minimum 55 százalékkal gyorsabban fut a korábbi modelleknél, azaz random ideghálók hatékonyabban jeleníthetők meg. A jelentős mértékű gyorsulást az adatátviteli séma áramvonalasításával magyarázzák. Például 500 millió idegsejtből álló hálózat esetében 1 másodperces biológiai folyamatok szimulálása 5 perc az új algoritmussal. Összehasonlításként: elődjénél hatszor ennyi időt vett igénybe.
„A technológia abból profitál, hogy minden egyes folyamatból csak a releváns részek kerülnek feldolgozásra” – folytatja Jordan, hozzáfűzve, hogy a memória növekedésével az algoritmus előbb-utóbb agyméretű modellekkel is elboldogul.