A Google és az UC Berkeley kutatói több megoldást javasolnak gépitanulás-fejlesztőknek, azzal dolgozó szakembereknek a munkájuk közben kibocsátott széndioxid-mennyiség csökkentésére. Az architektúra áramvonalasításával, a hardver frissítésével és hatékony adatközpontok igénybe vételével, a modellek károsanyag-generálása akár az eredeti ezredrészére redukálható.
Figyelmeztető jel, hogy nagyobb modellek fejlesztése és munkába állítása manapság már akár ötször annyi széndioxidot juttathat a környezetbe, mint egy egyszerű autó a teljes „életciklusa” alatt. A mesterséges intelligencia elterjedésével, az energiahatékonyság kulcstényezővé vált.
Gyakorláshoz és következtetésekhez alkalmazott öt természetesnyelv-feldolgozó (Natural Language Processing, NLP) modell szénkibocsátását vizsgálva, a kutatók különböző számokhoz és adatokhoz jutottak. Kiderült, hogy a következtetéshez általában jóval nagyobb mennyiségű energia kell, mint a rendszerek trenírozásához.
Az energiafelhasználást csökkentő több modelltervezési stratégiára hívták fel a figyelmet.
Az ismerettranszferrel például nincs szükség arra, hogy a semmiből kezdjük az új modellek betanítását. Hálózatok változatos módszerekkel történő zsugorítása megháromszorozhatja, de akár meg is hétszerezheti az energiafelhasználás hatékonyságát.
A hardver szintén fontos tényező. A kifejezetten gépi tanuláshoz tervezett chipek hatékonyabbak és gyorsabbak is a GPU-knál, a grafikus vezérlőkártyák központi egységénél. Például a Google TPU v2 4,3-szor gyorsabban futtat modelleket, és 1,3-szor kevesebb energiát fogyaszt, mint az Nvidia P100 GPU-ja.
A gépi tanulásra optimalizált szerverekkel rendelkező felhőszámítás-központok kétszer hatékonyabbak a hagyományos vállalati adatközpontoknál. Mivel a megújuló energiaforrásokkal dolgozó központok környezetbarátabbak, több új központot a források közelében építenek fel. Ezzel a lépéssel az energia távolabbi területekre történő viszonylag drága és nem is hatékony továbbítása válik feleslegessé, és így komoly összegek takaríthatók meg.