A mostani mesterségesintelligencia-fejlesztés egyik problémája, hogy kezd belterjessé válni. Ne arra gondoljunk, hogy a kutatók egymás között, zárt közösségekben tevékenykednek, hanem magukra a modellekre, mert róluk van szó.
A legjobbak ugyanis egy kisszámú úgynevezett alapmodell finomhangolt változatai. Az alapmodelleket előzetesen a webről összegyűjtött, irdatlan mennyiségű adaton trenírozták.
A világháló az emberiség legnagyobb értékeit, de legalantasabb tulajdonságait, köztük a társadalmi előítéleteket, a tudatlanságot és a kegyetlenséget is magába foglalja.
Jelen esetben ennek az a következménye, hogy a finomhangolt modellek ugyan csúcsteljesítményt érhetnek el, viszont előítéletesek lehetnek, félretájékoztathatnak, dicsőíthetik az erőszakot stb.
A kaliforniai Stanford Egyetem több mint száz kutatója közösen publikált tanulmányban hangsúlyozza, hogy az alapmodellek többféle problémát idézhetnek elő a finomhangolt implementációkban.
Például felerősíthetik a finomhangoláskor használt adatok előítéleteit. Személyes adatokon gyakoroltathatunk alapmodelleket, amelyekkel később mások dolgoznak, és az általuk létrehozott rendszerek nem szándékosan, de kiszolgáltathatják ezeket az adatokat.
Rosszindulatú személyek, bűnözők szintén használhatják ezeket a modelleket, rendszereiket finomhangolják velük, hogy például még hihetőbb kamuhíreket állítsanak elő.
A tanulmány ellentétes reakciókat váltott ki. Egyesek nem értettek egyet a szerzők alapmodell-definíciójával, és megkérdőjelezték az előzetesen trenírozott nagy modellek szerepét az MI jövőjében.
Mindenesetre ne reménykedjünk, hogy ezeknek a modelleknek az összes használója minden rosszat vagy potenciális rosszat teljesen auditálni fog. Pont ezért kellenek a Stanford Egyeteméhez hasonló, az MI-rendszerek hatásait elemző kutatások, például hogy hogyan alakulnak ki egy MI káros tulajdonságai, és ezek milyen úton képesek terjedni.