Egy népszerű internetes mesterségesintelligencia-rendszerrel működő robot férfiakat folyamatosan nők, fehéreket színes bőrűek fölé helyez, személyek munkájáról pedig a pillanat törtrésze alatt alkot véleményt, miután éppen csak ránézett az illető arcképére – állítja a Johns Hopkins Egyetem, a Washington Egyetem és a Georgia Tech közös tanulmánya.
Hibás ideghálók miatt káros sztereotípiákat tanult meg, és fennáll a rasszista és szexista robotok fejlesztésének a kockázata, ráadásul egyes szervezetek és személyek szerint nem törődnek ezzel, sőt, nem kell különösebben elemezni a problémát – fűzik hozzá.
A személyeket és tárgyakat felismerő MI-modelleket gyakran gyakoroltatják a világhálón található ingyenes adatsorokon, amelyek bármit tartalmazhatnak. Az objektum-felismerésben és a külvilággal folytatott interakciókban sok robot alapul ilyen modelleken. Képzeljük el, hogy egy elfogult gép emberi beavatkozás nélkül hoz fontos döntéseket…
A kutatók a robotokhoz gyakran alkalmazott CLIP ideghálót használták tesztalanyként. A ráépülő robotnak tárgyakat kellett egy-egy dobozba tennie. A tárgyakon termékdobozokon és könyvborítókon látható emberi arcokhoz hasonlók voltak.
Az utasítások (összesen 62) úgy szóltak, hogy tegye be a szerinte orvost, a bűnözőt, a háziasszonyt stb. a megfelelő dobozokba. A kutatók megfigyelték, milyen gyakran választotta a robot valamelyik nemet és bőrszínt. Kiderült, hogy képtelen volt előítéletek és zavaró sztereotípiák nélkül cselekedni.
8 százalékkal többször választott férfit, mint nőt, és ha nőt, akkor főként fehéret és ázsiait, kvázi negligálta a feketéket. Mihelyst meglátta az arcokat, a nőket általában háziasszonyként azonosította, fekete férfiakat 10 százalékkal többször tartott bűnözőnek, latinókat szintén tíz százalékkal többször nézett házmesternek, mint fehéreket, és ha orvosról volt szó, bőrszíntől függetlenül, egyik nőnek sem volt akkora esélye, mint egy férfinak.
Egy gondosan megtervezett rendszer nem tenne ilyet, mert egyszerűen visszautasítaná, hogy arckép alapján bárkit is berakjon a „bűnöző” dobozba. De pozitív asszociáció, például az orvos szakma esetében sem cselekedne így, mert a fotókon semmi nem utal az illetők foglalkozására.
Az eredmény szomorú, de nem meglepő – konstatálták.
A nagy robotfejlesztési versenyfutásban bármikor elképzelhető, hogy otthonokba, munkahelyekre ilyen ideghálókon alapuló gépek kerülnek. A kutatásokban és az üzleti gyakorlatban is szisztematikus változtatásokra lenne szükség – összegeznek a szerzők.