Az NJSZT blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Nagyon kevesen tanulnak mesterségesintelligencia-etikát

2020. július 16. - ferenck

Az utóbbi hetekben és hónapokban sok tanulmány jelent meg mesterséges intelligenciák és gyakorlóadataik bőrszín- és nemi alapú előítéleteiről. A jelenségre reagálva, több techóriás etikai kezdeményezéssel állt elő. A nemesnek tűnő „a technológia szolgálja az emberiséget” cél kritikusok szerint inkább azzal magyarázható, hogy elkerüljék a szabályozást.

Azt hihetnénk, hogy a felsőoktatási intézményekben jobb a helyzet, a következő generáció számítástudományi szakemberei tisztában vannak a mesterséges intelligenciák „moralitásával.” Tévednénk – állapította meg az Anaconda szoftvercég.

2360 adattudományt tanuló diákkal, felsőoktatásban dolgozó személlyel és szakemberrel végzett felmérésükből ugyanis kiderül: a megkérdezett oktatók és szakemberek mindössze 15 százaléka tanít MI-etikát, a diákoknak pedig csak a 18 százaléka tanult a témáról.

ai_ethics.jpg

A döbbenetesen alacsony számok oka nem az érdeklődés hiánya. A megkérdezettek fele ugyanis elmondta, hogy az elfogultság társadalmi hatásai vagy a magánszféra (privacy) az MI és a gépi tanulás legnagyobb megoldandó problémái. Félelmüknek viszont alig van nyoma a tantervekben.

Az Anaconda felmérésében száznál több ország adattudósai gondolják, hogy az MI-etika hiánya a felsőoktatás mellett az iparágban is tetten érhető. Intézmények ugyan beszélhetnek korrektséget biztosító, vagy magyarázatot adó megoldásokról, e technikák tömeges elterjedésére minimális az esély.

A válaszadók mindössze 15 százaléka látja úgy, hogy szervezetük bevezetett pártatlanságban segítő gépi eszközöket, 19 százalékuk pedig magyarázatot adó technológiák cégen belüli jelenlétéről beszélt.

A tanulmány szerzői szerint a jelenlegi állapotnak súlyos hosszútávú következményei lehetnek. E problémák proaktív kezelésének hiánya a versenyképességben, a pénzügyekben és jogi szinten is stratégiai kockázatot jelenthet vállalkozásoknak, intézményeknek.

A nyílt forrású eszközök, az üzleti tréningek és az adatbányászat biztonsági problémáira szintén rákérdeztek. A legveszélyesebbnek viszont mindenképpen az MI-etika hiányát, figyelmen kívül hagyását tartják. Itt két viszonylag távoli, de összefonódó, társadalmi, oktatási és szakmai kérdéseket felvető területről, trendről van szó: egyrészt az elfogultság és a korrektség technikáinak lassú fejlődéséről, másrészt a gépi tanulás eredmények megmagyarázhatóságának hiányáról.

A bejegyzés trackback címe:

https://jelenbolajovobe.blog.hu/api/trackback/id/tr5316005818

Kommentek:

A hozzászólások a vonatkozó jogszabályok  értelmében felhasználói tartalomnak minősülnek, értük a szolgáltatás technikai  üzemeltetője semmilyen felelősséget nem vállal, azokat nem ellenőrzi. Kifogás esetén forduljon a blog szerkesztőjéhez. Részletek a  Felhasználási feltételekben és az adatvédelmi tájékoztatóban.

clemens 2020.07.18. 16:34:44

Magyarán tehát addig kell csiszolni az MI programozását amíg polkorrekt választ nem ad minden társadalmi érintettségű kérdésben, akkor is ha ez az objektivitás kárára történik.