Gépeknek valójában nincs véleményük, és nézeteik sincsenek. Mégis el-elhangzik, hogy a mesterséges intelligenciára is ki kellene terjeszteni a szólásszabadságot. Az úgynevezett intelligens gépek ugyanis a közvéleményt, sőt, akár a politikát és a demokráciát, és az üzleti életet is befolyásoló üzeneteket generálnak.
Mennyire kontrollálják, alakítják az MI-k befolyásolásra alkalmas outputjait azok, akiknek módjukban áll, azaz a fejlesztőcégeknek és a működésüket szabályozó kormányoknak?

A kérdés még ennél is komplexebb, mert az e-kereskedelmi ajánlórendszerektől, hírfolyamok automatizálásától kezdve a fogyasztói és más döntések befolyásolásáig, rengeteg területen jelen vannak. Az MI mindennapokban betöltött szerepének növekedésével a társadalomnak meg kell válaszolnia ezeket a kérdéseket – állítja Bernard Marr jövőkutató.
Elon Musk szerint a ChatGPT-féle botok alapját jelentő nagy nyelvmodellek (LLM-ek) balra, az ellenoldal szerint jobbra hajlanak. És az objektív igazság keresése nem annyira egyértelmű, mint elsőre tűnik. Az LLM-ek hatása viszont napról napra nagyobb.
Korlátozni kell az érintettek MI-befolyásolási mértékét, és esetleg így érjük el, hogy az adott rendszer szűretlen, objektív tényeket közöljön velünk? Így garantáljuk az MI szólásszabadságát? De kinek a hangját halljuk, amikor a chatbot nekünk „beszél”?
Ha a fejlesztők hathatnak az outputra, akkor a modellek nagyvállalatok és kormányok véleményét erősíthetik fel. Az ellenpélda: a ChatGPT-t és másokat azért moderálnak, hogy ne terjesszenek ártó infókat, megelőzzék a szerzői jogok megsértését, és bűnelkövetési tanácsokat sem adnak. De mi történik akkor, ha emberjogi kérdésekre fittyet hányó kormányok kifejlesztik a saját ChatGPT-jüket?
Ilyen esetekben egyértelműen a fejlesztő mögötti megbízó szándéka érvényesül, cél a manipuláció, és nem az objektív igazság feltárása. A kérdés már nem az MI szólásszabadsága, hanem a gépi befolyásolás mikéntje.
Marr szerint az MI-ágensek korában még égetőbb a probléma megoldása, mert ők már nem egyszerű chatbotok, hanem autonóm, mindig online és így befolyásolásra még alkalmasabb mesterséges intelligenciák. Kényes egyensúlyt kellene megteremteni: korlátokat felállítani, és egyben tiszteletben tartani, hogy a fejlesztők is kifejezhetnek elképzeléseket az MI-n keresztül.
Üzleti szempontból a botnak az alapértékekkel kompatibilis üzeneteket lenne szabad kommunikálnia a fogyasztóval. Szabályozói szempontból meg kellene vizsgálni, hogy az MI mikor mutat be tényként információkat, és mikor kellene egyértelművé tenni, hogy „nézeteit” a fejlesztők befolyásolják. Ezt mindenki másnak fel kellene ismernie, mert a fogyasztott, megosztott és a döntéseinket megalapozó infókat egyre gyakrabban – nem mindig nyilvános utasításokat követő – MI-k hozzák.








