Az élettelen, de életszerű viselkedést egyre inkább élőként látó felhasználóknak készülő chatbotok a mesterségesintelligencia-fejlesztések egyik legvitatottabb, veszélyeket rejtő iránya. Mustafa Suleyman, a Microsoft vezérigazgatója figyelmeztet a problémára, sőt, egy augusztusi blogbejegyzésben a „látszatra tudatos mesterséges intelligencia” (seemingly conscious artificial intelligence, SCAI) fejlesztések leállítását kérte kollégáitól.
Közben a Microsoft is készít hasonló termékeket, október végén például a Copilot chatbot frissítéseit jelentették be. A piac zsúfolt, csomó rivális bot igyekszik elnyerni a felhasználók tetszését: ChatGPT, Perplexity, Gemini, Claude, DeepSeek és a többi.

A Copilot egyik legfontosabb frissítése, a csoportos csevegési funkció lehetővé teszi, hogy egyszerre többen beszélgessenek a chatbottal. Így megakadályozható, hogy minden felvetésünkre egyetértve bólogató bottal négyszemközti beszélgetések sorát folytassuk, miközben egyre kényelmetlenebbül érezzük magunkat.
Egy másik funkcióval, a Real Talkkal beállíthatjuk, hogy a Copilot mennyire reagál ránk, csökkentve a chatbotok egyre gyakoribb hízelgését, és így többször megkérdőjelezheti, amit mondunk neki.
A memóriafrissítésének eredményeként mostantól megjegyzi közelgő eseményeinket, a hosszútávú célokat, és felidézi korábbi beszélgetésekből az általunk mondottakat. A Mico animált sárga pacával új és fiatalabb felhasználók számára igyekszik vonzóbbá válni.
Ez a frissítések egyik bevallott célja: a bot legyen vonzóbb, kifejezőbb és hasznosabb. Kérdés, meddig lehet ezeket a funkciókat úgy fejleszteni, hogy ne induljon el az SCAI felé vezető úton.
Az aggodalmakat még jogosabbá teszik a túl megnyerő, kifejező és segítőkész chatbotokról keringő történetek. Az OpenAI-t egy tinédzser szülei perlik, mert állítólag a ChatGPT vette rá az öngyilkosságra. Közben chatbotokkal kialakított romantikus kapcsolatokat ünneplő fórumok válnak népszerűvé.
Suleyman az emberszerű interakciók és a biztonsági aggodalmak egyensúlyában látja a megoldást. A Copilot új funkcióit ebben a szellemben alakították ki: az MI maradjon továbbra is az emberiséget szolgáló eszköz, ne emberi kapcsolatokat helyettesítsen. A Microsoft szándékosan kerüli a romantikus vagy szexuális kapcsolatokat ösztönző botok építését. Egyértelmű határokat jelölnek ki ott, ahol más piaci szereplők lehetőséget látnak. „Soha nem fogunk szexrobotot fejleszteni” – jelentette ki határozottan Suleyman.
A vonzó személyiség hasznosabbá teszi az MI-t, viszont meg kell tanulniuk gondosan „megformálni” az érzelmi intelligenciát, mert a személyiség mesterség, s nem megtévesztés – mondta a kutató.
Újra kell gondolni a „digitális fajok” metaforát – hangsúlyozza. Ha így írjuk le az MI-t, az semmiképpen nem a tudatosságuk és/vagy a jogaik jóváhagyása, hanem inkább figyelmeztetés: ez fog történni a jövőben. A technológiát az emberi érdekeknek kell alárendelni, és nem a tényleges humán jogokról a figyelmet elterelő autonómiával vagy morális megfontolásokkal felruházni.













