Egy chatbot, a Google LaMDA modellje legalább egy személyt, a vállalat Felelős MI részlegén dolgozó kutatót, Blake Lemoine-t meggyőzött arról, hogy öntudatra ébredt.
A transzformer-alapú modellt 1,56 trillió, párbeszédben elhangzott szón treníroztak, majd azokat kellett reprodukálnia. A LaMDA családhoz tartozó MI-k 2 és 137 milliárd közötti paraméterrel dolgoznak. A Google szakemberei korábban arról tárgyaltak, hogy termékeikbe, például a keresőbe vagy az asszisztensbe integrálják őket.
Előzetes gyakorlás után, LaMDA sok lehetséges választ generált. A fejlesztők összegyűjtöttek egy sor beszélgetést a chatbottal, majd több személyt felvettek az MI kiértékelésére: mennyire érzékeny, speciális, érdekes és normális válaszokat ad.
Utána finomhangolták, hogy minden egyes választ követően ugyanazokat az értékeléseket generálja. A legmagasabb pontszámot érte el, de hogy tovább finomítsanak rajta, a miatta felvett dolgozók kereséseit kellett utánoznia, és ha úgy adódott, külső rendszeren nézelődött, anélkül, hogy válaszolt volna. A korábbi inputok és az új keresési eredmények alapján új outputot generált, ami új válasz vagy további keresés lehet.
A Felelős MI csoport kutatói a gyűlöletbeszéd és más káros viselkedési formák miatt tesztelték a LaMDA-alapú chatbotokat. Lemoine eközben győződött meg az MI öntudatáról, hogy érzékeli saját személyiségét.
A kutató a Google-dolgozók és a modell közötti kilenc beszélgetésről készített átiratot (az ábrákon ezekből a beszélgetésekből láthatunk részleteket), majd közölte: LaMDA tudatos. Az egyik átiratban az MI kijelentette: véleménye szerint ő egy személy, jogai vannak, és fél, hogy kikapcsolják.
A vállalat a titoktartás megszegése miatt június elején szabadságolta Lemoine-t. A kutató ugyanis ügyvédet fogadott, hogy védje meg LaMDA létezéshez való jogát, és az USA képviselőházának egyik tagjával is beszélt arról, hogy a Google mely ponton sértette meg LaMDA kapcsán az etikai alapelveket. Ezt követően közölték vele, hogy nincs bizonyíték az MI tudatosságára.
Lemoine egy blogposztban leírta: a vállalat nem bánik korrekt módon az etikai kérdéseket feszegető dolgozóival.
Az MI-fejlesztő közösség több tagja szkeptikus a kutató véleményével kapcsolatban. Az ember mindent, még a legkisebb jeleket is antropomorfizálni szeretné, és a Google mérnökei sem mentesek ettől a vágytól – állítja Melanie Mitchell, a Santa Fe Egyetem tanára.
A gépek antropomorfizálási hajlama az úgynevezett Eliza effektus az 1960-as évek közepének legendás chatbotjára utal, többen hitték róla, hogy ember, humán pszichoterapeuta. A teremtményeinkhez fűződő érzelmi kötődés kb. a Homo sapiensszel egyidős, Pygmalion, a képzeletbeli ógörög szobrász is beleszeretett saját alkotásába. Intő példa, és józan ítélőképességünket gépeinkkel kapcsolatban is meg kellene őriznünk.
Andrew Ng gépitanulás-szakértő szerint nincs okunk feltételezni, hogy a Google MI-je öntudatra ébredt volna. A tudomány és a technológia jelenlegi állása mellett, minden ilyen állításhoz kellő szkepticizmussal kell viszonyulnunk – jelentette ki.