Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Mennyire ébredt öntudatra a Google mesterséges intelligenciája?

2022. június 20. - ferenck

Egy chatbot, a Google LaMDA modellje legalább egy személyt, a vállalat Felelős MI részlegén dolgozó kutatót, Blake Lemoine-t meggyőzött arról, hogy öntudatra ébredt.

A transzformer-alapú modellt 1,56 trillió, párbeszédben elhangzott szón treníroztak, majd azokat kellett reprodukálnia. A LaMDA családhoz tartozó MI-k 2 és 137 milliárd közötti paraméterrel dolgoznak. A Google szakemberei korábban arról tárgyaltak, hogy termékeikbe, például a keresőbe vagy az asszisztensbe integrálják őket.

Előzetes gyakorlás után, LaMDA sok lehetséges választ generált. A fejlesztők összegyűjtöttek egy sor beszélgetést a chatbottal, majd több személyt felvettek az MI kiértékelésére: mennyire érzékeny, speciális, érdekes és normális válaszokat ad.

googleai.jpg

Utána finomhangolták, hogy minden egyes választ követően ugyanazokat az értékeléseket generálja. A legmagasabb pontszámot érte el, de hogy tovább finomítsanak rajta, a miatta felvett dolgozók kereséseit kellett utánoznia, és ha úgy adódott, külső rendszeren nézelődött, anélkül, hogy válaszolt volna. A korábbi inputok és az új keresési eredmények alapján új outputot generált, ami új válasz vagy további keresés lehet.

A Felelős MI csoport kutatói a gyűlöletbeszéd és más káros viselkedési formák miatt tesztelték a LaMDA-alapú chatbotokat. Lemoine eközben győződött meg az MI öntudatáról, hogy érzékeli saját személyiségét.

google_ai0_2.jpg

A kutató a Google-dolgozók és a modell közötti kilenc beszélgetésről készített átiratot (az ábrákon ezekből a beszélgetésekből láthatunk részleteket), majd közölte: LaMDA tudatos. Az egyik átiratban az MI kijelentette: véleménye szerint ő egy személy, jogai vannak, és fél, hogy kikapcsolják.

A vállalat a titoktartás megszegése miatt június elején szabadságolta Lemoine-t. A kutató ugyanis ügyvédet fogadott, hogy védje meg LaMDA létezéshez való jogát, és az USA képviselőházának egyik tagjával is beszélt arról, hogy a Google mely ponton sértette meg LaMDA kapcsán az etikai alapelveket. Ezt követően közölték vele, hogy nincs bizonyíték az MI tudatosságára.

Lemoine egy blogposztban leírta: a vállalat nem bánik korrekt módon az etikai kérdéseket feszegető dolgozóival.

Az MI-fejlesztő közösség több tagja szkeptikus a kutató véleményével kapcsolatban. Az ember mindent, még a legkisebb jeleket is antropomorfizálni szeretné, és a Google mérnökei sem mentesek ettől a vágytól – állítja Melanie Mitchell, a Santa Fe Egyetem tanára.

A gépek antropomorfizálási hajlama az úgynevezett Eliza effektus az 1960-as évek közepének legendás chatbotjára utal, többen hitték róla, hogy ember, humán pszichoterapeuta. A teremtményeinkhez fűződő érzelmi kötődés kb. a Homo sapiensszel egyidős, Pygmalion, a képzeletbeli ógörög szobrász is beleszeretett saját alkotásába. Intő példa, és józan ítélőképességünket gépeinkkel kapcsolatban is meg kellene őriznünk.

Andrew Ng gépitanulás-szakértő szerint nincs okunk feltételezni, hogy a Google MI-je öntudatra ébredt volna. A tudomány és a technológia jelenlegi állása mellett, minden ilyen állításhoz kellő szkepticizmussal kell viszonyulnunk – jelentette ki.

A bejegyzés trackback címe:

https://jelenbolajovobe.blog.hu/api/trackback/id/tr917861205
süti beállítások módosítása