Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Mesterségesintelligencia-kutatás a Közép-Keleten és Afrikában

2020. július 28. - ferenck

Az MIT (Massachusetts Institute of Technology) Globális Mesterséges Intelligencia Agendája részeként közölte - a kutatási anyagban egy földrajzi régióként kezelt - Közép-Kelet és Afrika helyzetét.

A tanulmány a Perzsa-öböl gazdag országaira, különösen Szaúd-Arábiára és az Egyesült Arab Emirátusokra, illetve az afrikai tech „forró pontokra”, Ghánára, Kenyára és Nigériára összpontosít. A világ egyik leggazdagabb és egyik legszegényebb részére.

A kettő közös elemzése azért érdekes, mert a diszciplína ugyan mindkét térségben dinamikusan fejlődik, a rendelkezésre álló kapacitások viszont nagyon különböznek, és ezért az eredmények is mások. Azonos jelenség, hogy nincs elég tehetség, és hiába működik a gazdaság, ez a Közép-Keleten sincs másként.

ai_kozepkelet_afrika.jpg

A két területet összesítve, a válaszadók 82 százaléka használ üzleti tevékenységéhez valamilyen MI-megoldást. Az Öböl-országokban több vállalat pontosan mesterséges intelligenciát alkalmazva igyekszik elérni, hogy tevékenységük fókusza az olajról az innovációra tevődjön át, míg Afrikában a mesterséges intelligencia a gazdaság fellendítésében segíthet.

Az afrikai startupok helyi kihívásokat próbálnak orvosolni, például az élelemhez és a gyógyszerekhez való hozzáférésben segít az MI. Több cég például adósminősítésben segít MI-vel alacsony jövedelemmel rendelkező személyeken és kisvállalatokon.

A megkérdezettek több mint a fele mondta el: az MI segít nekik a pénz-megtakarításban, 44 százalékuk pedig úgy látja, hogy 2023-ban tevékenységük negyedéért a technológia lesz a felelős.

Az MI adaptálása kifejezetten nehéz folyamatnak bizonyult. Az interjúalanyok 60 százalékának komoly problémát okozott a technológia alkalmazása, majdnem ugyanannyian pedig megjegyezték, hogy nehezen férnek hozzá jó minőségű adatokhoz. Mind Afrikában, mind a Közép-Keleten panaszkodtak a jó szakemberek hiányára, a megkérdezettek több mint 40 százaléka látja úgy, hogy kevesen vannak.

Az a tény, hogy a Közép-Kelet és Afrika is előtérbe helyezi az MI-t, rengeteget elmond a technológia lehetőségeiről.

Musk ismét a mesterséges intelligencia veszélyeire figyelmeztetett

Elon Musk hosszú ideje figyelmeztet a mesterséges intelligencia egyelőre főként jövőbeni veszélyeire. Markáns észrevételei mindig megosztják a szakmai és az általános közvéleményt.

Nyilatkozott már például olyat is, hogy az MI még egy atomháborúnál is kockázatosabb, sokkal pusztítóbb lehet. Másokhoz hasonlóan, attól is fél, hogy a gépi értelem helyettesítheti az emberi munkaerőt. A Termináror-filmekből ismert Skynet-szerű entitásokra szintén többször felhívta a figyelmet – ezek a rendszerek, ha úgy gondolják, akár úgy is dönthetnek, hogy nincs többé szükségük a Homo sapiensre.

musk_ai0.jpg

„Egy évtizede kongatom a vészharangokat” – jelentette ki egy múlt héten készült interjúban.

Legutóbb a kételkedőket szólította meg, és elmondta: nem látnak annyira tisztán, mint gondolják. Figyelmeztette őket: hiába gondolják, hogy soha nem vág át intelligens embereket egy gép, és pontosan ezért kevésbé óvatosak, nem koncentrálnak eléggé, és máris bekövetkezhet a baj.

musk_ai.jpg

„Foglalkoznunk kell azzal, hogy merre tart az MI. Tapasztalataim alapján a legértelmesebb személyek tévednek a legnagyobbat, mert el sem tudják képzelni, hogy egy számítógép intelligensebb lehet náluk. Beleesnek ebbe a logikai hibába, és lényegében butábbak, mint képzelik” – magyarázza.

Musk szkepszisét kevés kollégája osztja. Az egyik ok, hogy gyakran hivatkozik általa látott, viszont mások számára ismeretlen, titkos és szerinte veszélyes mesterségesintelligencia-kutatásokra, konkrétumokkal viszont nem támasztja alá állításait, nem mutat be bizonyítékokat.

Ha félretesszük a veszély mértékét, megállapítható, hogy a Space X tulajdonosának egyes kérdésekben igaza van: jobban kellene figyelni, követni az MI-kutatásfejlesztéseket, és határozottabb szabályozás sem ártana. A hozzáállás megváltoztatására az esetleges visszaélések megelőzése és a biztonsági kockázatok minimalizálása miatt lenne szükség. Gondoljunk csak a kamuképekre, kamuvideókra, a gépi értelem propagandacélokra történő felhasználására és hasonlókra.

Gépi tanulás segíti robotrajok együttműködését

Több robot mozgásának koordinálása sok alkalmazást (nagyvárosi keresést és mentést, önvezető járművek irányítását, formációban történő repülést stb.) érintő, alapvető probléma.

Két ok miatt nehéz megoldani: egyrészt az új környezetbe kerülő gépeknek a pillanat törtrésze alatt kell döntéseket hozniuk úrvonalukról. Mindezt úgy kell meglépniük, hogy csak hiányos adatok állnak rendelkezésükre. Másrészt, ha az adott környezetben egyszerre több robot tartózkodik, interakcióik egyre komplexebbé válnak, nő az összeütközések lehetősége.

swarm_3.jpg

A Caltech (Kaliforniai Technológiai Intézet) kutatói robotok mozgását megtervező algoritmust (Global-to-Local Safe Authonomy Systems, GLAS) fejlesztettek. A csak helyi infókkal és a „Neurális Raj” követő kontrollerrel rendelkező GLAS imitálja a tervezőt, rajokat monitorozva tanul egymáshoz közeli repülők komplex aerodinamikus interakcióiról.

Az eddigi eredmények bizakodásra adnak okot, a szakemberek, úgy tűnik, megoldották a biztonsági, a robusztusságból következő és méretezhetőségi problémákat. Az algoritmus több drónból álló csapatok mozgását tervezte, míg a közelség kérdését a Neurális Raj oldotta meg.

swarm0_3.jpg

Ezeket a technikákat használva, a robotoknak nem kell komplex, átfogó képpel rendelkezniük a környezetről és az útvonalról. Helyette megtanulják, hogyan navigáljanak, illetve a „tanult modell” segítségével integráljanak mozgásukba új információkat.

Mivel a raj minden egyes robotjának csak lokális infókra van szüksége, a számítások decentralizáltak, az adott gép csak „magára gondol.” Ezzel válik lehetővé a raj méretezése.

A kutatók bemutatták a modern gépitanulás-technikák multiágens-tervezésbe és irányításba integrálását, és egyben fel is villantották a gépi tanulás új fejlesztési lehetőségeit.

A technikát 16 kvadrokopterből álló drónrajon tesztelték a felsőoktatási intézmény Autonóm Rendszerek és Technológiák Központjában. Kiderült, hogy a GLAS 20 százalékkal jobb teljesítményre képes, mint a legmodernebb mozgástervező algoritmusok, míg a Neurális Raj szintén jócskán felülmúlta a kereskedelmi forgalomban beszerezhető, aerodinamikus interakciókat nem kezelő kontrollereket.

Kamu újságíró cikkei jelentek meg az izraeli sajtóban

Oliver Taylor, a Birminghami Egyetem huszonvalahány éves diákja online profilja alapján imádja a kávét és a politikát, hagyományos zsidó családban nőtt fel. Eddig hat cikke jelent meg a Jerusalem Postban és a Times of Israelben.

Csakhogy Oliver Taylor nagy valószínűséggel nem létezik, fikció.

Egyeteme nem tud róla, a közösségi nemzetközi kérdés-felelet Quora oldalon – ahol márciusban két napig volt aktív – kívül nincs nyoma. A két újság elmondta, hogy megpróbálták azonosítani, de nem sikerült. A Reutersnek sem. A megtévesztő/csaló képek és a naprakész igazságügyi elemzőtechnika szakértői, valamint az ezekre specializált programok megállapították, hogy Taylor profilképe nagyon jól megcsinált átverés, kamukép, deepfake.

fake_ujsagiro.jpg

A baloldali fotón az állítólagos Taylor áll, a jobboldalin pedig a tel-avivi kamukép-detektáló Cyabra cég hőtérképe ugyanarról a fényképről. Utóbbihoz a vállalat algoritmusait használták, amelyek kiemelték az arc feltehetően számítógépes manipulációval készült részeit. Szakértők szerint több más jel mellett, a digitális inkonzisztenciák elég egyértelműen jelzik, hogy a portré fiktív.

Az alkotásaiban deepfake-eket rendszeresen használó képzőművész, Mario Klingemann elmondta: „a fotó magán viseli egy kamukép összes jellegzetességét. 100 százalék biztos vagyok benne, hogy az.”   

Senki nem tudja, ki áll Taylor mögött. Brit telefonszámát hívva, automata hibaüzenet válaszol, a levelezéshez használt Gmail-fiókra írt e-mailekre nem válaszol.

Valaki kitalálta Taylor személyét, deepfake-technológiával arcot adott neki, hamis nevet és életrajzot gyártott mellé, létrehozva az újságíró identitását, és elérte, hogy cikkei jelenjenek meg a két újságban.

A csalás kiválóan szemlélteti, hogy az új technológiák tökéletesen alkalmasak a megtévesztésre, és hogy mennyire könnyű online terjeszteni hamis információt.

Kamu-újságírók használata nem előzmények nélküli a propagandában. Például a Daily Beast múlt hónapban derítette ki, hogy 19 fiktív zsurnaliszta több konzervatív sajtóorgánumban publikált politikai anyagokat, és nagyon úgy tűnik: többhöz deepfake-technikákat alkalmaztak.

A Jerusalem Post elmondta a Reutersnek, hogy nem ellenőrizték le kőkeményen Taylort. Anyagai nem keltettek fel különösebb érdeklődést, az eset viszont figyelmeztető: „kamutechnológiák” mögött álló személyek hamis információkat jelentethetnek meg jónevű újságokban.

Az amerikai zsarukat megőrjítik a maszkok, nehezebb az arcfelismerés

Miközben orvosok és politikusok (már amelyik) próbálja meggyőzni az amerikaiakat, hogy a Covid-19 elleni minimális védekezésként, hordjanak maszkot, a Belbiztonsági Minisztériumtól kiszivárgott: a rendőrség számára sok gondot okoz a maszkviselés, mert erősen hátráltatja az arcfelismerést.

A koronavírus gyors globális elterjedése megnehezíti az egyébként is egyre vitatottabb arcfelismerő technológiák működését. Hirtelen majdnem mindenki eltakarta az arcát.

A technika ideális körülmények között sem működik hibátlanul, gyakran pontatlan, a mozgóképanyagokon látható személyeket, ha nem fehér férfiak, különösen nehezen azonosítja.

mask.jpg

A szövetségi bűnüldözési és hírszerzési szervek, ügynökségek körében május vége, a Black Lives Matter tüntetések kezdete óta cirkulál a szóban forgó dokumentum. Kiemelik benne, hogy főként szélsőséges csoportok húzhatnak hasznot a járványhelyzetből.

Állításukat eddig egyetlen tény támasztja alá. Egy fehér felsőbbrendűséget hirdető szervezet egyik meg nem nevezett tagja egy online fórumon javasolta kritikus infrastruktúrához tartozó létesítmények megtámadását. Természetesen maszkban, hogy a támadók beazonosíthatatlanok maradjanak. A többi „bizonyíték” még a pandémia előtt íródott a világhálón.

mask0.jpg

Az anyagból kiderül az is, hogy az amerikai hatóságok félelme sokkal általánosabb. Nagyon tartanak a széleskörű maszkviselés belbiztonsági kockázataitól, hogy a döcögős arcfelismerő rendszerek, okos kameráikkal lebénulnak.

A közegészségügyi status quo szerintük egyértelmű fenyegetést jelent az algoritmikus rendfenntartásra. A vita egyébként nem újkeletű, a Covid-19-cel viszont ismét felizzott. A 2011-es Occupy Wall Street tüntetéseken a rendfenntartók nem tudtak mit kezdeni az Anonymous hacktivitáival. Több állam hozott maszkellenes törvényt, amelyekkel például Ku-Klux-Klan találkozókat is igyekeztek ellehetetleníteni, összességében viszont ezek az intézkedések inkább a fehér elit védelmét szolgálják.

A dokumentumban megemlítik a hongkongi megmozdulásokat is, ahol eleinte csak a militánsok viseltek maszkot, de miután a Kína-barát hatóságok a békés tüntetéseket is igyekeztek betiltani, egyre többen, a Covid-19 megjelenése után pedig mindenki.

Az utóbbi hónapokban (drámai hatékonyságcsökkenést mutató teszteket követően) több cég igyekszik a maszkokhoz alkalmazni technológiáját, sőt, egyesek be is jelentették: sikerrel jártak. Frissítették algoritmusaikat, amelyek arcokra photoshoppolt maszkokon gyakorolnak. Az eredmények kétségesek, az állításokat kevés tény támasztja alá.

A tényleges azonosításhoz célszerűbb lenne az utcán, valósidőben készült felvételeket használni, amelyeken különféle szögekből örökítik meg a maszkos tüntetőket. Ezek nélkül a képek nélkül rengeteg a hamis pozitív.

Az amerikai vámügy és határellenőrzés szerint eredményesen azonosítanak maszkot viselő külföldi utazókat. Nekik viszont olyan szögből kell belenézni a kamerába, ami megkönnyíti a hatóságok dolgát.

Mesterséges intelligencia keresi az életet a naprendszerben

Segíthetnek-e mesterséges intelligenciák az élet jelei utáni kutatásban a naprendszerben?

A NASA tudósai szerint igen, és az amerikai űrügynökség pilot MI-rendszert tesztel, hogy a jövő Mars-expedíciói során (az anyabolygón tartózkodó) tudósoknak segítsen talajminták tesztelésében, a mikrobák életére vonatkozó leghasznosabb információk kivonatolásában. Az aprólékos elemzőmunka után kizárólag a fontos infókat juttatnák vissza a vörös bolygóra, a mintákat gyűjtő géphez.

mars_ai.jpg

A gépitanulás-alapú MI a Földön vizsgálja majd a tervek szerint 2022 nyarán vagy őszén induló ExoMars-misszió Rosalind Franklin terepjárója által összegyűjtött adatokat, és ha sikerrel jár, későbbi küldetéshez is munkába állítják: a Szaturnusz Titán holdjára menne. (Rosalind Franklin a DNS-kutatásban kiemelkedő – felfedező – szerepet betöltő angol vegyész volt.)

A technológiát úgy fejlesztenék tovább, hogy az égitest légkörébe oktokopter-típusú drónt juttatna el. A légi jármű az élet jelei, mikrobák után kutatna, ami legyen szó kövületről vagy jelenlegi mintáról, mind a Marson, mind a Titánon nagyon komoly kihívás.

mars_ai0.jpg

Eddig még senkinek sem sikerült, a terület szakértői az asztrobiológia Szent Gráljaként beszélnek róla – ha valaki tényleg életre bukkanna.

A 2026-ra ütemezett Titán-misszió során az űrhajó teljesen barátságtalan környezetben fog tevékenykedni, ahol sokkal kevesebb lehetősége adódik az adatok a Föld és a Titán közötti oda-vissza történő mozgatására, ezért automatizált asztrobiológiai vizsgálatokra, kutatásra lesz szükség.

Ehhez a tevékenységhez még a Marsénál is fejlettebb gépi tanulás és MI kell, mert az MI helyszínen fog ténykedni. Okosabb tudományos műszerek „haladó” gépi értelem nélkül nem funkcionálnak, a Titán-út pedig nagyon okos műszerekkel sem biztos, hogy sikeres lesz, nélkülük viszont egész biztosan nem lesz az.

A Titán után a Jupiter Európa holdjára is indulhat küldetés, minden bizonnyal újabb mesterséges intelligenciákkal.

Pirinyó kamera bogárháton

Technológiai cégek, mint például a GoPro minden évben minél több funkciót igyekeznek minél kisebb „akciókamerákba” pakolni. Céljaik közé tartozik még, hogy ezek a kamerák ne okozzanak problémát a felhasználónak, véletlenül se érezzen pluszterhet.

A Washington Egyetem egyik kutatócsoportja figyelemreméltó eredményt ért el – új fejlesztésüket, egy, élő streamelésre alkalmas vezeték nélküli kamerát még egy bogár is képes hordani, mert annyira kicsi és annyira könnyű.

bogar_kamera.jpg

Az új gépecskével például rovarok élete tanulmányozható, mert egy liliputi méretű hátizsák segítségével az állat a hátán cipeli a kamerát. A fejlesztők olyan könnyű szerkezetet akartak kidolgozni, hogy ne zavarja a rovarok mindennapjait, rutintevékenységeiket ugyanúgy végezhessék el, mint eddig, viszont legyen elég erős ahhoz, hogy élőfelvételeket közvetítsen okostelefonra.

Az eredmény egy parányi robotikus torony, amelyen keresztül valósidőben, a bogár szemével, az ő nézőpontjából láthatjuk környezetét. A kamera a maga kategóriájában világelső, és a célnak minden szempontból megfelel: minimálisan sem zavarja az ízeltlábú mobilitását.

bogar_kamera0.jpg

A legnagyobb kihívást a méret jelentette, hogy a gépecske elférjen egy gyászbogár vagy egy büdösbogár hátán. Mindkét állat arról ismert, hogy emelkedőkön is apró tárgyakat cipelnek magukkal. Ha kell, fél grammnál nagyobb tömeget is képesek megmozgatni.

Mivel még egy mai okostelefon kamerája is túl nagy lett volna, a kutatók az állatvilághoz fordultak inspirációs forrásként: a legyekhez, ahogy ők látják a világot: a mozgást széles térben detektálják, viszont a kép kicsi területeire is tudnak összpontosítani, csak azt látják nagyon nagy felbontásban. Ezzel a munkamegosztással, ahogy a szem „csak” például a célpontokra fókuszál, sokkal kevesebb terhelés nehezedik az állat pici agyára.

A légy összetett szeméhez hasonlóan, a kamera látómezője ugyan széles, viszont a kép csak egy kis részen kifejezetten éles. A felvétel kb. pont annyira jó, mint amennyit egy bogárbarát hátizsáktól elvárunk; érzékeltetésként: másodpercenként mindössze 1-5 képkocka (frame) pereg.

A kutatók előbb-utóbb felhagyhatnak a „bogárállvánnyal”, és a kamerát például rovarméretű megfigyelő robotba ágyazhatják.

Megmondja az MI, melyik bolygók élnek túl egy összeütközést

Miért nem ütköznek gyakrabban össze a bolygók? Hogyan szervezi meg magát egy bolygórendszer, mint a miénk a Nap, vagy mások más csillagok körül? A lehetséges megoldások közül a bolygók mindegyikben keringenek, de hány konfigurációban maradnak meg több milliárd évig, a csillag életciklusának végéig?

Ha kihagyjuk az instabil lehetőségeket, az összes ütközéshez vezető forgatókönyvet, élesebb képet kapunk a más csillagok körül keringő bolygórendszerekről.

„A stabil és az instabil konfigurációk szétválasztása izgalmas, de kőkemény probléma” – jelentette ki Daniel Tamayo, a NASA és a Princeton Egyetem asztrofizikusa.

A stabilitás megállapításához, csillagászoknak több egymással interakcióban lévő bolygó sok évmilliárdos mozgásait kell kiszámolni, valamint leellenőrizni az összes lehetséges stabilitás-konfigurációt. Magyarán lehetetlen feladatról van szó.

bolygok.jpg

A csillagászok, Isaac Newton óta próbálkoznak vele, kutatásaik ugyan sok matematikai felfedezéshez, például a káoszelmélethez vezettek, viszont senki nem jött rá, hogyan lehet elméletileg előrejelezni a stabilitás-konfigurációkat.

A NASA kutatói megoldási javaslataként teljes csillagrendszerek sorsát bíznák egy mesterségesintelligencia-algoritmusra. Rendszerüket Tamayo nevezte el, Stability of Planetary Orbital Configurations Klassifier, azaz (rövidítve) a Star Trek rajongóknak otthonosan és kedvesen csengő SPOCK.

SPOCK valójában nem dönti el, melyik világok fognak élni, melyek meghalni. Viszont sokkal nagyobb léptékben és lényegesen pontosabban előrejelezheti exoplanéták útját, és meghatározhatja, melyek maradnak stabilak, illetve melyek ütköznek bele más bolygókba vagy csillagokba, mint amire ember valaha is képes lenne.

Az első exobolygó 1995-ös felfedezése óta, a tudósok több mint 4 ezret azonosítottak. Több mint 700 egynél több bolygót tartalmazó csillagrendszerben található, és így potenciálisan veszélyben vannak, mert tragikus végkimenetelű összeütközések történhetnek.

„Kategorikusan nem jelenthetjük ki, hogy ez a rendszer rendben van, amaz viszont hamarosan fel fog robbanni. Helyette az a cél, hogy egy adott rendszernél kizárhassuk az összes instabil lehetőséget, azokat a lehetőségeket, hogy már összeütköztek, és jelenleg nem létezhetnének” – magyarázza Tamayo.

Kutatók hagyományosan „nyers erőt” (brute force) használnak a probléma megválaszolásához: exobolygót modellezve keresik a veszélylehetőségeket. SPOCK elegánsabb: 10 ezer körforgásnál megáll, a gépitanulás-algoritmus rajtuk gyakorol, a rendszer pedig így tanulja meg, hogy időben előrejelezzen összeütközéseket.

A SPOCK név arra is utal, hogy a modell eldönti, mely rendszereknek lesz „hosszú és eredményes élete” (live long and prosper, ahogy a legendás filmbeli Spock és a vulkánok köszöntötték egymást, másokat).

Nagyon kevesen tanulnak mesterségesintelligencia-etikát

Az utóbbi hetekben és hónapokban sok tanulmány jelent meg mesterséges intelligenciák és gyakorlóadataik bőrszín- és nemi alapú előítéleteiről. A jelenségre reagálva, több techóriás etikai kezdeményezéssel állt elő. A nemesnek tűnő „a technológia szolgálja az emberiséget” cél kritikusok szerint inkább azzal magyarázható, hogy elkerüljék a szabályozást.

Azt hihetnénk, hogy a felsőoktatási intézményekben jobb a helyzet, a következő generáció számítástudományi szakemberei tisztában vannak a mesterséges intelligenciák „moralitásával.” Tévednénk – állapította meg az Anaconda szoftvercég.

2360 adattudományt tanuló diákkal, felsőoktatásban dolgozó személlyel és szakemberrel végzett felmérésükből ugyanis kiderül: a megkérdezett oktatók és szakemberek mindössze 15 százaléka tanít MI-etikát, a diákoknak pedig csak a 18 százaléka tanult a témáról.

ai_ethics.jpg

A döbbenetesen alacsony számok oka nem az érdeklődés hiánya. A megkérdezettek fele ugyanis elmondta, hogy az elfogultság társadalmi hatásai vagy a magánszféra (privacy) az MI és a gépi tanulás legnagyobb megoldandó problémái. Félelmüknek viszont alig van nyoma a tantervekben.

Az Anaconda felmérésében száznál több ország adattudósai gondolják, hogy az MI-etika hiánya a felsőoktatás mellett az iparágban is tetten érhető. Intézmények ugyan beszélhetnek korrektséget biztosító, vagy magyarázatot adó megoldásokról, e technikák tömeges elterjedésére minimális az esély.

A válaszadók mindössze 15 százaléka látja úgy, hogy szervezetük bevezetett pártatlanságban segítő gépi eszközöket, 19 százalékuk pedig magyarázatot adó technológiák cégen belüli jelenlétéről beszélt.

A tanulmány szerzői szerint a jelenlegi állapotnak súlyos hosszútávú következményei lehetnek. E problémák proaktív kezelésének hiánya a versenyképességben, a pénzügyekben és jogi szinten is stratégiai kockázatot jelenthet vállalkozásoknak, intézményeknek.

A nyílt forrású eszközök, az üzleti tréningek és az adatbányászat biztonsági problémáira szintén rákérdeztek. A legveszélyesebbnek viszont mindenképpen az MI-etika hiányát, figyelmen kívül hagyását tartják. Itt két viszonylag távoli, de összefonódó, társadalmi, oktatási és szakmai kérdéseket felvető területről, trendről van szó: egyrészt az elfogultság és a korrektség technikáinak lassú fejlődéséről, másrészt a gépi tanulás eredmények megmagyarázhatóságának hiányáról.

Soha nem létezett modellek tartanak tréningeket

A koronavírus-járvány miatt sokkal nehezebb és drágább forgatni, ezért több cég úgy döntött, hogy a „szintetikus médiához” fordul. A stúdiók komoly problémákkal küszködnek, a felvétel-készítés közbeni egészségügyi kockázatok nincsenek arányban a végeredménnyel.

Az oktató-, tréningvideókkal, mozgóképes promóciós anyagokkal vagy bármilyen más felvétellel dolgozó vállalkozások viszont bajban vannak, és keresik is az üdvözítő technológiai megoldásokat, például színészek szintetikus karakterekkel történő helyettesítését.

Kamuvideók kamuszereplőkkel? Egy kicsit igen, de a szükség nagy úr, olyannyira az, hogy át is vették a kamumédiából ismert úgynevezett deepfake technológiát.

fakes0.jpg

Pontosan azokat a technikákat, amelyeket eddig dezinformációra vagy éppenséggel zaklatásra, kifejezetten negatív célokat szolgáló kampányokban szoktak alkalmazni.

A WPP hirdetőcég például megbízta a Synthesia mesterségesintelligencia-startupot, hogy deepfake avatárokkal készítsen tréningvideókat. Az anyagokat több tízezer alkalmazott fogja látni még ebben a hónapban.

A videók távolról sem tökéletesek, a legtöbb „kamutechnikának” megvannak a maga hibái, elcsúszásai stb. Viszont, figyelembe véve a pandémiával fertőzött élet nehézségeit, a semminél csak jobbak, ráadásul senki nem vár el tőlük Oscar-díjas CGI (Computer-Generated Imagery) bravúrokat. Pont megfelel, ha minőségileg „elég jók.”

„Azt mondjuk, hogy vegyük ki a kamerát az egészből” – magyarázza Victor Riparbelli, a Synthesia vezérigazgatója.

Mesterségesintelligencia-avatárok politikai anyagok helyett vállalati videókhoz történő fejlesztése erkölcsileg nem kevésbé kockázatos, mert mindkét esetben realisztikus deepfake megoldásokat kell generálni.

A cég a fejlesztés során több belső ellenőrzésnek veti alá az anyagot. Például alaposan átnézik a forgatókönyvet, igyekeznek elkerülni bármiféle politikai tartalmat. Mivel egyes videókban teljesen új avatárok helyett hírességek alapján készült kamuszereplők láthatók, a digitális rekonstrukció előtt az adott celeb beleegyezésére is szükség van.

süti beállítások módosítása
Mobil