Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Hollywood pánikol a generatív MI diadalmenete miatt

2023. május 03. - ferenck

Sok művész aggódik az egyre népszerűbb generatív mesterségesintelligencia-alkalmazások miatt. Nem a munkájukat féltik, hanem a tömeges plágium lehetősége nyugtalanítja őket. A modelleket az ő képeiken is gyakoroltatják, aztán a stílusukban hoznak létre alkotásokat. Ez lényegében bárkivel bármikor megtörténhet.

Az aggodalomhullám elérte a filmipart, Hollywoodot is. Április elején Phil Wiser, a Paramount Global technológiai vezetője kongatta meg a vészharangokat az igazgatóságnak tartott prezentációja során. Előadás közben a DALL-E képgenerátorral előállíttatta a nagyvállalat legikonikusabb karaktereit: először SpongyaBobot, majd a stúdióban ácsorgó Optimusz fővezért a Transzformerekből.

marvel_1.jpg

„Mindenki felébredt erre” – jegyezte meg később szarkasztikusan.

Wiser problémája ugyanaz, mint a képzőművészeké. A szórakoztatóipar profitjának jelentős része a szellemi tulajdonjogokból származik. Ha viszont olcsó vagy ingyenes és könnyen kezelhető a mesterséges intelligencia, akkor bárki felhasználhatja a filmkaraktereket. Automatikusan merül fel a kérdés, hogy kit illet meg ilyenkor az esetleges bevétel?

Wiser szerint a legnagyobb kockázatok egyike, ha a modellek a stúdió szellemi tulajdonát új módokon alakítják át, ami bármikor megtörténhet, mert rendelkezésünkre állnak a szükséges eszközök. Bírósági eljárásoknál pedig nagyon nehéz megállapítani, hogy meddig érvényes a jogvédelem, mikortól beszélhetünk független alkotásról.

marvel0_1.jpg

Mások szerint viszont a generatív MI-nek helye van a filmiparban. A 2022-es, közepes költségvetésű, Oscar-díjas Minden, mindenhol, mindenkor egyik kulcsjelenetében a mesterséges intelligencia használata napokkal rövidítette le a forgatást. Megint mások azonban az eredetiség halálát látják az MI-ben.

„Meglévő dolgokat használ, amivel nem teremt innovációt. Ha a filmtörténet legünnepeltebb alkotásaira, például az Aranypolgárra gondolok, nehezen hiszem el, hogy megszülettek volna az MI által generált tartalom korában” – nyilatkozta Jason Blum a horror-orientált Blumhouse alapító-igazgatója.

Joe Russo, több Marvel-mozi rendezője szerint az MI óriási hatással lesz a területre, és akár két éven belül készíthet filmet.

„Olyan világban élünk, ahol egy teljes generáció könnyen megtanulta használni, és nem fél tőle. Egyértelműen a történetmesélésre, annak megváltoztatására, folyamatosan fejlődő sztorikhoz kell használni. Demokratizálja azt. Fotorealista képalkotó motorral és MI-eszközökkel bárki képes történetet mesélni, játékot alkotni” – magyarázza Russo.

Fizetni kell a gyakorlóadatokért?

Február óta a Twitter havi 42 ezer dollárt kér alkalmazásprogramozói felületének (API) használatáért. Adatokban dúskáló más platformok szintén fizetőssé tették vagy bezárták az API-jukat. Egyértelmű, miért: mesterségesintelligencia-fejlesztők a webről szedik össze a modellek gyakoroltatásához szükséges adatokat.

Régóta ez a bevett – ingyenes – gyakorlat, működött is, bár az utóbbi hónapokban egyre több a pereskedés. Hírmagazin-kiadók egy csoportja pár hete ki is jelentette, hogy az MI-k szövegeiken történő gyakoroltatása megsérti a szellemi tulajdonjogokat.

free_data.jpg

A Reddit beszélgető platform és a Stack Overflow kérdés-felelet honlap a napokban közölte, hogy tervet dolgoztak ki adataik nagy nyelvmodellekkel (large language models, LLM) szembeni védelmére. Jelenleg mindkét weboldal API-kat kínál posztok, beszélgetések tömeges gyűjtésére, de hamarosan változik a helyzet.

A Reddit frissítette szabályzatát, és mostantól megakadályozhatja az LLM-ek számára történő, engedély nélküli adatgyűjtést. Pénzt kérnek az API-hoz való hozzáférésért; egyetlen kivétel van: ha a Reddit-felhasználók hasznot húznak az adatok segítségével fejlesztett alkalmazásokból. 

free_data0.jpg  

A Stack Overflow vezetősége elmondta, hogy az oldalon lévő adatok gépi tanulásra való használata ellentétes a szabályzatukkal. A fejlesztőknek egyértelműen fel kellene tüntetniük az adatok forrását, amit nem tesznek meg. A cég az oldal fizetőssé tételét tervezi.

Az LLM-eket adataikkal működtető közösségi oldalaknak jár az anyagi kompenzáció. Eddig ugyan nem volt, de változik a helyzet, ráadásul a pénz az adott oldalak továbbfejlesztésére, felhasználóbarátabbá tételére is elkölthető, a Stack Overflow pont ezt tervezi.

A közhiedelemmel ellentétben az adatoknak általában van ára, sőt, egyes korpuszok értéke folyamatosan nő. A beszélgető oldalak, mint a Reddit és a Stack Overflow gyűjteményei kulcsfontosságúak nyelvmodellek trenírozásához, kódíráshoz stb.

A meglévő adatsorok és modellek törvény előtti státusza bizonytalan, a jövőbeli hozzáférés jogi és kereskedelmi megállapodások tárgya lehet. Egyelőre még nem folytattak ezirányú megbeszéléseket, holott teljesen érthető, ha az akaratlanul is besegítő Reddit és társai is szeretnének profitálni az LLM-áttörésből. Viszont komoly problémát okozhat, ha csak a nagyvállalatok tudnak fizetni, és a kisebb fejlesztők számára ellehetetlenül az adatgyűjtés, mert a fejlesztés a privilegizált cégek szűk csoportjának a kezében összpontosulhat.

Anyagkutatás és -fejlesztés emberi segítség nélkül

Képzeljünk el egy szakácskönyvet, 150 ezer ínycsiklandozó ételképpel, majd azt is képzeljük el, hogy alig van recept hozzájuk. Az Egyesült Államok Lawrence Berkeley Nemzeti Laboratóriuma (LBNL) Anyagok projektjével pont ez történik most.

Számítógépeinek kb. 150 ezer új anyagot kell kiokoskodnia akkumulátor-elektródák, katalizátorok és más eszközök minőségjavításához. Az adatbázist a világ változatos pontjain élő kutatók használják, viszont csak a benne szereplő anyagok töredékéből tudtak tesztelhető valamit készíteni. Ezzel szemben sokezer teszteletlen, azaz, legalábbis egyelőre, a szintézis a szűk keresztmetszet.

uj_anyagok.jpg

Az LBNL kutatói eldöntötték, hogy mesterséges intelligenciával és robotikával számolják fel az egyre idegesítőbb szűk keresztmetszetet. Az MI találgat, és a legjobbnak tűnő találgatás alapján elkészíti az óhajtott anyag receptjét, majd a feltételeket iterálja, miközben a robotok megpróbálnak fizikai mintákat készíteni.

Az új A-Lab napi szinten százszor gyorsabban szintetizál anyagokat, mint a labor humán dolgozói. Kb. két hete a kutatók el is döntötték, hogy ezt az utat kell járniuk.

Nincsenek egyedül, mert például gyógyszercégeknél, sőt már felsőoktatási intézmények anyagtudománnyal foglalkozó tanszékeinél is lassan megszokottá válnak az MI-vel vezérelt robotizált laboratóriumok. Csakhogy azok a laborok folyékony prekurzor vegyületekkel dolgoznak, amelyekkel relatíve könnyebb a keverés, illetve az egész folyamat. (A prekurzor más vegyületet előállító reakcióban résztvevő vegyület.)

Az LBNL-nél viszont tipikusan szilárd halmazállapotú porokat kell összekeverni, majd oldószereket különböző kombinációkban hozzájuk adni, hővel, szárítási idővel és más inputokkal kísérletezni, hogy aztán az előrejelzett anyaggá kristályosodjanak össze.

A receptek száma kvázi végtelen, és míg számítógépek meg tudják mondani, milyen végső összetétellel optimalizálhatók eszközök, addig a szintézisre nincs elmélet, hogy mit lehet megtenni, és mit nem.

Korábban random csinálták, most viszont inkább a klasszikus vegyészek módszerét követnék: az MI kivitelezhetőnek tűnő szintézis-javaslattal áll elő, majd robotkart vezérel, hogy válasszon ki kb. kétszáz (lítium, nikkel, réz, vas, mangán stb.) port. A prekurzorok összekeverése után egy másik robot tégelyekbe osztja a keveréket, a tégelyek kemencébe kerülnek, ott gázokkal (oxigénnel, hidrogénnel, nitrogénnel stb.) keverednek össze. Az MI határozza meg a sütési és a szárítási időt, hőmérsékletet és így tovább.

A sütés után egy adagoló minden tégelyhez golyóscsapágyat rendel hozzá, hogy az új anyagokat finom porrá őröljék, amelyeket lapra öntenek. A mintákat robotkar csúsztatja az elemzést végző röntgen- vagy más készülékbe.

Az eredményeket a projekt adatbázisába küldik, és ha az nem az előrejelzett, a rendszer újrakezdi a folyamatot.

Az Amazon is beszáll a generatív MI-versenybe

A DALL-E 2 és a ChatGPT kevesebb mint egy éve indult világhódító útjára. A közben eltelt időszakban a generatív MI töretlen fejlődését láthattuk, és a fejlődés tempója egyelőre nem lassul.

A Google, a Meta és a Microsoft mellett most már az Amazon is bekapcsolódott a szöveg- és képgeneráló mesterségesintelligencia-szolgáltatásba. Nemrég indított Bedrock felhőplatformja általa és partnerei által fejlesztett modelleket kínál.

amazon_ai.jpg

Üzleti felhasználók a célközönség, ők válogathatnak a modellek közül, saját felhasználásra finomhangolhatják azokat. Egyelőre korlátozottan és csak szelektált ügyfelek férhetnek hozzá az Amazon Web Services-en. Még az árat sem jelentették be.

A platform ad otthont a Stability AI Stable Diffusion képgenerálójának. Novemberben kötöttek partnerszerződést, a mostani együttműködés a szerződés kiterjesztése. A Stability AI az Amazon Web Services-t jelölte meg preferált felhő-feldolgozás és -tárolás szolgáltatójaként.

A kiválasztottak olyan modellekhez is hozzáférhetnek, mint az AI21 szöveggeneráló Jurassic-2-je vagy a kérdés-feleletalkalmazásban beszélgetőpartnerként funkcionáló Claude-hoz, az Anthropic modelljéhez.

A Bedrock az Amazon Titan-alapú két nyelvmodelljét is hosztolja. A Titan Text szövegeket generál és foglal össze, míg a Titan Embeddings – ahogy a neve is elárulja – szöveg-beágyazásokat hoz létre.

Az Amazon riválisai saját számítási felhőjükön keresztül kínálnak hasonló szolgáltatásokat.

A Meta áprilisban jelentette be saját nyelvi modellel működő eszköz indítását. Hirdetőknek szeretnének segíteni szövegek létrehozásában. A Google márciusban vezetett be egy API-t (alkalmazásprogramozói felületet) a PaLM nyelvmodellhez, valamint a Google Cloudban működő szöveggeneráló appokat is bejelentett. A Microsoft Azure az OpenAI modelljeihez, köztük a GPT-4-hez, valamint a képgeneráló DALL-E-2-höz kínál hozzáférést.

Svéd kutatók a vegyészetben alkalmaznak kvantumszámítógépet

Más területekhez hasonlóan, a vegyészetben is komolyak a kvantumszámítógépekkel kapcsolatos elvárások. Bizakodnak, hogy forradalmian új lehetőségeket biztosítanak kémiai folyamatok szimulálásához. Ha így lesz, gyógyszerfejlesztéstől új anyagok kikísérletezéséig, a technológia óriási hatást gyakorolhat az egész szakterületre.

A svéd Chalmers Egyetem kutatói a felsőoktatási intézmény Mikrotechnológia és Nanotudomány Tanszékén épített kvantumprocesszorral végeztek vegyi számításokat. A zaj által kiváltott hibák kezelésére úgynevezett referenciaállapot-hibacsökkentés (referemce-state error mitigation, REM) módszert alkalmazták. A korrekcióhoz kvantumkomputer mellett hagyományos számítógépet is használtak, ami jelenleg bevett gyakorlat.

sved_kvantum.jpg

Az REM úgy veszi figyelembe egy molekula referenciaállapotát, hogy mindkét számítógéptípuson leírja, majd megoldja a problémát. Utána összehasonlítja az eredményeket, és az összehasonlítás alapján becsüli meg a zaj miatt keletkezett hibamennyiséget. Az eredeti problémát végül a kvantumprocesszoron (azt lefuttatva) oldja meg. Összességében, sikeresen minimalizálták a hibaszámot.

A hardver tényleges működését, az esetleges továbbfejlesztések szükségességét csak valódi kvantumalgoritmusokat használva tudják megállapítani. Úgy tűnik, hogy a kémia lehet a kvantumszámítógép egyik első gyakorlati alkalmazási területe – vélik a Mikrotechnológia és Nanotudomány Tanszék szakemberei. 

A kutatók az REM és a felsőoktatási intézmény öt kvantumbites (qubites) Särimner kvantumprocesszorának adatait összekombinálva, számolták ki egyes molekulák, például a hidrogén és a színtelen lítium-hidrid vegyület belső energiaállapotát. (Särimner egy disznó az északi mitológiában, akit minden nap levágnak és megesznek, de mindig újjászületik.)

A Särimner öt qubites első változatát közben huszonöt qubitessel helyettesítették. A Wallenberg Kvantumtechnológia Központ (WACQT) célja száz qubites kvantumszámítógép, amellyel már megoldhatnának a legjobb hagyományos szuperkomputerekkel megoldhatatlan problémákat.

„Munkánkkal bebizonyítottuk, hogy módszerünkkel javítható a kvantumkémiai számítások minősége” – jelentette ki Said Rahm, az egyik kutató.

Megérkezett az automatizált promptmérnök

Ha pontos választ szeretnénk nagy nyelvmodellektől, jól ki kell találnunk a szöveges utasítást, mert egyes promptok sokkal jobban működnek, mint mások. De hogyan lehet kitalálni jobbakat?

Az elmúlt hónapokban, egy-két évben új szakma is született erre a feladatra: a promptmérnök. Most viszont úgy tűnik, hogy az ő munkájuk is veszélyeztetett, mert a folyamat automatizálható.

ape.jpg

A kanadai Toronto és Waterloo egyetemek által fejlesztett Automatizált Promptmérnök (APE) pont ezt teszi.

Nem túl sok input-output párból egy nagy nyelvmodell ugyanazokkal a bemenetekkel hasonló kimeneteket képes generálni. Ha maga készít promptot, addig variálhatja azokat, amíg az outputok még hasonlóbbak lesznek.

Az APE működéséhez két nagy nyelvmodellre, prompt- és tartalomgenerátorra van szükség. Az elsőhöz inputokat befejező (GPT-3, InstructGPT) és az üres részeket kitöltő (T5, GLM, InsertGPT) modellekkel, a másodikhoz az InstructGPT-vel kísérleteztek.

A generátornak ilyen promptot adtak meg: „egy barátomnak adtam egy utasítást és öt inputot. Elolvasta az utasítást, és mindegyik inputhoz írt egy-egy outputot. Íme az input-output párok…” Utána következett egy kis sor input-output példa, mondjuk, két állat neve, és hogy melyik a nagyobb, majd a prompt így zárult: „Az utasítás kész.” A generátor válasza: „Válaszd ki a nagyobb állatot.”

A generált prompthoz az outputokat létrehozó tartalomgenerátor adatsorából ötven további input példát adtak.

A prompt minőségét az alapján ítélték meg, hogy a tartalomgenerátor milyen gyakran készített az elvárásnak pontosan megfelelő outputot.

A prompt élesítéséhez utasították a tartalomgenerátort, hogy állítson elő a legmagasabb pontszámot elérőhöz hasonló promptot, majd megismételték a folyamatot. Ezt a lépést háromszor játszották el, és kijött például, hogy „Azonosítsd a nagyobb állatot.”

Automatizált promptmérnököt korábban is fejlesztettek már, de iteratív módszerrel egyiken sem finomítottak. A teszteken az APE náluk és humán promptmérnököknél is jobban teljesített.

A zeneipar visszavág a mesterséges intelligenciának

A zeneipar jelentős politikai és gazdasági befolyással rendelkezik ahhoz, hogy preferenciái fontos szerepet játsszanak a mesterségesintelligencia-fejlesztők tevékenységében. Elvileg könnyen elérhetik, hogy a rendszerek engedély nélkül ne gyakorolhassanak jogvédett munkákon.

Az internet korai éveiben a lemezkiadók fontos szerepet játszottak peer-to-peer alapon működő zenemegosztó honlapok, elsősorban a későbbi előfizetéses streaming-szolgáltatás piac kialakulását komolyan befolyásoló Napster bezárásában.

music_industry_1.jpg

Most is valami hasonló kezdődhet, azzal a fontos különbséggel, hogy a Napster körüli szerzői jogi problémák egyértelműek voltak, viszont az MI által generált zenékre egyelőre nincsenek kőbe vésett törvények. A modellek, mint a Google MusicLM-je vagy a Hugging Face két teljesen új rendszere gyerekcipőben járnak még, ugyanakkor nagyon gyorsan fejlődnek.

Ezzel együtt több amerikai bírósági ügy központi témája a jogvédett anyagokon, főként képeken történő MI-betaníttatás törvényes vagy törvénybe ütköző jellege. Most már a zeneipar is beszállt mesterséges intelligencia által generált tartalmak elleni küzdelembe.

A Deutsche Grammophont, az EMI-t, az Interscope-it, a Motownt, a Polydort és a Virgint birtokló Universal Music Group (UMG) egy ideje nyomást gyakorol a Spotify-ra és más streamingmédia-szolgáltatókra, hogy tegyenek valamit az MI által készített másolatok jelentette fenyegetéssel szemben.

A világ zenepiacának harmadát lefedő és a digitális zeneterjesztés bevételeinek jelentős részét bezsebelő UMG a legfontosabb szolgáltatók, például a Spotify és az Apple részéről érvényesíttetni kívánja szellemi tulajdonának védelmét. Azért befolyásolhatják őket, mert az utóbbiak licencelik a kiadó zenei anyagait. Az UMC további kívánsága még, hogy egyáltalán ne terjesszenek MI által generált muzsikákat.

A vállalat több YouTube felhasználót szólított már fel, hogy távolítsák el az oldalról az UMC művészek munkáinak MI által készített utánzatait.

Stanford Egyetem: Mesterségesintelligencia-trendek 2022-ben

Megjelent a Stanford Egyetem hatodik éves MI Indexe. A felsőoktatási intézmény Emberközpontú MI Intézetének 386 oldalas idei anyaga mérföldköveket, piackutatásokat, tudományos publikációkat, álláshirdetéseket és közvéleménykutatásokat figyelembe véve készült. A szerzők 2022-re összpontosítottak, viszont kihagyták a generatív MI hatását.

Ennek ellenére izgalmas és fontos olvasmány. Pozitív és negatív trendeket egyaránt ismertet.

stanford0.jpg

2022-ben a cégek 50 százaléka számolt be arról, hogy legalább egy területen használnak MI-t. 2018 óta a szám 50 és 60 százalék között mozgott. Az MI-t használók 63 százaléka bevétel-növekedést, 37 százaléka csökkenést tapasztalt.

Tudósok több felfedezésre használták a technológiát: plazmakontroll nukleáris fúzióhoz, mátrixszorzás algoritmusainak javítása, antitesttervezés gyógyszerfejlesztéshez, chipek hatékonyságnövelése.

A kutatókat egyre jobban érdekli az MI-etika. Egy 2022-es nagy konferenciára 772 tanulmányt, az előző évi dupláját adták be.

Az egyik legfontosabb pozitívum, hogy a nagy MI-modellek gyakoroltatásának ugyan változatlanul komoly, viszont jelentősen csökken a környezeti lábnyoma. A BLOOM 2022-es trenírozása egy átlagember négyéves széndioxid-kibocsátásával ért fel, míg az azonos méretű GPT-3 2020-as tanítása akkora környezeti lábnyomot hagyott maga után, mint egy átlagember 91 év alatt.

stanford.jpg

A negatívumok: a 2021-es 125 milliárd dollár után 92 milliárdra csökkent a magánszektor 2022-es MI-befektetése. Egyre több a technológia megkérdőjelezhető használata, egy klíringintézet 2022-ben 260 esetet rögzített, ami 26-szor több mint 2012-ben volt.

A legismertebbek: egy Zelenszkij elnökről készült mélyhamisítvány (deepfake) videóban a politikus Ukrajna fegyverletételére szólított fel. Amerikai börtönökben MI-t használnak a rabok telefonhívásainak átírására, míg egy, bandákat követő rendszert a bőrszín-alapú megkülönböztetés miatt ért kritika.

A gender-sokszínűség hiánya szintén súlyos kritikák tárgya: számítástudományi egyetemi diplomásoknak csak a 22 százaléka nő, és ez még mindig kevés, bár tíz százalékkal több mint 2012-ben volt.

A Stanford anyaga a közelmúltról szól, mások viszont a közeljövőt vizsgálják. A Goldman Sachs felmérése alapján a következő tíz évben a generatív MI hét százalékkal növeli a globális termelékenységet, az automatizáció pedig kb. 300 millió munkahelyet érint. Az Y Combinator startup inkubátor anyaga szerint az újonnan alakult vállalatok 34 százalékánál az MI van a középpontban, ami történelmi csúcs.

A NASA frissítette a Curiosity marsjáró szoftverét

Az Egyesült Államok Nemzeti Repülési és Űrhajózási Hivatala, azaz a NASA április 3. és 7. között frissítette a Curiosity marsjáró szoftverét, hogy a jármű hatékonyabban mozogjon, valamint az eddiginél kisebb nyomás nehezedjen a kerekeire.

A frissítés alatt a Curiosity képkészítő tevékenysége értelemszerűen szünetelt. A mérnökök komoly munkát végeztek, 180-nál több változtatást eszközöltek. Szükség is volt rájuk, mert a járművet vezérlő program 2016 óta nem esett át fontosabb frissítésen.

nasa_5.jpg

„Nagyon komoly frissítésről van szó, és biztosra kellett mennünk, hogy sikerüljön” – jelentette ki Kathya Zamora-Garcia a Curiosity projektmenedzsere.

Az újabb Perseverance terepjáróval ellentétben, a Curiosity-nek meg kell állnia az általa gyűjtött képek feldolgozásához. A frissítéssel jelentősen nő a jármű teljesítménye, lehetővé válik, hogy még inkább „vezetés közben gondolkodjon”, így pedig csökken a feldolgozással eltöltött ideje, illetve több ideje lesz mozgásra.

nasa0_4.jpg

De ezzel együtt sem fog olyan hatékonyan mozogni, mint a Perseverance, vezetések után viszont nem egy teljes percre, hanem csak egy-két másodpercre kell megállnia, ami komoly különbség.

A gép új algoritmust is kapott, hogy kiszámítsa az ideális sebességet egyenetlen terepen. A számításokat úgy végzi, hogy a Curiosity kerekei csak minimálisan – a legminimálisabban – sérüljenek meg menet közben. Szükséges is a kerekek minél épebb állapotban tartása, mert a több mint egy évtizedes használat után már kezdenek megkopni.

A frissítést a Nature Communications folyóiratban, februárban megjelent beszámoló előzte meg, amelyben arról írtak, hogy a NASA marsjárók felszerelése nem elegendő az élet felfedezéséhez. Az ok: a járművek fedélzetén lévő műszerek gyakran nem elégségesek szerves molekulák észlelésére. Az űrügynökség bizakodik, hogy most már képesek lesznek rá.

Drón és lézer mutatja ki üvegházhatást okozó gázok szivárgását

Egyre több a bizonyíték, hogy a gázfúró- és a csatornarendszereknél a korábban feltételezettnél sokkal nagyobb az üvegházhatású gázok szivárgása – hangsúlyozzák a Princeton Egyetem a nagy és kis szivárgásokat egyaránt gyorsan észlelő módszert kidolgozó kutatói. Lézeralapú érzékelésükkel az eddigi eljárásokkal egyméteres körzetben kimutatott eseteknél azok huszonötöd részét is észreveszik.

Technikájuk a mozgékony drónokkal kombinált lézeres távérzékelés előnyeit használja ki, ezért képesek akár nehezen megközelíthető területeken is azonosítani korábban észrevétlen szivárgásokat.

uveghazhatas.jpg

A mostani eljárások leginkább infravörös kézi kamerákkal működnek. Nagyon munkaigényesek, kisebb szivárgásokat nem vesznek észre, vagy komoly infrastruktúrát kell telepíteni a feladat elvégzéséhez. Drónokkal viszont szabadon megválasztható az átvizsgálandó terület.

A fényvisszaverővel – az érkező fényt közvetlenül a forrás felé visszaverő tükörrel – felszerelt kicsi drónból és a gázérzékelő felszerelés a drón repülés közbeni mozgását követő alapállomásából álló rendszer hatékony. Ha a lézersugár a repülő drónról a feltételezett szivárgás környékére verődik vissza, a rendszer működtetője azonosítani tudja a forrást, megmérheti az intenzitását.

„Ez a szivárgásdetektálás Szent Grálja” – jelentette ki Mark Zondlo, a kutatás egyik vezetője.

Az atmoszférikus érzékelésre fejlesztettek már dróntechnikákat, a drónokra viszont drága gázszenzort kell szerelni, ami a légi jármű korlátozott terhelőkapacitása miatt egyrészt problémás, másrészt veszélyes környezetben kockázatos egy ilyen szenzort rátenni, emellett egyszerre csak egy használható.

A princetoni kutatók a mobilplatformon, például teherautón működő alapállomásba integrálták a gázszenzort, és így a drónnak csak egy kicsi tükröt kell cipelnie. A változtatás kisebb és olcsóbb drónok használatát teszi lehetővé, hosszabb ideig repülhetnek, részletesebb adatokat gyűjthetnek nagyobb területekről.

Az érzékelőtechnika többféle gáz szimultán mérését biztosítja. Más drónos eljárásokkal a nagyobb méret, tömeg és fogyasztás miatt ez rendkívül nehéz, ráadásul az új rendszer további lézerekkel bővíthető.

süti beállítások módosítása