Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Biohackerek

2019. június 28. - ferenck

Dave Asprey, a teljesítménynövelő élelmiszerekkel és más táplálék-kiegészítőkkel foglalkozó Bulletproof vezetője szerint a biohacking (vagy csináld magad – DIY – biológia) „a külső és belső környezet biológiánk feletti teljes kontrollt célzó megváltoztatásának művészete és tudománya.”

Egyre gyakrabban találkozunk a legváltozatosabb esetekre ráhúzható kifejezéssel. Josiah Zayner korábbi NASA-alkalmazott például a CRISPR génszerkesztő technológiát használva, DNS-injekciókat, Asprey őssejteket fecskendez be magának és infravörös fényben fürdik/szaunázik, de a kézbe és más testrészekbe ültetett és ajtókat nyitó, a vér cukorszintjét stb. ellenőrző chipek, az öregedést hátráltató gyógyszerek, fiatalabb személyek vérének idősebbekébe történő átömlesztés – amiben Peter Thiel nagy jövőt lát – is mind idetartoznak.

biohacking.jpg

A kiindulási pontot jelentő Szilícium-völgy mellett más helyeken szintén egyre népszerűbb jelenség lassan életstílusnak tekinthető. Legismertebbek a saját testüket és agyukat a jobb teljesítmény érdekében csúcstechnológiás megoldásokkal módosító biohackerek. Elképzeléseik a transzhumanizmus azon alapelvére rímelnek, mely szerint a Homo sapiens evolúciója nem ért véget, saját kezünkbe vesszük sorsunk irányítását, és változatos technológiák (robotika, MI, nanotech, genetika stb.) segítségével „feljavítjuk” az emberi állapotot.

Asprey bizakodik, hogy technikáival akár 180 évig elélhet. Az ő és a többi biohacker szótárában is gyakran szerepelnek a számítástudományban jól ismert kifejezések: „optimalizálás”, „frissítés” stb. Mivel saját maguk, testük szinte minden aspektusát számszerűsítik, köreikben népszerűek a viselhető (wearable) technológiák, többek között alvásmintázataikat mérik velük.

biohacking0.jpg

Egyes tevékenységek tudományosan teljesen megalapozottak, kísérletek által igazoltak, mások viszont bizonytalan kimenetelű, a kívánt hatást el nem érő, esetleg káros kísérletezések, vagy annyira újak (például a CRISPR), hogy még nem ismerjük az összes mellékhatásukat. Saját genomunk „barkácsolásával” például szándékunkon kívüli és egyes betegségekre való hajlamot növelő mutációkat is létrehozhatunk.

Az érvényben lévő szabályozás és a törvények nem tudnak sokat kezdeni a szélsőséges esetekben az „emberi” határait feszegető tevékenységekkel. Ezek a tevékenységek nem feltétlenül illegálisak, hanem egyszerűen nincs még rájuk vonatkozó törvény.

Nem minden biohacker kísérletezik saját magával. Sokan szélesebb tömegekhez szeretnék eljuttatni a tudomány eredményeit, tenni akarnak valamit a klímaváltozás ellen, vagy komfortzónánkból kirángató műalkotásokkal figyelmeztetnek a 21. századi valóságra.

Állatlaborok segítenek az MI-kutatásban

Az élővilág régóta inspirálja a számítástudományt, sokféle robotot és gépi rendszert mintáztak biológiai modellekről.

Manapság egyre több állatkutató segédkezik mesterségesintelligencia-szoftverek, agy-számítógép interfészek (brain-computer interfaces, BCI) fejlesztésében. Az Apple, a Facebook, a Google, a Twitter és más infokom nagyvállalatok különböző egyetemek és főiskolák, például a zoológia egyik vezető intézménye, a Harvard Rowland Intézetének doktoranduszait alkalmazzák ezirányú kutatásaihoz.

animal_research_labs.jpg

Az intézetet vezető Mackenzie Mathis egereknek a környezetváltozásokhoz való gyors alkalmazkodását vizsgálja számítógépes játékokon keresztül. Kutatási eredményei egy-két évtizede csak az agyműködéssel és zoológiával foglalkozó szakembereket érdekelte volna, de mára megváltozott a helyzet. Azért is akar rájönni, hogy az egerek hogyan sajátítanak el képességeket, mert gépitanuló-rendszerek működésével kapcsolatos következtetéseket vonhat le belőle.

Ha látjuk, hogy egy egér miként reagál váratlan helyzetekre, az így szerzett információk például a robotikában hasznosíthatók, és a gépek ugyanazokra az adottságokra tehetnek szert, mint az állat.

animal_research_labs1.jpg

Mások a zebrapintyek éneklőkészségét tanulmányozva, váltak szakértővé abban, hogy a madár koponyája mennyire és hogyan vezeti az elektromosságot. Megint mások megmaradtak a klasszikus biológiánál, és a viszonylag egyszerű muslicák vagy férgek viselkedését vizsgálva próbálják az ismereteket számítógépes rendszerekre alkalmazni.

Különféle tudományterületek, különösen a medicina régóta foglalkozik állatokkal. A zebrapinty hangképzésének Siri hangfelismerő rendszerébe vagy az egerek viselkedésének az Amazon raktári robotjaiba, játékokba integrálása viszont teljesen más szint.

animal_researvh_labs0.jpg

Ehhez a szinthez a mai komputerek kellenek.

A modern számítógépek csak nemrég jutottak el addig, hogy fel tudják dolgozni és képesek elemezni például az egér kb. 75 millió idegsejtjét, működésüket.

Mackenzie Mathis és férje, Alex Mathis nyílt forrású szoftvere, a DeepLabCut segítségével nyomon követhető az állatok mozgása. Az alkalmazás képfelismerő technológiával figyeli, hogyan játszanak, és miként reagálnak a cukorka és víz formájában kapott jutalomra.

Hasonló programokat más kutatóintézetekben is fejlesztenek, ezekkel a munkákkal számítástudomány és biológia még közelebb kerülnek egymáshoz.

Implantátum nélkül irányít az agy egy robotkart

Ha elménkkel akarunk irányítani egy robotot, két lehetőség közül választhatunk.

Vagy agyi implantátummal tesszük, ebben az esetben a vezérlés sima és folyamatos. A másik opció, ha elkerüljük a kockázatos és drága sebészi beavatkozást, és agyhullámainkat egy koponyánkon kívüli eszköz érzékeli. Utóbbinál az irányítás döcögős, és távolról sem annyira pontos, mint a beültetésnél.

robotkar.jpg

A pittsburghi Carnegie Mellon Egyetem, a világhírű CMU kutatóinak legújabb fejlesztése a két lehetőség közti szakadékot igyekszik áthidalni, és az első tesztek alapján sikerrel.

Megalkották a világ első olyan külső eszközét, amellyel elménk implantátum nélkül folyamatosan és problémamentesen vezérelhet robotkart. Azaz ugyanúgy működik, mintha invazív módon az agyba juttatott szerkezet irányítaná.

robotkar0.jpg

A rendszerrel egy lépéssel közelebb kerültünk ahhoz a jövőhöz, amikor mindannyian ilyen eszközökkel kontrolláljuk a környezetünkben lévő technológiákat.

A kutatók az érzékelést és a gépi tanulást összekombinálva hozták létre a különleges agy-számítógép interfészt (brain-computer interface, BCI). A felhasználó EEG (elektroenkefalográf, az idegsejtek elektromos aktivitását valósidőben regisztráló elektrofiziológiai mérőeszköz) sapkát visel, az interfész azon keresztül éri el az agyhullámokat.

A rendszer tesztelésekor a résztvevőket megkérték, hogy egy számítógépes monitoron agyukkal irányítsák a kurzort, amelyet a robotkar folyamatosan követett. Pontosan, valósidőben, zökkenőmentesen tette – a nem invazív BCI megoldások közül elsőként.

Az emberi aggyal irányított robotrendszerek fejlesztésének fókuszában a mozgássérültek és más fogyatékkal élő személyek állnak. Bin He, a CMU egyik kutatója szerint a jövőben a technológia nem fog rájuk korlátozódni, hanem mindenhol jelen lesz (ubiquitous) és mindenki használhatja.

„A jelek nem invazív módon történő érzékelésének technikai kihívásai ellenére, mindenképpen el akarjuk terjeszteni ezt a biztonságos és gazdaságos technológiát. Munkánk fontos lépés afelé, hogy a BCI-k ugyanúgy segítsenek mindenkit, mint ma az okostelefonok” – nyilatkozta a kutató.

Megmondja az MI, hogyan készítsünk pizzát

A sütés-főzéshez türelem, gyakorlat és persze ügyesség kell. Kérdés, hogy gépek képesek lesznek-e valaha is szert tenni hivatásos chefek évek alatt elsajátított szakértelmére?

Az MIT (Massachusetts Institute of Technology) új kutatása szerint talán igen.

pizza_mi.jpg

Erről számolnak be a frissen publikált „Hogyan csináljunk pizzát: megtanulni egy kompozíciós rétegalapú GAN modellt” tanulmányban. Elmagyarázzák, hogy az ételről készült mindösszesen egy darab kép hogyan alakítható át a tennivalókat lépésről lépésre megmutató receptté. A PizzaGAN projektet megalapozó változást gépi tanulással kivitelezték. (A GAN a „generatív ellenséges hálózatot” – generative adversarial network rövidíti.)

A mélytanuló (deep learning) modellt a sütés-főzés különféle aspektusainak (összetevők hozzáadása, melegítés stb.) felismerésével tanították meg a pizza-készítésre. Így képes az ételről látott egyetlen képet szétszedni, az összetevőket vagy rétegeket elválasztani egymástól, a szekvenciáknak tekintett rétegeket sorrendbe rakni – mintha modulok lennének –, majd recept formájában újraalkotni az egészet.

pizza_mi0.jpg

Egy pizzához meg kell sodorni a kelt tésztát, mártást, sajtot kell hozzáadni, majd rá kell tenni a különböző összetevőket. Mivel mindegyik feladat bonyolult, az étel látványa folyamatosan változik, így minden egyes lépés bekerül az ideghálóba. A gép dolga felismerni, és a végtermékhez kapcsolni ezeket a folyamatokat.

Az első adatsor kb. 5500, clipart stílusban létrehozott szintetikus képből állt. A clipart, egyszerű tárgyak közérthető megjelenítésének bevett grafikai módszere, lehetővé tette a különféle feltétek stb. elkülönítését az alapképtől.

A szintetikus képek után a webről összegyűjtött 9213 valódi következett. Összesen 12 feltétet (sonka-, brokkoli-, kukorica-, bazsalikom-, gomba-, olajbogyó- és rukkola-képeket) adtak az adatsorhoz, majd jöhetett a tesztkép, amelyen a modell elsőként a feltéteket detektálta, aztán előrejelezte a sorrendjüket. Sikeresen járt el, mert a bejövő (input) képből megcsinálta a receptet (output).

Az MI meglepően jól, szinte hibátlanul teljesített az eddigi teszteken.

A kutatási eredmények, túlmutatnak a pizzán, gasztronómián. Ez a mesterséges intelligencia a jövőben más területeken, például divattervező-segédként is „munkára fogható.”

Elektronikus vérrel működik egy robothal

A jelen és közeljövő egyik fontos trendje, a puha robotika (soft robotics) különféle alkalmazási területeken hasznosítható: egyes gépek halként úszkálnak a vízben, s tanulmányozzák a tengereket és az óceánokat, például a Fiji szigetek körüli korallokat, míg mások, az egészségügyi szektorban dolgozva, vért juttatnak a szívbe stb.

Robert Shepherd, a Cornell Egyetem kutatója és munkatársai különleges puha robotot fejlesztettek: a tűzhalról mintázott gépet saját mesterséges „vérkeringése” működteti.

lionfish.jpg

A fejlesztőket természeti minta, a tűzhal ihlette meg. Melluszonyát működésbe hozva, a vízfolyással szemben, percenként kb. 15 centit úszik, sebessége 0,01 km/h.

Shepherd elmondta, hogy a tempó növelhető, ráadásul a percenkénti másfél testhossz halmércével rendkívül lassúnak számít, a gépállat mintha csak lézengene.

lionfish0.jpg

Elemei két elektródából és a köztük áramló elektrolitból áll. A vérként funkcionáló folyadék – mozgásának következményeként – működésbe hozza a gép farkában, hátsó és melluszonyában lévő pumpákat, motorokat. (Az elektrolitok olyan vegyületek, amelyeknek a vizes oldata vagy olvadéka mozgékony töltéshordozók jóvoltából, képes vezetni az elektromos áramot.)

A folyadék áramlása egyes területeken növeli a nyomást. A luftballon felfújásához hasonló mechanizmus hatására a robot egyes részeinek formája és keménysége megváltozik. A folyadéktól például felfúvódik a gépállat farka, amelynek következtében más testrészei kicsit összepréselődnek, és az egész folyamat hajlító mozgást eredményez.

Az elektronikus „vérrendszer”, a hajlítható nikkelhuzal-hálózatból álló elektródák teszik lehetővé a rugalmas mozdulatokat. A gép vízálló külsejét szilikonból készítették.

Shepherd szerint a robothal szerkezete garantálja, hogy relatíve nagy energiamennyiséget tud tárolni. A tesztek ugyan csak néhány óráig tartottak, de társaival kiszámolta, hogy a gép akár másfél napig, azaz 36 óráig is képes folyamatosan úszkálni.

Következő lépésként az „állat” mozgásán igyekeznek javítani.

Algoritmus mondja meg a robotnak, hova mennek a körülötte lévő emberek

2018-ban az MIT (Massachusetts Institute of Technology) és a BMW közösen programoztak be egy robotot, hogy álljon meg, ha ember megy el a közelében. A sínen mozgó gép túl óvatos volt, és már bőven azt megelőzően leállt, hogy a humán dolgozók keresztezték volna az útját.

A tesztek tanulsága: kevésbé hatékony a munka, az ember-robot együttműködés, ha a gép valódi munkakörnyezetben is ugyanígy cselekszik.

algoritmus_robot.jpg

Az MIT kutatói szerint a probléma a gép mozgás-előrejelző szoftveréhez használt útvonal-egyeztető algoritmus korlátaiból eredt. Ezek az algoritmusok nagyjából meg tudják mondani, hol tűnik fel egy személy, azt viszont már nem, hogy a prognosztizált útvonal melyik pontján mennyi időt tölt el – meddig tart, amíg megáll, visszafordul, újra keresztezi a robot útját stb.

A kutatók rájöttek a megoldásra, új algoritmusuk valós időben hangolja össze az útvonalrészeket, és így könnyebb előrejelezni személyek mozgásának az időzítését. A BMW-s gyártóüzemi kísérletekre alkalmazva, kiderült, hogy a robot nem „fagyott le” idejekorán, működésben maradt, és probléma sem adódott. Egyszerűen elállt az ember útjából.

algoritmus_robot0.jpg

„Az algoritmus a robotot az emberi mozgás lényegéhez tartozó lépések és átfedések megértésében és folyamatos megfigyelésében segítő komponensekre épül. Ez az egyike azoknak a technikáknak, amelyeken azért dolgozunk, hogy a robotok jobban megértsék az embereket” – nyilatkozta Julie Shah, az egyik fejlesztő.

Mozgás-előrejelzéshez általában zene- és a beszédfeldolgozó algoritmusokról mintáznak megoldásokat. Ezek az algoritmusok két teljes idősort vagy a kapcsolódó adatsorokat (például zenei előadás hanganyagát és a hangjegyekről készült videót) egyeztetik össze. Az emberi mozgás azonban rendezetlenebb és nagyon váltakozó, még ugyanazon személy ismétlődő mozdulatsorai is különbözhetnek.

A mozgásalgoritmusoknál az illető pozícióját pontok jelenítik meg, az útvonal feltérképezése a pontok közötti relatív távolságon és az adott forgatókönyv lehetséges útvonalait tartalmazó könyvtár összevetésén alapulnak. A távolságok azonban nem elegendők a pontos számításokhoz, az előrejelzést hirtelen megállások stb. zavarhatják össze.

Az MIT-s algoritmus valósidejű útvonal-szegmenseket egyeztet össze korábban gyűjtött referencia-útvonalakkal. Fontos, hogy a távolság mellett időben is „egyeztet”, így a megállásokat és az egybeeséseket is pontosan előrejelzi.

Két adatsoron tesztelték – az egyikben, gyári körülmények között, egy ember azonnal keresztezte a robot útját, a másikban kézmozdulatokra összpontosítottak: a résztvevők reteszt tettek egy asztalra, amelyet aztán a robot megdolgozott.

Az új algoritmus mindkét esetben jobban teljesített, mint két gyakran használt másik. Mozgás-előrejelzésen kívül másfajta ember-robot interakciókban, például tevékenységek felismerésében vagy kézmozdulatok detektálásában is hasznosítható. Shah szerint sokat segíthet ember és gép strukturált környezetben (gyárakban, de akár otthon is) történő hatékony együttműködésében. Olyan közegekben, amelyekben a humán fél jellegzetes viselkedésmintákat mutat. A rendszer a visszatérő mintázatok megfigyelésével, egyre többet megtanul rólunk.

Az Adobe MI-je automatikusan kiszűri a megtrükközött képeket

A fake news médiavalóságban egyre nyugtalanítóbb a napról napra gyorsan fejlődő technológiákkal döbbenetesen manipulálható vizuális anyagok, főként kamuvideók és -képek terjedése. Kicsit paradox módon, a szerkesztett képekhez az általa fejlesztett Photoshop miatt szinte azonnal társított Adobe bejelentette: manipulált arcképeket automatikusan detektáló gépitanulás-alapú algoritmust fejleszt a Berkeley Egyetem tudósaival.

A nagyvállalat korábban is próbálta orvosolni a problémát, tavaly például az utánzást, tárgyak eltüntetését vagy beillesztését kimutató mesterségesintelligencia-megoldást dolgozott ki.

adobe.jpg

Az új fejlesztés kereskedelmi forgalmazását egyelőre nem tervezik, a cég egyik szóvivője szerint több hasonló projektjük fut. Mindegyikkel képek megmásítását akarják kimutatni.

„Egyrészt büszkék vagyunk a Photoshop és más kreatív eszközeink hatására, de az etikai vonatkozásokkal is tisztában vagyunk. A hamis tartalmak terjedése nagyon komoly és sürgősen megoldandó probléma” –áll a cég egyik blogbejegyzésében.

adobe0.jpg

A mostani kutatás az arcformát módosító és az arckifejezést megváltoztató Liquify funkcióval történő szerkesztések kimutatását célozza. Sok esetben nehéz munka, mert a változások általában nem drasztikusak, hanem árnyalatnyiak, amelyekkel mégis teljesen más lehet egy arc.

A kutatók adatbázison gyakoroltattak egy ideghálót. Arcpárokon dolgozott, az egyik a módosítás előtt, a másik utána készült. Az algoritmus meggyőző munkát végzett, az esetek 99 százalékában korrekt választ adott, tudta, hogy melyik képen változtattak. Humán önkénteseket is felkértek a feladatra, de ők csak 53 százalékos átlagot értek el.

A program javaslatot is tesz, hogy hogyan lehet visszaállítani a szerkesztés előtti, eredeti képet. Ezen a területen egyébként annyira nem működik jól, mint a megváltoztatott fotók kiszűrésében. A fejlesztők gyorsan hozzátették: a mágikus és egyetemes „csináld vissza” gombtól még távol vagyunk, viszont folytatják a munkát, mert egyre nehezebben hiszünk a digitális képeknek, és szeretnék, ha visszaállna a bizalom.

Az arcmanipulációt kimutató eszköz fontos lépés lehet a komplex változtatásokat (köztük például a test és a bőr átalakítását) kimutató programok felé.

Kérdés, hogy a „tökéletes szoftver” megoldás lehet-e egyáltalán, mert hiába derül fény egy médiatartalom hamis jellegére, a közösségi médiában ugyanúgy megosztják, mint a valódiakat.

A mesterségesintelligencia-fejlesztés hatása az energiafogyasztásra

A gépi tanulás sok megoldatlan problémára, köztük az éghajlatváltozásra is képes választ, javaslatokat adni. A helyzetet azonban árnyalja az ideghálók áramfogyasztása, amellyel komoly mennyiségű üvegházhatású gáz kerül a légkörbe.

A Massachusetts Egyetem (Amherst) kutatói a mélytanulás-rendszerek energiafogyasztását vizsgálva, megállapították, hogy a legújabb nyelvmodellek kb. annyi széndioxidot juttatnak az atmoszférába, mint öt autó teljes életciklusa alatt, beleértve a gyártást is.

aramtermeles.jpg

A természetesnyelv-feldolgozásban leghasznosabbnak bizonyult Transformer teljes gyakoroltatása, működtetése, a maga 65 millió paraméterével kb. 284 ezer kiló széndioxidot generál. Összehasonlításként: hozzávetőlegesen akkora mennyiségről van szó, mintha öt éven keresztül heti rendszerességgel tennénk meg oda-vissza a New York-London repülőutat.

Az eredményhez a modellek napi gyakorlását vették alapul, közben az energiafogyasztást folyamatosan mérték, majd beszorozták minden egyes modell összesített tréningóráival. A teljes energiafogyasztás számszerűsítéséhez az Egyesült Államok átlagos energiatermeléséből indultak ki, és számították ki, hogy hány kiló (esetükben font) széndioxidról van szó.

aramtermeles0.jpg

Minél nagyobb a mesterségesintelligencia-modell, annál nagyobbak a számítási költségek – és a környezeti hatások… És ezek a számítások még visszafogottak is.

„Egy egyszerű modell gyakoroltatása a minimum, amit tehetünk. Új modellnél több körre van szükség, gyakran próba-hiba alapú tréningekkel” – magyarázza Emma Strubell, az egyik kutató.

Szerencsére sok nagy mesterségesintelligencia-platform lényegesen kevesebb energiát használ el, köztük megújulókat is. A Google platformja teljesen, azaz 100, az Amazoné 50 százalékban megújuló energiaforrásokkal működik.

Egyelőre ki kell találni, hogyan lehet minimalizálni az MI-k környezeti hatásait. Megújuló energiaforrások használata mellett egyesek például más technikákkal helyettesítenék a mélytanulást, illetve hatékonyabb architektúrákat, chipeket építenének.

MI-k generálhatják a jövő zenéit

A csúcstechnológiák az összes művészetet megváltoztatják, legnagyobb mértékben talán a zenét. Zenekarok és előadók helyett mesterséges intelligenciák már ma is generálnak egyénre szabott listákat, és ez csak a kezdet, a trend a jövőben felerősödik – véli a kockázati tőkés és egyben a Sun Microsystems egykori társalapítója, Vindo Khosla.

A korábban a virtuális valóságban (virtual reality, VR) élőelőadásokat adott, a VR-t a szinesztézia megvalósítására használó iráni származású Ash Koosha negyedik – és máig utolsó –, 2018 őszi albumát, a Return O-t közösen írta a Yona nevű mesterségesintelligencia-rendszerrel.

jovozeneje.jpg

„Az MI motorja egy generatív szoftver, amely mondatokat, melódiákat alkot, és a szöveget beszéddé alakító technológia segítségével énekel is” – magyarázza Koosha.

A felemásra sikerült eredmény jelzi, hogy a technológián bőven akad még finomítanivaló. Az MI-ben rejlő zenei potenciált viszont egyre többen, és nemcsak alkotók, hanem tech startupok is próbálják kiaknázni. Az ausztrál Popgun mesterséges intelligenciája 2017 januárjában egy zongorafutam melodikus folytatását írta meg, 2018 nyarán viszont a zongorától a dobig, a basszusoktól a háttérvokálig mindent a gép alkotott.

jovozeneje0.jpg

A Popgun csak egy példa, startupok sokasága dolgozik MI-muzsikákon, miközben a Facebook, a Google, az IBM és a Sony árgus szemekkel figyeli a fejlődést.   

Khosla szerint kb. tíz év, és mindenki az elménkben olvasó MI-k által alkotott hanganyagokat fogja hallgatni; megszűnik a mai értelemben vett zenehallgatás. Az algoritmusok nyomon követik hangulatunk hullámzását, és mindenkori lelkiállapotunk függvényében szolgáltatják a muzsikát.

A Spotify-on és YouTube csatornákon terjedő hangulat- és tevékenység-alapú lejátszási listák ebbe az irányba mutatnak. A művész kiléte, az album és/vagy a szám címe lassan érdektelen lesz, egyre inkább a felhasználó aktuális állapota számít. A Spotify és a hasonló online szolgáltatók nyilván érzik a gazdasági lehetőségeket is, mert a gépek alkotta alternatívák esetében nem kell magas licenc-díjakat fizetniük stb.

De mi történik a zene által kiváltott közösségi élménnyel, ha az MI-k generálta muzsikák mindenki számára szigorúan egyediek lesznek?

Ha rájuk lövünk lézerrel, jobbak lesznek az elektronikus eszközök

Új modellek alapján a fizikusok jobban tudják, hogyan építsenek kvantum-áramköröket, dolgozzanak ki szupervezető anyagokat, vagy „csak” gyorsabb komputereket, hatékonyabb napelemeket, jobb elektromos autókat stb. fejlesszenek.

Kutatók többek között a szilíciumból vagy az okostelefonokban lévő gallium-arzenidből akarják a lehető legtöbbet „kihozni.” Szilíciumból megbízható, olcsó és energiahatékony áramköröket készítenek, másrészt viszont folyamatosan próbálnak komplexebb új anyagokat előállítani. Az utóbbi években sikerült megváltoztatni ezeknek az anyagoknak az áramvezetését, a fénnyel való interakcióikat.

lezer_1.jpg

Az amerikai Északnyugati és a Texasi egyetemek kutatói kidolgoztak egy, a napjaink infokom eszközeit működtető áramkörökhöz használt anyagok elektromos és mágneses tulajdonságain módosító érdekes módszert: Rövid lézerlövésekkel és erős mágnesekkel változtattak rajtuk. Egyelőre inkább csak elméletről van szó, gyakorlati hasznosítására várni kell még.

Ezek a tulajdonságok, például, hogy egyes anyagok hatékonyan vezetik az áramot, vagy sem, a bennük lévő elektronok elrendezésétől függenek. Erős mágneses mező vagy egy elemből jövő elektromos áram változtathat az elrendezésen. A lézer szintén, viszont bonyolultabb előrejelezni, hogy miként.

lezer0_1.jpg

A lézerek jól elrendezett fényhullámok, az általuk létrehozott elektromágneses mezők folyamatosan változnak.

„Amikor a fényimpulzus keresztülmegy egy anyagon, drámai módon és gyakran nagyon-nagyon rövid idő alatt megváltoztatja a tulajdonságait. Munkánkból kiderül, hogy milyen impulzusokat kell használni egyes óhajtott hatások eléréséhez” – nyilatkozta a kutatást vezető Gregory Fiete.

A fény állandóan változó természetét kihasználva, megváltoztatható az anyagok állapota is. Ezeket a változásokat más módszerekkel nem érnék el; és egyes új állapotokban az érintett anyagok sokkal érzékenyebbek az elektromos vagy mágneses mezőkre, amivel például sokat javíthatnak orvosi technológiákon, biztonságosabb érzékelők készíthetők belőlük. Más hatások elérésével többek között az internet gyorsítható fel, mert hatékonyabban továbbítják az információt.

„Próbáljuk megérteni a természet működésének alapelveit, majd ezeket az alapelveket például villamosmérnökök alkalmazzák szenzorok vagy kommunikációs eszközök fejlesztésekor” – magyarázza Fiete.

süti beállítások módosítása