Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Az ENSZ egyes mesterségesintelligencia-alkalmazások ellen van

2021. november 22. - ferenck

Egyre többen foglalkoznak a mesterséges intelligenciák szabályozásával, tesznek javaslatokat a technológiák szigorú ellenőrzés melletti használatára.

Michelle Bachelet, az ENSZ emberjogi főbiztosa egyes mesterségesintelligencia-rendszerek felfüggesztésére szólította fel a tagállamokat. A felfüggesztés a hatékony biztonsági protokollok érvénybe lépéséig tartana. Más, az emberi jogokat sértő rendszereket a biztos egyenesen betiltana.

ai_dangers.jpg

Beszámolója összhangban van az ENSZ Emberjogi Bizottság egyik tanulmányával, amelyben az automatizált rendszerek rendőrségi, egészségügyi és tartalomajánló alkalmazásaira figyelmeztetnek. Ezek az alkalmazások ugyanis sérthetik a magánélethez (privacy), a szabad véleménynyilvánításhoz és a szabad mozgáshoz való jogot, ugyanakkor korlátozhatják az egészségügyhöz és az oktatáshoz való hozzáférést.

A tanulmány szerzői kiemelik az elfogult, részrehajló algoritmusok, a személyiségi jogokba belemászó megfigyelés és a mesterséges intelligenciák átláthatatlanságának veszélyeit. Kormányok és vállalatok gyakran úgy telepítenek valahova MI-termékeket, hogy előtte nem pontosítják a rendszerek emberjogi veszélyeit.

Száműznék az emberi jogokra folyamatos veszélyt jelentő technikákat, mint például a valósidejű biometrikus azonosítást. A megnyugtató szabályozás érvénybe lépéséig moratóriumot vezetnének be azoknak az algoritmusoknak a használatára, amelyek meghatározzák, hogy valaki jogosult egészségügyi ellátásra, vagy sem.

Mindezek mellett az adatok privát jellegét védő iránymutatókat, független felügyeletet és törvényeket vezetnének be. Megmagyarázható mesterégesintelligencia-mechanizmusok mutatnának rá az MI-k által lehetővé tett jogsértésekre, visszaélésekre. Természetesen az MI-rendszereket folyamatos megfigyelés alatt tartanák, hogy tudjuk, mikor jelenthetnek potenciális veszélyt az emberi jogokra.

Az ENSZ senkit nem kötelezhet az ajánlások elfogadására, viszont az olyan erős állítások, mint Bacheleté minden eddiginél látványosabban irányítják az MI és az emberi jogok „találkozási pontjaira” a közfigyelmet.     

A Walmart már idén önvezető autókkal intézné a házhozszállítást

A világ egyik legnagyobb kiskereskedelmi cége, az amerikai Walmart három városban teszteli az autonóm házhozszállítást. A Ford által létrehozott és az Argo MI-vel működtetett járművek közvetlenül a vásárló otthonába viszik az árut.

A szolgáltatást eleinte korlátozva, a három városnak (Austin, Miami és Washington D.C.) csak egyes részein használják.

walmart_3.jpg

A pittsburghi Argo startup járművek útválasztását támogató felhőalapú rendszerét a Walmart online rendelőplatformjába integrálta. Ha megrendelünk valamit, megtervezi a szállítást. A technológia radaron, kamerákon és saját lidar érzékelőn alapul.

A Walmart egy ideje próbálkozik már az automatizált házhozszállítással, eddig a Cruise, a Gatik, a Waymo technológiáit használta. Egyik partnere, a Nuro szintén az automatizált földi szállítással foglalkozik. A cég a lassabb, tehát a biztonságosabb vezetést támogató technikát dolgozott ki.

walmart1.jpg

Az önvezető autók ugyan még nem készek a szélesebb körű alkalmazásokra, a világ egyik legnagyobb kiskereskedőjének és a szintén egyik legnagyobb autógyártónak a partnersége a közeljövő esetleges kereskedelmi alkalmazásait vetíti előre.

Az együttműködés másrészt azt is jelzi, hogy nem mindentudó, minden alkalmazásban működő, hanem speciális felhasználásokra kitalált járművek lehetnek az első teljesen önműködő autók.

Egyesek teherautókra összpontosítanak, mások speciális helyi szállításra, ahol korlátozottak a lehetőségek (például kampuszokon vagy kikötőkben). A technológia terjedése lassabb, mint jósolták kb. egy évtizede, viszont most úgy tűnik, hogy hamarosan tényleg beérik.

A Walmart és a Ford sokat tehet azért, hogy valóban így legyen. 

Mesterséges intelligencia segíti a mesterlövészeket

Az automata fegyverek története hosszú, jó ideje kísérleteznek velük. A mesterséges intelligencia azonban teljesen átírhatja ezeket a fejlesztéseket, megváltoztathatja a fejlesztések irányát.

Ha az MI céloz, és határozza meg a golyó útját, csökkennek a kockázatok, titkosügynökségek könnyebben megölhetnek ellenséges személyeket, szervezhetnek merényleteket.

Minden országnak tényleg meg kell védenie magát, de a mesterséges intelligencia által lehetővé vált politikai gyilkosságoktól feláll a hátunkon a szőr, és jelzik, hogy a gépi értelem a béke és a demokrácia terjesztése mellett kevésbé nemes célokra is felhasználható.

distance_killing.jpg

Az izraeli titkosszolgálat, a Moszad mesterséges intelligenciával segített – távirányított – mesterlövésze tavaly novemberben agyonlőtte Irán vezető atomtudósát, a középkeleti állam atomprogramjában állítólag kulcsszerepet játszó Mohsen Fakhrizadehet. A kutató Teherán közelében vezette az autóját, a lövések annyira pontosak voltak, hogy a mellette, az anyósülésen ücsörgő feleségének a haja szála sem görbült.

Mesterséges intelligencia nélkül nem, de legalábbis így biztos nem valósulhatott volna meg a gyilkosság.

Az izraeliek darabonként csempészték be Iránba a géppuskát és a robotikus vezérlőrendszert. Iránban tartózkodó ügynökeik titokban összeszerelték a fegyvert, és egy, a tudós otthonához közel parkoló kamerás pickup teherautóra rögzítették. Kamerával szintén felszerelt másik teherautó figyelmeztette a mesterlövészt, amikor Fakhrizadeh autója a közelben járt. A fegyvert működtető személy egy másik országban, meg nem nevezett helyen tartózkodott.

Az ügynökség a fegyveres teherautóból a mesterlövészhez műholdon keresztül küldött videóknál 1,6 másodperc késéssel számolt. Ezt is figyelembe vették ahhoz, hogy mikor kell tüzelnie. A rendszert eleve úgy programozták, hogy kalkulálja be a késést, és hozza szinkronba a kocsi sebességével.

A mesterlövész végül a célpontot automatikusan megtaláló tizenöt lövedékkel ölte meg a tudóst.

A Moszad mesterséges intelligenciával vezérelt fegyverrendszere nem egyedi eset. Máshol is MI segédkezik a célzásnál és egyéb funkcióknál. Líbiai alakulatok tavaly például a levegőből támadtak autonóm fegyveres járművekkel az ellenségre.

A dél-koreai DoDeam vállalat automatikus őrtornyai kamerákkal, hőkamerákkal és lézeres távolságméréssel személyek hő- és mozgásmintáit azonosítják. Az észt Milrem Robotics földi robotja változatos távirányított fegyverekkel, köztük golyószóróval, rakétákkal és drónokkal szerelhető fel.

Ha valahol, akkor ezen a területen tényleg szükség lenne komoly szabályozásra. Csakhogy, pont a terület jellegéből fakadóan, itt folyhatnak a legtitkosabb kutatásfejlesztések.

Bérbe adott arcok kamuképes reklámokhoz

Ha valaki gyorsan akar pénzhez jutni, és nincsenek különösebb skrupulusai a mesterséges intelligencia kétes felhasználásaival szemben, akkor forduljon a tel-avivi Hour One startuphoz: a cég fizet azért, hogy arcunkról kereskedelmi céllal, magyarán reklámra kamuképet (deepfake) készíthessen.

Az Hour One valódi személyek hasonmásaival dolgozik, belőlük hoz létre mesterségesintelligencia-technikával marketing és oktatóvideókban szereplő „karaktereket.”

Jelenleg nagyjából száz „karakterből” álló könyvtáruk van, amit folyamatosan akarnak bővíteni. Ezért várják a jelentkezőket.

deepfake0_2.jpg

„Sorokban állnak az emberek előttünk, meghalnak azért, hogy ilyen karakterré váljanak” – magyarázza kicsit félreérthetően Natalie Monbiot, az Hour One stratégiai igazgatója.

De mi is kell hozzá?

Először a cég honlapján kell névvel, email-címmel, Instagram-profillal jelentkezni. Nem szükséges a szupermodell külső, a lapos has, és a divatvilág más előírásaival sem törődnek. A startup a lehető legnagyobb életkor, nem, bőrszín szerinti változatosságra törekszik.

deepfake_2.jpg

Ha kiválasztanak, az Hour One beszéd és különböző arckifejezések közben filmezi a fejünket. Zöld háttérrel, nagyfelbontású kamerával dolgoznak.

A felvételt mesterségesintelligencia-szoftver dolgozza fel, és máris kész a karakter, mesterségesen intelligens digitális alteregónkat vállalatok vásárolhatják meg és adhatják el olcsón. Azt csinálnak vele, amit épp akarnak.

A startup mesterséges intelligencia által generált hangokat használ a mozgóképekhez. Az MI a szöveget beszéddé (text-to-speech) alakító szoftverekhez hasonlóan működik: feltöltünk egy szkriptet, és a mesterséges intelligencia elmondja. Van egy drágább opció is: a szkriptet nem MI, hanem profi szinkronszínész olvassa fel.

A startup ugyan dolgozott ki etikai stratégiát, a nyelv- és a karaktervédelem mégis döbbenetesen gyenge lábakon áll. Három pontban, homályosan írják le, hogy az „Ön adatait a legnagyobb biztonságban védjük.” A hasonmásunk videóit vízjellel látják el, jelezve, hogy mesterséges intelligencia generálta őket.

De mi történik akkor, ha egy cég erkölcsileg megkérdőjelezhető termékek, szolgáltatások reklámozására használja a digitális alteregónkkal készített videókat?

Mesterséges ideghálók szépítették meg Elon Muskot

Egy izraeli kutatócsoport kitalálta, hogyan változtassanak meg mesterséges intelligenciával fotorealisztikusan fényképeket. A gépi tanulásból, mélytanulásból (deep learning) jól ismert generatív ellenséges hálózatok (generative adversarial networks, GAN) tűntek a legkézenfekvőbb megoldásnak: az egyik háló az eredeti alapján generálja a még hitelesebb változatot, a másik pedig addig bírálja, amíg tényleg jó és abszolút élethű nem lesz a hamisítvány.

A felhasználókat mindössze arra kérték, hogy adjanak leírást arról, amit akarnak, szeretnének látni.

Eredményként egy cica képét például „aranyos cicává” alakították. Az „aranyos cica” szavakra az MI csak az állat szemeit nagyította fel.

muskai0.jpg

A kutatók azonban nem álltak meg a házikedvenceknél. Ugyanazzal a technológiával a Tesla-főnök Elon Muskot is többféleképen átalakították, egyik szórakoztatóbb lett a másiknál.

A kultikus cégvezér az egyiken úgy néz ki, mintha a Starship Troopersből lépett volna közvetlenül ki, de hullámos, göndör, vagy egyenes hajjal egyaránt megmosolyogtató, és egy kicsit talán el is gondolkoztató látvány. A milliárdos egyes képeken viszont kifejezetten ijesztő, félelmet keltő.

muskai1.jpg

Ha eleget nézzük ezeket a képeket, a végén elfelejtjük, hogyan néz ki Elon Musk a valóságban.

Ha viszont félretesszük a viccet, el kell ismernünk, hogy a fényképek döbbenetes könnyedséggel manipulálhatók. Szinte hihetetlen, mit ki lehet hozni belőlük.

A gépi tanulás, az ideghálók fejlődése szintén hihetetlen tempójú. Döbbenetes, hogy honnan indultak, és hova jutottak el mára. Nem véletlen, hogy a dezinformációban és kamuképek, kamuvideók (deepfakes) előállításában is mekkora szerepet játszanak.

Felhasználásuk erősen demokratizálódott az utóbbi években, lényegében bárki – akinek van számítógépe – dolgozhat, szórakozhat velük. Időnként egész izgalmas eredményeket érnek el, például Mark Zuckerbergről is készült már kopasz, szemüveges stb. változat is.  

Mesterségesintelligencia-kutatók a mesterségesintelligencia-etikáról

Technológusok folyamatosan dolgoznak a biztonságos, nyílt és etikus infokommunikáció megvalósulásán. Egyes szervezetek például a magánadatok biztonságát védő, etikai problémákra megoldást kínáló szabványokat vezetnek be. Máskor közvetlenebb megoldásokhoz fordulnak, mint tette azt háromezer Google-alkalmazott, amikor írásban tiltakoztak a cég és a hadsereg közös gépilátás-projektje ellen.

A mesterséges intelligencia rengeteg morális kérdést vet fel, és a kutatásfejlesztések jelenlegi állása alapján a gépi tanulás területén dolgozó szakemberek a legavatottabbak ezek megválaszolására. A legkockázatosabb fejlesztések jó részét eleve ők végzik.

ai_ethics_2.jpg

A Cornell, az Oxford és a Pennsylvania Egyetem 534 gépitanulás-szakértővel végzett felmérést a mesterséges intelligenciával kapcsolatos etikai kérdésekről. A válaszadók 89 százaléka férfi, túlnyomó többségük európai, ázsiai, illetve észak-amerikai volt.

68 százalékuk szerint az MI-közösségeknek többet kellene foglalkozniuk a biztonsággal. A rendszereknek robusztusabbnak, megbízhatóbbnak kell lenniük, és operátoraik szándékaival nagyobb összhangban kell működniük.

A nyitottság az MI-kutastások egyik kulcsa. A válaszadók 84 százaléka szerint minden új kutatásnak részletesen le kell írnia az alkalmazott módszereket, 74 százalékuk pedig az eredmények kötelező közlését javasolta. Viszont csak 22 százalékuk gondolja, hogy a publikált kutatási anyagnak a betanított modellt is tartalmaznia kell.

A hadsereg iránti bizalom sokkal kényesebb téma. Az interjúalanyok általában támogatják az MI katonai logisztikai alkalmazásait, ötből egy ellenzi a gépi látással végzett megfigyelést, viszont 58 százalékuk masszívan ellene van az MI által vezérelt fegyvereknek („gyilkos robotoknak”). 31 százalékuk pedig felmondana, ha ilyen projektekben kellene részt vennie.

A nagyvállalatokat illetően az Open AI-ban bíznak meg leginkább. A Microsoft, a DeepMind és a Google követi őket. A Facebook, a kínai Alibaba és Baidu iránt kisebb a bizalom.

Kik a csapatjátékosok?

Csapatsportokhoz egyéni és csoportos képességek, azok képlékeny keveréke szükséges. A DeepMind kutatói focizó humanoid ágensekbe integrálták a két cselekvéstípust.

Szimulált focicsapatokhoz dolgoztak ki edzésmódszert. A játékosok, azaz az ágensek a fizikaihoz hasonló virtuális pályán tanultak meg futni, passzolni, védekezni, gólt lőni.

team.jpg

A kutatók tizenhat ágenst treníroztak, hogy kétszemélyes csapatokban versengjenek egymással. Egy ágens nyomást helyezhet mind az ötvenhat ízületére, nyomon követheti az általuk bezárt szögeket, pozíciókat, gyorsaságukat, megfigyelheti a többi játékos és a pályán lévő más objektumok elhelyezkedését, és az ő gyorsaságukat is.

Az edzés első szakaszában a modell olyan mozgásokat tanult meg, mint a futás és a fordulás. Kódolót és dekódolót tanítottak be felügyelt tanulás mellett, hogy jelezzék előre az ágens mozgását. Valódi focistákról készült 105 perc mozgásrögzítés (motion-capture) anyagot kaptak hozzá.

team0.jpg

A kódoló megtanulta megjeleníteni az ágens fizikai állapotát, míg a dekódoló ezeket a reprezentációkat alakította át az ízületekre kifejtett nyomatékokká.

Második lépésben, különféle kódolók négy adottságot sajátítottak el – pont követését, cselezés közbeni pontkövetést, pontra rúgni a labdát, és persze gólt lőni. Az ágens fizikai állapotának reprezentálása mellett, képességeiket is megjelenítették, a dekódoló pedig az ízületek mozgásának módját határozta meg. Négy másik kódoló az adottság-modell reprezentációjának újraalkotását információkhoz való hozzáférés nélkül sajátította el.

team1_1.png

Végül az ágensek felügyelet mellett megtanultak csapatban versenyezni, különféle reprezentációkat összekombinálni. Minél többet edzettek, annál ügyesebbé váltak. Kezdetben például az esetek harminc százalékában orra buktak, később viszont a passzolástól a góllövésig, minden szinten jól teljesítettek.

A komplex feladatok kivitelezéséhez szükséges összes adottsághoz egynél természetesen több edzőmódszerre van szükség. Ezekben az esetekben a kutatók a felügyelet melletti, a megerősítéses és a csapatban történő tanulást kombinálták össze egymással.

A feladatmegvalósításhoz szükséges absztrahálást maguktól megtanuló ágensek fejlesztése lesz a következő lépés.

Mesterséges intelligencia csökkenti az idősekre leskelődő veszélyeket

Automatizált rendszerek sokféleképpen javíthatják az idősgondozás minőségét.

Az Egyesült Államokban több mint kétezer idősotthon és idős személyekkel foglalkozó más létesítmény használja a VirtuSense Balance diagnosztikai rendszert, hogy az érintetteket megmentse a felesleges és nem egyszer végzetes kimenetelű esésektől.

usa_idosek.jpg

Az ilyen esések miatt évente többezren halnak meg, többmillióan szenvednek balesetet. A kockázatok azonosításával életek menthetők meg, a gondozók hatékonyabban használhatják ki az idejüket.  

A rendszer kockázatos, potenciálisan eséshez vezető testtartások és  mozdulatok azonosításával segít specialistáknak. Infravörös fénnyel szkenneli le a mozdulatsorokat kivitelező személyeket, majd a pózokat detektáló modell elemzi a pozíciójukat.

usa_idosek0.jpg

Az egyensúlyteszt megméri, hogy az adott személy mennyire imbolyog, miközben elvileg egyenesen áll. A testtartás-teszttel a járás tempóját, a térdek által bezárt szögeket, a lépések hosszúságát becsülik fel.

A funkcióteszteken a rendszer változatos ülő, álló és járótevékenységeket elemez.

Végül összehasonlítja az adott személy inputjait korcsoportjának átlagával, majd pontozza az elesés kockázatát, és az egészségügyi dolgozóknak a mobilitást javító tanácsokat is ad.

Más mesterségesintelligencia-alapú rendszerek szintén végeznek az idősek életminőségét javító tevékenységeket. A CarePredict hordozható eszköz az illető tevékenységét monitorozza, és figyelmezteti a gondozókat, ha „páciense” nem eszik, vagy nem alszik jól. A People Power Family szenzorokkal figyeli, hogy az otthon élő személyek ne essenek el. Későéjszakai tevékenységükre és váratlan jövés-menésükre összpontosít. Egy modell megtanulja minden egyes páciens szokásait, és figyelmezteti az orvost, ha az illető viselkedése nagyon erősen eltér a megszokottól.

Egyértelmű, hogy a mesterséges intelligencia nagyon fontos szerepet fog játszani ezen a területen.

Kína szigorúbban szabályozza az online ajánlóalgoritmusokat

Az internetet szabályozó kínai állami szervezet (Cyberspace Administration of China, CAC) a dezinformációt terjesztő, a nemzetbiztonságot fenyegető és a függőséget elősegítő rendszereket tiltó, az ajánlóalgoritmusok működését, használatát jelentősen korlátozó törvényeket javasol.

A CAC az ország szocialista berendezkedésének támogatását, a szocialista alapértékek promótálását sugallja az ajánlórendszereknek. A nyilvánosság visszajelzését is várják, de nem teljesen világos, hogy mire számítanak tőlük, mint ahogy a törvény érvénybe lépésének időpontjáról sincs információ.

A törvényjavaslat alapján az algoritmusoknak ezentúl tilos kihasználni a felhasználók viselkedését, például nem emelhetik meg az általuk gyakran vásárolt termékek árát.

kina_ajanlok.jpg

Ismertetni kell a fogyasztókkal a tartalomszolgáltató platformok algoritmusainak működési elveit, amelyeket kötelező lesz folyamatosan auditálni, hogy valóban megfeleljenek a CAC szabályozásának. Lehetővé kell tenni, hogy a felhasználók, ha akarják, akkor könnyen deaktiválják az automatizált ajánlókat.

A kamu felhasználó-profilokat létrehozó, a dezinformációt terjesztő, az egyéni jogokat megsértő algoritmusok le lesznek tiltva. A szabályozók nem fogalmazták meg pontosan, hogy mit is értenek egyéni jogokon.

Az érintett platformoknak engedélyt kell kérniük a közvéleményt, közhangulatot befolyásolni, elbizonytalanítani képes algoritmusok alkalmazása előtt.

Még mielőtt tücsköt-békát összebeszélnénk a kínai diktatúrára, ne feledkezzünk meg arról a tényről, hogy a távolkeleti szuperhatalom ezirányú törekvéseivel nincs egyedül. Az EU szabályozási tervezetet adott ki a társadalmi szint szerinti pontozást végző rendszerek, a valósidejű arcfelismerés, a felhasználói viselkedés manipulálására fejlesztett algoritmusok nagyon szigorú korlátok közé szorításáról, betiltásáról.

Az algoritmusok elszámoltathatóságát célzó és az Egyesült Államok kongresszusán elakadt törvény megkövetelné a cégektől, hogy végezzenek kockázat-felmérést a dezinformációt potenciálisan terjesztő és társadalmi előítéleteket növelő rendszerek használata előtt.

A szabályozás azért fontos, mert az ajánlóalgoritmusok hozzájárulhatnak a közösségimédia-függőséghez, terjeszthetik a dezinformációt és szélsőséges politikai nézeteket. Ugyanakkor a fogyasztói jogok védelme és a tartalomszolgáltatók szabad önkifejezése közötti kényes egyensúlyt is fenn kell tartani.

Mesterséges intelligencia akadályozza meg a túlzott gyógyszerhasználatot?

2020-ban közel 93 ezer amerikai halt meg gyógyszerekben lévő ópiátok túlzott használata, az ópium-származékokkal való visszaélés miatt. Algoritmusok most segíteni igyekeznek orvosoknak, hogy tényleg csak azoknak írják fel az ezeket az anyagokat tartalmazó fájdalomcsillapítókat, akiknek szükségük van rájuk.

A rendszer felméri, hogy a páciens ki van-e téve az ópiátokkal való visszaélés veszélyének. Egyes alkalmakkor fájdalomcsillapítók felírására komoly fájdalmaktól szenvedő, a múltban semmiféle gyógyszeres visszaélést el nem követett páciensek esetében is elutasító javaslatot tesz.

A legtöbb amerikai szövetségi állam adatbázisokat alakított ki gyógyszer-felírások nyomon követésére. Az orvosi technológiákat fejlesztő Appriss Health cég NarxCare rendszere legalább nyolc szövetségi államban elemzi ezeket az adatokat.

gyogyszer.jpg

A páciens nevének megadásakor, a rendszer ellenőrzi a felírt gyógyszereket és a javasolt dózisokat, az orvosok számát, az érintett gyógyszertárakat, és a receptek közötti esetleges átfedéseket. Pontoz, és a pontok alapján értékeli ki, hogy a beteg visszaél-e ópiátokkal vagy más gyógyszerekkel, majd a túladagolás lehetőségét is elemzi.

Az Appriss elmondta, hogy a pontozás az orvost csak segíti, és semmiképpen nem helyettesíti, az MI nem végzi el a munkáját, és ha lehet, nem is változtatja meg a humán munkatárs döntését.

Több páciens viszont panaszkodott, mert hibásan magas pontszámok alapján nem kapták meg a szükséges kezelést. Előfordult az is, hogy állatorvosok által a házikedvenceknek felírt gyógyszerek miatt lett sokkal magasabb egy-egy beteg pontszáma.

Kiderült, hogy az algoritmusok által a kockázat hatékonyabb pontozásához vizsgált viselkedéstípusok – több orvos felkeresése ugyanazzal a problémával, távoli utazások egészségügyi céllal stb. – miatt alkalmanként, különösen több betegségtől szenvedő vagy eldugott kistelepüléseken élő szermélyek esetében túlzó eredmények születnek.

A hibákat vétő algoritmusok okoztak már komoly problémákat, például betegek maradtak ellátás nélkül, vagy nem hoztak időben döntést a gyógykezelésükről. Arról se feledkezzünk meg, hogy az ópiátokat tartalmazó fájdalomcsillapítókat szedők túlnyomó többsége nem gyógyszerfüggő, viszont, ha megvonják tőlük az adagjukat, akkor a nem megfelelő vagy illegálisan beszerzett helyettesítő szerek miatt lehetnek problémáik.

süti beállítások módosítása