Az Neumann Társaság blogja a legfejlettebb infokom technológiákról

Jelenből a Jövőbe

Jelenből a Jövőbe

Hogyan ismerjük fel a félrevezető információt?

2022. szeptember 05. - ferenck

A tényellenőrök nem tudják tartani a tempót az egyre nagyobb mértékű félretájékoztatással, dezinformációval, és a mesterséges intelligencia sem teljesít jól online tartalmak moderálásában.

A Facebook algoritmusai például csökkentik a fogyatékkal élőknek készült hirdetések számát, ugyanakkor gyakran szemet hunynak az erőszakra való buzdítás felett. Úgy tűnik, hogy a lépésről lépésre történő fejlesztésekkel mégis tehetünk valamit az oltásellenes hangok, a klímakatasztrófa tagadása és más káros online tartalmak terjedése ellen.

misinformation.jpg

A webet elömlesztő hamis információkra reagálva, a Google frissítette a keresési eredményeket rangsoroló algoritmus mögötti egyik fontos modellt. A módosításokkal el akarják érni, hogy csökkenjen a keresési eredmények tetejéhez közeli dezinformáció. Apró, de fontos részletekről, információdarabkákról, kivonatokról (snippets) van szó.

A Google kutatói az úgynevezett Többfeladatos Egyesített Modell felülvizsgálatával igyekeznek ellenőrizni a részletek pontosságát.

misinformation0.jpg

A modell kiértékeli, hogy a legjobb eredmények mennyire egyeznek. Még akkor is képes összehasonlítani oldalakat egy adott témában, ha azok különböző mondatokat és példákat használnak. Ha különösebben nem bízik a rendelkezésre álló forrásokban, kivonat helyett figyelmeztetést generál, például: „úgy tűnik, nincs sok nagyon jó találat ehhez a kereséshez.”

A félrevezető kérdéseket szintén felismeri. Például az olyanokat, hogy „mikor ölte meg Snoopy Dog Abraham Lincolnt?” A frissítés máris hasznosnak bizonyult, mert negyven százalékkal csökkent az ilyen lekérdezésekre adott hibás információdarabok száma.

misinformation1.jpg

A Google nem az egyetlen infokom nagyvállalat, amelyik mesterséges intelligenciával próbálja szűrni a dezinformációáradatot. A Facebook multimodális tanulással igyekszik detektálni a Covid-19-cel kapcsolatos hamis állításokat. A YouTube 2020 óta használ az összeesküvéselméleteket és a tudományellenes félretájékoztatást tartalmazó videók ajánlásait leminősítő osztályozót.

Az MI összességében hasznos eszköz a keresési eredmények és maguk a keresők hitelességének megőrzésében, de egyedül nem tud megbirkózni a feladattal. Nagyjából úgy, mint ahogy az önvezető taxikkal dolgozó vállalatok is alkalmaznak (helyszíni vagy távirányító) humán sofőröket.

Az automatizált tartalommoderáló rendszereknek egyelőre komoly segítséget jelent, ha ember is van a közelükben.

A bejegyzés trackback címe:

https://jelenbolajovobe.blog.hu/api/trackback/id/tr5017923027
süti beállítások módosítása