Hirdetés

A Facebook algoritmusa összekeveri a tömeggyilkosságot az autómosással

|

Korántsem olyan hatékony a moderálást végző mesterséges intelligencia, mint ahogy azt a cég állítja.

Hirdetés

Komoly erőfeszítéseket igényel, ha valaki nyomon szeretné követni a Facebook körüli legújabb botrányt, hiszen szinte minden nappal újabb híreket hoz a belsős dokumentumok felett kirobbant skandallum.

A szivárogtató Frances Haugen jóvoltából a The Wall Street Journal az elmúlt hetekben több leleplező cikket is közölt arról, hogy a titkos iratok alapján a vállalat nem csak az Instagram káros hatásairól hazudott a nyilvánosságnak, de a gyűlöletbeszéd elleni harcban sem volt őszinte.

Hirdetés

Haugen ezeket a vádakat már az amerikai szenátus előtt is hangoztathatta, miután a cikksorozat nyomán hivatalos vizsgálat indult a Facebook ellen. Az ügy legutóbbi fejleménye az volt, amikor a cég közleményben bizonygatta, hogy igenis egyre hatékonyabb a toxikus tartalmak kigyomlálásában.

A WSJ  erre vonatkozó cikke viszont egész más helyzetet vázol. Továbbra is az egykori alkalmazott Haugen által kiszivárogtatott titkos dokumentumokra hivatkozva az újság azt állítja, hogy a Facebook automatikus tartalomszűrője valójában a gyűlöletkeltő tartalmak töredékét, mindössze 1%-át törli.

A közösségi platform márciusban keltezett belsős jelentése szerint továbbá az MI-vezérelt algoritmus csak  a gyűlöletkeltő posztokhoz köthető megtekintések 3-5%-át, az erőszak és uszítás kategóriájában pedig még kevesebbet, csupán 0,6%-át tudta megakadályozni.

A Facebook számára ennél is kínosabb lehet egy vezető mérnök 2019-es megjegyzése, mely szerint a jelenlegi stratégiával középtávon sem várhatók komoly eredmények, legfeljebb csak a problémás tartalmak 10-20%-át sikerülhet kiszűrni.

A nyilvánosságra került dokumentumok rávilágítanak, hogy valójában mennyire gyerekcipőben jár a Facebook által anyagi okokból is előnyben részesített technológia a valódi moderátorokhoz képest. Belsős jelentések szerint az MI például hajlamos autóbalesetként azonosítani a kakasviadalos képsorokat, míg a tömeggyilkosságokról szóló közvetítések felett azért siklik át, mert paintball mérkőzésnek, vagy autómosós videónak(!) véli őket.

A gyűlöletbeszéd kapcsán pedig a nyelvismeret hiánya okoz gondokat, Afganisztánban például csak az ilyen bejegyzések 0,23 százalékát fülelte le az algoritmus, mert egyszerűen nincs tisztában a sértő kifejezésekkel.

Mindez persze nem különösebben meglepő azoknak, akiknek meggyűlt már a baja a Facebook automatikus tartalomszűrőjével. Jó példa erre a karórás hirdetéseké, ahol a mesterséges intelligencia olykor lőfegyverként azonosítja a ketyegőket,  s ezért nem engedi feltölteni őket a Marketplace-re.

Komolyabban érdekel az IT? Informatikai, infokommunikációs döntéshozóknak szóló híreinket és elemzéseinket itt találod.

Hirdetés
Hirdetés

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://pcworld.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.