Hirdetés

Az emberek nagy része képtelen kiszúrni a mesterséges intelligenciával generált videókat



|

Egy friss kutatás alapján az embereknek már most is nagy gondot okoz a géppel generált videók felismerése.

Hirdetés

Egy hónappal ezelőtt újabb mérföldkőhöz ért a szédületes sebességgel fejlődő generatív mesterséges intelligencia evolúciója, amikor a ChatGPT és a DALL-E mögött álló OpenAI bemutatta a videókra létrehozott modelljét, a Sorát. Az új technológia ugyanis olyan élethű mozgóképes anyagokat hoz létre puszta szöveges parancsok alapján, amelyek még néhány hónappal ezelőtt is elképzelhetetlenek voltak.

Habár az OpenAI óvatosan jár el, és a visszaélésektől tartva csak szűk körben teszteli a szolgáltatást, a Sora láttán sokan megfogalmazták az aggodalmaikat a technológiában rejlő veszélyeket illetően. Egy friss kutatás most a félelmeket alátámasztva rámutat, hogy az új modell már a jelenlegi, kezdetleges formájában is mélyen össze tudja zavarni az embereket.

Hirdetés

A Variety és a HarrisX piackutató cég egy online felmérés keretében 1000 felnőttel tesztelte, hogy képesek-e megkülönböztetni a valódi és az AI által generált videókat. A kísérletbe négy igazi anyagot és a Sora négy bemutatkozó filmjét vonták be, az eredmény alapján pedig az emberek durván fele minden mesterséges intelligenciás felvételnél arra tippelt, hogy igazi videókat lát.

A legmeggyőzőbbnek az alábbi, generált képsorok bizonyultak egy tengerpartról, amelynél a megkérdezettek 60%-a mondta, hogy valódi az anyag, de még a legrosszabbul szerepelt tétel is sikeresen átverte a felmérésben résztvevők 44%-át. Talán még ennél is jobban jelzi az AI-t övező bizonytalanságot, hogy az emberek által készített videók sem szerepeltek jobban a teszten, sőt: akadt olyan felvétel, amiről csupán az alanyok 36%-a hitte el, hogy nem az algoritmus készítette, holott valódi anyag volt.

Az eredmény fényében valóban félelmetes belegondolni, hogy mire lesz képes a technológia a jövőben, és hogy miként lehet majd megelőzni a visszaéléseket, legyen szó az álhírterjesztésről, a deepfake pornóról vagy a közismert emberek nevében elkövetett csalásokról, amelyek már a képgenerátorok kapcsán is nagy gondot jelentenek.

Az OpenAI mindenesetre azt ígéri, hogy kifejleszt egy eszközt, ami képes lesz felismerni a Sorával készült videókat, ám nemrég egy virálissá vált AI-kép bizonyította, hogy az emberek többsége még a legordítóbb jeleket sem szúrja ki a közösségi médiában keringő kamu anyagokon.

Hirdetés

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://www.pcwplus.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.