Hirdetés

A szemek buktathatják le a mesterségesen generált profilképeket

|

A lélek tükre akár a mesterséges intelligencia tevékenységéről is árulkodó lehet.

Hirdetés

Kétségtelen, hogy egy ideje már a deepfake-ek és a szoftveres machinációkkal generált képek korát éljük. Szinte minden hétre jut valami hajmeresztő hír ezzel kapcsolatban: legutóbb Tom Cruise-ból csináltak TikTok sztárt, egy anyuka pedig a deepfake segítségével igyekezett kirúgatni lánya vetélytársait az iskolából.

És már nem is kell szakértőnek lenni ahhoz, hogy hozzáférjünk ezekhez a technológiákhoz, a thispersondoesnotexist.comon például egy pillanat alatt bárki készíthet magának mesterséges intelligenciával generált profilképeket nem létező emberekről. Mondanunk sem kell, hogy a csalók előszeretettel használják is ezeket, mivel a végeredményt képtelenség visszanyomozni a széles körben ismert Google képkeresővel.

Hirdetés

A Buffalo Egyetem nemrég publikált kutatása azonban beszámol egy új módszerről, ami képes lehet megbízhatóan lebuktatni a hamisítványokat. A tudósok szerint ugyanis a GAN (general adversarial network - generatív hálózatok) segítségével létrehozott képek esetében a szemen látható tükröződések oldalanként feltűnően eltérhetnek, amiből nyilvánvalóvá válik, hogy nem természetes felvétellel van dolgunk.

Ahogy a mesterséges intelligencia használható képek létrehozására, így e tudás birtokában akár arra is felkészíthető, hogy észlelje a hamisítványokat. De a deepfake-ek kiszúrásában nem csak a technológia segíthet, a Reuters például tavaly közölt szemléletes összeállítást az ilyen képek gyakori ismertetőjegyeiről: a furcsán álló fogakról, az elmosódott háttérről és az öltözék hibáiról.

Komolyabban érdekel az IT? Informatikai, infokommunikációs döntéshozóknak szóló híreinket és elemzéseinket itt találod.

Hirdetés
Hirdetés

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://pcworld.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.