Hirdetés

Tudtad, hogy a deepfake technológiát már átverős hívásokra is használják?

|

Már nem csak arcokat, hangokat is lehet MI segítségével klónozni, az eredmény pedig könnyen megtéveszthet bárkit, ezért is fontos, hogy tisztában legyünk a legújabb csaló trükkökkel!

Hirdetés

Egyelőre nem látni, hogyan hasznosak a deepfake*-ek a világ számára (a Disney például feltehetően elhunyt vagy elfoglalt színészek munkáját váltaná ki vele), ellenben azt igen, hogy milyen veszélyeket rejt a technológia, hogyan lehet visszaélésekre használni. Folyamatosan fejlődik, egyre hihetőbbé válik, és nem kell nagyon mélyen elgondolkodnunk, hogy egyértelművé váljon, a hétköznapi életben is könnyen veszélyessé válhat. Ha ugyanis azt sem hihetjük már el, amit videón látunk vagy hallunk, akkor a tájékozódás még nehezebb lesz a 21. században. Pont ezért indítottunk el egy új kezdeményezést, amely #oszdazészt címmel igyekszik felhívni a figyelmet az online tudatosság és önvédelem fontos kérdéseire, segítsetek abban, hogy megosztjátok ezeket a híreket ismerőseitekkel, főleg azokkal, akik rászorulnak a megfelelő tájékoztatásra, tanácsokra.

Hirdetés

Vannak, akik a mesterséges intelligencia segítségével audió deepfake-eket készítenek, azaz lemásolják valaki hangját, majd úgy rakják össze a szeleteket, hogy elhitethessék a hívott féllel, valamely ismerősük beszél, és így csaljanak ki pénzt tőlük. Az alábbi, a NISOS jelentéséből származó felvétel egy hangposta üzenet egy részlete, melyet egy technológiai cég alkalmazottjának küldtek, és az "ügyvezető hangján" kérik őt arra, hogy egy sürgős üzleti ügy véglegesítésében segítsen. Persze valamelyest robotszerű, de új vagy nem elég óvatos kollégákat könnyen megvezethet.

Ebben az esetben egyébként a csalók nem jártak sikerrel, az alkalmazott gyanakodott, és azonnal jelezte a jogi osztálynak a hívást. 2019 szeptemberében egy brit energetikai céget viszont sikerült átverni, az ügyvezető állítólag több mint 220 ezer eurót utalt egy magyarországi számlára, mert elhitte, hogy a főnöke kéri erre. Az elkövetőket nem sikerült elkapni.

Az ilyen deepfake-ek készítéséhez elég néhány hangfelvétel, akár publikusan elérhető interjúk is hasznosak lehetnek, és ha elegendő nyersanyagból tud dolgozni a rendszer, villámgyorsan megvan az az egyetlen mondat, amire a csalóknak szüksége van.

A szakértők azt javasolják, hívjuk vissza az ismeretlen számot, és így azonnal kiderül, azzal beszélünk-e, akinek a hívó fél kiadta magát. 

Az ellenőrzés sosem lehet extra teher, és komoly gyanú esetén forduljunk nyugodtan a rendőrséghez, kérjünk segítséget!

*deepfake: A deepfake technológiával készült tartalmak elsősorban olyan videókat és képeket takarnak, melyeken egy személy arcát más egy másik személyére cserélték, de megmaradt az eredeti arcmozgás. Ennek segítségével hamis, de hihető anyagok készíthetők, amik a politikától a felnőttfilm-iparig sokfelé megjelenhetnek. A cikkben vázolt esetet is a deepfake kategóriához sorolhatjuk.

Hirdetés
Ügyfélszolgálati változás!
Hirdetés

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://pcworld.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.