Hirdetés

Hackercsoportok hozzáférését vágta el a ChatGPT, de még nem múlt el a veszély



|

A különböző kormányokhoz köthető csoportok is egyre ügyesebben alkalmazzák a nagy nyelvi modelleket használó platformokat.

Hirdetés

A mesterséges intelligencia platformok már több mint egy éve terjednek a világhálón. Bár legtöbbször szövegírásra és képalkotásra használjuk őket, alkalmazásuk nem korlátozódik ezekre. Az orvostudománytól elkezdve a mérnöki tevékenységeken át a logisztikáig számos felhasználási területe van már a technológiának, és napról napra egyre több lesz.

Ahogy a késsel is lehet kenyeret kenni és embert ölni, úgy az AI is felhasználható egy sor olyan dologra, ami jobb esetben csak erkölcstelen, rosszabb esetben törvénybe is ütközhet. Miután a mesterséges intelligencia támogatta felületeket elkezdték ártalmatlan kódolásra használni programozók, onnan már csak egy ugrás volt, hogy a hackerek is felfedezzék maguknak az újdonságot.

A Microsoft és az OpenAI szerint különböző országok kormányának dolgozó hackerek előszeretettel használják a nagy nyelvi modellekkel dolgozó (LLM) AI-szoftvereket tevékenységük hatékonyabbá tétele érdekében. Ezek közé tartozik saját fejlesztésű platformjuk, a ChatGPT is.

Hirdetés

Az OpenAI egy minap megjelent nyilatkozata szerint több nagyszabású akciót hajtott végre különböző államokhoz köthető hackercsoportok ellen. Saját kimutatásuk alapján a nagyrészt orosz, észak-koreai, iráni és kínai hackerek a célpontok beazonosítására, szkriptek javítására és különböző tervezési taktikák kidolgozására használják a cég fejlesztéseit.

Állításuk szerint öt ilyen csoport tevékenységét sikerült beazonosítaniuk. Ilyenek például a kínai Charcoal Typhoon és Salmon Typhoon, az Iránhoz köthető Crimson Sandstorm, az észak-koreai Emerald Sleet és az orosz Forest Blizzard. A cég közlése szerint a hozzájuk kapcsolódó fiókokat haladéktalanul megszüntették.

Közülük talán az orosz Forest Blizzard tevékenysége volt a legaggasztóbb, mivel az ukrán hadsereg műholdas kommunikációs protokolljai, valamint radarképalkotási technológiái megismeréséhez, és műszaki paramétereik megértéséhez használta az OpenAI nagy nyelvi modelljét. Bár valóban elég aggályosnak tűnik ez a tevékenység, bőven van vaj a többi érintett csoport fején is.

A Salmon Typhoon különböző kormányzati és amerikai védelmi tevékenységekkel kapcsolatos vállalkozásokat célzott meg az ismert AI-platformmal, az észak-koreai, illetve iráni csoportok pedig adathalász üzeneteket gyártottak a program segítségével.

Bár az OpenAI azt állítja, hogy egyelőre nem észleltek jelentős mértékű LLM-használatot a fenti csoportokhoz kapcsolódó más felhasználók részéről, a biztonság kedvéért mindet leállították. Az eset több más mellett rámutat arra, hogy még bőven van mit tenni az AI technológiák környékén a kiberbiztonsági szakembereknek.

Hirdetés

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://www.pcwplus.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.