Hirdetés

Nem csak a társadalomra, a bolygóra is veszélyes a mesterséges intelligencia



|

Teljesen új kihívást jelent a klímaváltozás elleni harcban a tömegek által használt generatív modellek megjelenése.

Hirdetés

A gépi tanuláson alapuló generatív szolgáltatások körül most épp ugyanakkora, vagy talán még nagyobb is a felhajtás, mint pár éve a kriptovaluták és az NFT-k körül volt, azokkal ellentétben viszont a legújabb üdvöske kapcsán már nem sokan kételkednek benne, hogy valóban komoly változásokat hozat az emberiség mindennapjaiba. Aki nem hiszi, az bármikor elindíthatja a ChatGPT-t vagy a Bing Chatet, és olyan dolgokat kérhet tőlük, ami néhány hónapja még elképzelhetetlen volt, legyen szó egy orvosi vizsga teljesítéséről, egy forgatókönyv megírásáról vagy egy szimulált állásinterjú levezényléséről, ha pedig ezzel végzett, bekopoghat mondjuk az Adobe Firefly-hoz is egy parancsra előállított festményért.

A tech ipar meg is érezte változás szelét, és egyetlen, hatalmas testként hasalt rá a témára: a Microsoft több milliárd dollárt fektetett a ChatGPT és a DALL-E 2 képgenerátor mögött álló OpenAI-ba, a Bard chatbottal nyomuló Google épp most készül új alapokra helyezni az évtizedek óta változatlan keresési élményét, Elon Musk több ezer Nvidia kártyával épít saját "igazságkereső" mesterséges intelligenciát, mindeközben pedig Kína is sürgeti a rivális algoritmusok kifejlesztésére a szoros ellenőrzés alatt tartott technológiai szektorát.

A lendület tehát óriási, a megválaszolatlan kérdések száma viszont még az MI-be ömlő pénz mennyiségén is túltesz. A gépi tanuláson alapuló modellek színre lépése ugyanis nemcsak a munkahelyeket, a távgyógyítást vagy az oktatást formálhatja át, de egyelőre azt sem látni, hogy hosszú távon milyen veszélyt jelentenek az emberiségre az őrületes tempóban tökéletesített algoritmusok. A tech szektor néhány prominens szereplője emiatt márciusban nyílt levélben követelt fél éves moratóriumot a vonatkozó fejlesztésekre, majd a mesterséges intelligencia keresztapjaként számontartott tudós, Geoffrey Hinton is megkondította a vészharangot, aki szerint a nagy nyelvi modellek bizonyos szempontból már most is leköröztek minket.

Hirdetés

És mi lesz a Földdel?

A Terminátor-filmek vonalán mozgó borúlátó jövendölések mindezzel jóval nagyobb figyelmet kapnak, mint egy másik, kézzelfoghatóbb probléma, nevezetesen az MI hatása a klímaváltozásra. A ChatGPT-hez hasonló technológiáknak ugyanis már a betanítása is óriási mennyiségű energiát emészt fel, hozzájárulva ezzel a globális felmelegedéshez. A Nemzetközi Energiaügynökség számításai szerint a világszerte üzemelő adatközpontok már jelenleg is nagyjából a globális energiaszükséglet 1,3%-áért felelősek, a hagyományos online szolgáltatásoknál jóval nagyobb számítási kapacitást igénylő generatív modellek pedig egészen biztosan növelni fogják ezt az arányt.

A Google oregoni adatközpontja, a létesítmény hűtésekor keletkező gőzfelhővel
A Google oregoni adatközpontja, a létesítmény hűtésekor keletkező gőzfelhővel

Legutóbb a Pure Storage nevű memóriagyártó vezérigazgatója nyilatkozott arról, hogy az MI teljesen felboríthatja az adatközpontok fenntarthatóságával kapcsolatos tudásunkat, és más szakértők is hasonló véleményen vannak. A Wired még februárban publikált egy cikket, melyben többek között Alan Woodward, a Surrey Egyetem kiberbiztonsági professzora hívta fel a figyelmet arra a korszakváltásra, amit a hagyományos keresőmotorokba beépülő generatív mesterséges intelligencia jelent:

"Az internetes tartalmak indexelése és keresése már most is hatalmas erőforrásokat igényel, de a mesterséges intelligencia beépítése egészen másfajta tűzerőt követel. Az MI-nek számítási teljesítményre, tárolásra és hatékony keresésre van szüksége. Minden alkalommal, amikor egy lépésnyi változást látunk az online feldolgozási folyamatokban, az a nagy feldolgozóközpontok által igényelt energia- és hűtési erőforrások jelentős növekedését hozza magával. Úgy gondolom, hogy ez [az MI megjelenése az egyenletben - a szerk.] egy ilyen lépés lehet."

- véli Woodward.

Ahogy arra kicsit feljebb is utaltunk, a probléma már az algoritmusok betanításánál jelentkezik. A fejlesztéseket végző cégek ugyan gondosan titkolják, hogy pontosan mennyi erőforrást is igényel az egész internetet átfésülve létrehozott nagy nyelvi modellek trenírozása, egy külső szereplők által végzett kutatás viszont úgy becsüli, hogy az OpenAI egy korábbi technológiája, a GPT-3 felokosítása 1287 MWh-nyi energiát igényelt, amely több mint 550 tonnányi szén-dioxidot bocsátott a levegőbe. A tanulmány a Google Flights adatai alapján azt írja, hogy ez háromszor annyi CO2, mint amennyit egy utasszállító repülőgép produkál New York és San Francisco között egy oda-vissza úton.

Az igazi fogyasztás viszont csak ezt követően kezdődik, amikor az MI olyan szolgáltatásokban áll munkába, amelyeket tömegek használnak. Ez pedig már meg is történt, hiszen a ChatGPT és a Bing Chat hónapokkal ezelőtt átlépték a 100 millió felhasználós álomhatárt, és nem lehet kétségünk afelől, hogy a sebtében elérhetővé tett Google Bard is ebbe az irányba halad. Martin Bouchard, a QScale szervervállalat társalapítója a Wired kérdésére válaszolva úgy nyilatkozott, hogy az eddig alkalmazott hagyományos megoldáshoz képest az MI-vel megtámogatott keresés akár ötszörös számítási kapacitást is igényelhet minden egyes kérés teljesítésekor.

"A helyzet határozottan nem olyan rossz, mint a közlekedés vagy a textilipar esetében, de az MI jelentősen hozzájárulhat a szén-dioxid kibocsátáshoz."

- fűzte hozzá a témához Gómez Rodríguez, a spanyol Coruna Egyetem informatikusa. Ha tehát nagyon le akarjuk egyszerűsíteni a képletet, a meglévő keresőmotorok algoritmusközpontú modellváltása olyan, mintha hirtelen tömegesen kezdenénk el olyan autókkal járni, melyeknek nemcsak a legyártása jár jóval nagyobb szennyezéssel, de használat közben is több üzemanyagot kérnek.

Fények az alagút végén

Nem nehéz tehát belátni, hogy egy komoly kihívással állunk szemben, miközben már jelenleg is gondot jelent a szerverparkok működtetése, elég csak felidézni a tavaly nyári rekkenő hőséget, amikor az elégtelen hűtés miatt a Google és az Oracle létesítményeiben is üzemzavarok jelentkeztek. A jó hír azonban az, hogy nem teljesen reménytelen a helyzet, a mesterséges intelligencia által meghatározott korszakban is lehet tenni az iparág kizöldítéséért.

Az osztrák közmédia, az ORF a Bécsi Műszaki Egyetem munkatársát, Ivona Brandicet kérdezte meg a témában, aki felhívta rá a figyelmet, hogy az adatfeldolgozó központok jelentette környezeti terhelés nagyban függ a földrajzi helytől, ahol azok üzemelnek. Amennyiben az adott területen megfelelő mennyiségű megújuló energia áll rendelkezésre, akkor a szerverek is ártalmatlanul végezhetik a munkájukat. Brandic emellett úgy véli, hogy később a Neumann-elvtől eltérően működő kvantumszámítógépek és neuromorfikus komputerek is jelentős előrelépést hozhatnak az energiahatékonyság terén. Azt azonban a szakértő is leszögezi, hogy az MI-vel egy teljesen új energiaigény jelentkezik, ezért szerinte azt is át kell gondolni, hogy egyáltalán milyen területeken érdemes bevetni ezt a technológiát, az embereket pedig meg kell tanítani a mesterséges intelligencia felelős használatára.

A Microsoft Bing Chat már nem csak asztali felületen, de mobilon is elérhető, a hangalapú kommunikáció támogatásával.
A Microsoft Bing Chat már nem csak asztali felületen, de mobilon is elérhető, a hangalapú kommunikáció támogatásával.

A kihívás megoldása pedig a trendet fűtő vállalatoknak is elemi érdekük, hiszen az MI-verseny legbuzgóbb résztvevője, a Microsoft korábban vállalta, hogy 2050-re negatív lesz a működése a szén-dioxid kibocsátás szempontjából, a Google pedig 2030-ra tűzte ki a zéró nettó kibocsátás elérését. A generatív modellek megjelenése ugyan alaposan átírta a játékszabályokat, de a neurális hálózatok hatékonyságának javítása is sokat segíthet a célok megvalósításában. A gyakorlatban ez az új adatok feldolgozásához szükséges idő lefaragásával valósul meg, amit a szakzsargonban következtetési időnek (inference time) neveznek.

"Azon kell dolgoznunk, hogyan csökkenthetjük az ilyen nagy modellekhez szükséges következtetési időt. Itt az ideje, hogy a hatékonysági szempontokra összpontosítsunk."

- adta ki az ukázt a Wired hasábjain a Nafise Sadat Moosavi, a Sheffieldi Egyetem természetes nyelvi modellekkel foglalkozó előadója, a fenntartható természetes nyelvi feldolgozás kutatója.

Mindent összegezve tehát a keresőmotorokba integrálódó generatív modellek messze nem csak az életünk megkönnyítésével kecsegtetnek, hanem többfrontos háborút is nyitnak az emberiség számára az olyan kérdésekben, mint a negatív társadalmi hatások kivédése, a biztonságos működés garantálása és a fenntarthatóság. S hogy miként nézünk szembe ezekkel, az jó esetben már az előttünk álló években szilárd formát ölt majd, rosszabb esetben viszont csak utólag kezdünk kapkodni, ahogy az a globális felmelegedés elleni harcban is történt.

Hirdetés

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://www.pcwplus.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.