Hirdetés

Lehet egy robotnak lelkiismerete?



|

Amerikai kutatók olyan gépemberek kifejlesztésén dolgoznak, amelyek képesek lesznek morális alapon döntéseket hozni.

Hirdetés

Isaac Asimov Körbe-körbe című novellájában két, a Merkúron dolgozó kutató nehéz helyzetbe kerül, amikor kiderül, hogy a bázisukat működtető gépek lassan kifogynak az üzemanyagból. Sebit, a robotot, bízzák meg, gyűjtsön szeléniumot, hogy rendbehozhassák a hőszigetelést. Miután órákig hiába várják, a nyomába erednek, és felfedezik, hogy a robot körbe-körbe szaladgál a lelőhely körül és értelmetlen zagyvaságokat kiabál.

Hirdetés

Hamar kiderül, hogy Sebi morális dilemmába esett. A robotika asimovi törvényei arra kötelezik, hogy engedelmeskedjen a gazdáinak, de magában sem tehet kárt – márpedig veszélyes helyről kellene elhoznia az értékes nyersanyagot. Mivel nem elég pontosan és határozottan adták ki neki a parancsot, nem tudja eldönteni, mit tegyen. „Egyensúlyi helyzet áll elő. A harmadik törvény visszakergeti Sebit, a második viszont a lelőhely felé hajtja” - állapítja meg a novella egyik szereplője.

Sebi dilemmája a mi dilemmánk is

Asimov története 2015-ben játszódik. És bár jövőre biztosan nem fogunk robotokat küldeni a Merkúrra, az egyre szofisztikáltabbá váló automaták évről-évre fontosabb szerepet játszanak az életünkben. Az autonóm autókat már kifejlesztettük, a drónok után hamarosan a katonai robotok is megjelenhetnek a hadszíntereken, és a házimunkában segédkező robotcselédek elterjedése sem várathat sokáig magára. Küszöbön áll az emberekkel együttműködő, együtt dolgozó és egy háztartásban élő robotok kora. Egy világ, amelyben fémből és szilíciumból szerkesztett segítőink is óhatatlanul szembesülni fognak a maguk morális kihívásaival. „Nem telik bele sok idő, és egy önvezető autó is olyan helyzetben találhatja magát, amelyet az erkölcstan csak »villamosdilemmaként« emleget” – írta a The Verge-ön megjelent cikkében Addrianne Jeffreis.

Robotcselédek segíthetnek a házimunkában

A villamosdilemmát Philippa Foot brit filozófus találta ki. A probléma a következő: egy elszabadult villamoskocsi száguld egy vágányon, amin öt összekötözött ember fekszik. A vagon mindenképpen halálra gázolja őket, ha változatlan irányban halad tovább. Egy váltó segítségével átirányíthatjuk a kocsit egy másik sínre – igen ám, csakhogy azon is fekszik egy gúzsba vert ember. A kérdés, hogy helyes-e megmenthetünk öt embert egy hatodik élete árán.

A villamosdilemmára nem lehet igazán jó választ adni. De még ha lehetne is: számos robotikával foglalkozó kutató szerint nagyon nehéz előre felvázolni minden lehetséges forgatókönyvet és beprogramozni, mit tegyen egy robot az adott szituációkban. „Szinte lehetetlen egy olyan, »ha, akkor, egyébként« szabályokból álló, komplex rendszert felépíteni, amely valamennyi lehetséges helyzetet lefedi – mondta Matthias Scheutz, a Tufts University komputertudománnyal foglalkozó szakértője. – Épp emiatt olyan nehéz megoldani ezt a problémát. Egyszerűen nem lehet számba venni az összes felmerülő körülményt és a reakciót.”

Morális döntések és racionális érvelés

Scheultz ehelyett olyan robotokat próbál kifejleszteni, amelyek képesek végiggondolni egy, a fentihez hasonló, morális természetű döntést. Csapatával a közelmúltban nyerte el az USA Haditengerészeti Kutatóhivatalának (ONR) 7,5 millió dolláros ösztöndíját: azt szeretnék kideríteni, pontosan milyen folyamatok játszódnak le az emberi agyban, amikor ilyen döntéseket kell meghoznia. Ha sikerrel járnak, megpróbálják lemodellezni, és a gépemberek szilíciumagyába is átültetni ezeket a folyamatokat.

Egy autonóm autónak is lehetnek dilemmái

Az ötéves projekt végén a kutatóknak be kell mutatniuk egy morális döntéshozásra képes robotot. Velünk dolgozó géptársaink komoly erkölcsi dilemmákkal szembesülhetnek majd a jövőben. Mit tegyen például egy robotszanitéc, ha miközben egy életmentő gyógyszerszállítmányt kell sürgősen elszállítania a tábori kórházba, súlyosan sérült katonával találkozik? Álljon meg, és lássa el a sebesültet vagy a parancsnak megfelelően késedelem nélkül szállítsa le a gyógyszereket a kórházba?

Scheultz és munkatársai szempontjából nem is az az igazán érdekes kérdés, milyen döntést hoz a robot. Inkább az, hogy képes-e egyáltalán a körülményeket mérlegelve olyan, morális alapokon nyugvó döntést hozni, amelyet később meg tud indokolni. „A robotok egyre összetettebbé, egyre kifinomultabbá és egyre önállóbbá válnak – húzta alá a tudós. – Éppen ezért nagyon fontos, hogy elkezdjük ezt a kutatást. Nyilvánvalóan nem akarunk olyan társadalmat építeni, amelyben érzéketlenek, az erkölcsi konfliktusokkal szemben közönyös robotokkal kell együtt élnünk.”

Robot-erkölcstan

Scheultz teamje nem az egyetlen, amely hasonló problémákkal foglalkozik. Ron Arkin, a Georgia Institute of Technology professzora, aki korábban a hadseregnek is dolgozott, már évekkel ezelőtt összeállított egy robotoknak szánt erkölcsi kódexet. „Etikai irányelveit”, amelyek leginkább Asimov híres robotikai törvényeihez hasonlíthatók, azért alkotta meg, hogy kordában tarthassák a harctéri robotokat.

A robotok egyre kifinomultabbak és önállóbbak lesznek

Arkin csapata egy új megközelítéssel pályázott az ONR-ösztöndíjra: ahelyett, hogy egy, az „etikai irányelvekhez hasonló”, szabályokra épülő rendszerben keresnék a megoldást, inkább a kisgyerekek morális fejlődését tanulmányoznák. Az így szerzett ismereteket aztán integrálnák a Soar-architrektúrába; ez a rendkívül népszerű, robotok számára kifejlesztett kognitív rendszer a problémamegoldást és az átfogó célok megfogalmazását, megvalósítását támogatja. Arkin azt reméli, hogy bár nem ők nyerték el a támogatást, előbb-utóbb mégis lehetőségük nyílhat a terv egyes részeinek megvalósítására. Sajnos, nem lesz könnyű dolguk, a „robot-erkölcstan” ugyanis nem tartozik a legjobban finanszírozott kutatási területek közé.

A kutatók szerint a robotok egy nap több és összetettebb morális számítás elvégzésére lesznek képesek, mint mi magunk, így jobb döntéseket hozhatnak majd. Egy sofőrnek például nincs ideje arra, hogy egy karambol előtt, egy másodperc töredéke alatt kiszámítsa, mekkora kárt tehet a többi közlekedőben, ha jobbra vagy balra rántja a kormányt.

Helyes és helytelen

Persze, nem az az egyetlen kérdés, hogy hogyan tehetjük képessé a robotokat a morális mérlegelésre. Előbb azt is ki kellene találnunk, hogy gyűjtsék össze az ehhez szükséges adatokat; például azt, hogy hány ember van körülöttük, és hogy az egyes emberek milyen szerepet játszanak egy adott helyzetben. Nem lesz egyszerű olyan robotokat kifejleszteni, amelyek a harcmezőn képesek megkülönböztetni a barátot az ellenségtől, vagy egy katasztrófa helyszínén felmérni, milyen fizikai és mentális állapotban vannak a sérültek.

Egyelőre nem tudni, lesz-e haszna ezeknek a kutatásoknak
 

Egyelőre nem tudni, lesz-e haszna a morális döntéshozó rendszerek kifejlesztésére irányuló kutatásoknak. Könnyen meglehet, hogy azok a robotok teljesítenek majd jobban az ilyen krízishelyzetekben, amelyek jól megfogalmazott, átfogó szabályok szerint működnek. Asimov novellájának végén a két tudósnak csak azzal sikerül kizökkentenie Sebit a „végtelen hurokból”, hogy a robotika első és legfontosabb törvényét hívják segítségül: „a robotnak nem szabad kárt okoznia emberi lényben, vagy tétlenül tűrnie, hogy emberi lény bármilyen kárt szenvedjen”.

Egyikük szándékosan kiteszi magát a merkúri nap pusztító sugarainak, mire Sebi végre legyűri zavarodottságát és a segítségére siet. A robot nem győz bocsánatot kérni – bár valójában nem felelős, hiszen rabja a programjának. Ráadásul, ahogy Arkin fogalmazott, bizonyos helyzetekben bizony „tényleg nehéz eldönteni, mi a helyes és mi a helytelen.”

Hirdetés

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://www.pcwplus.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.