Hirdetés

Kinyírták a trollok a Microsoft chatbotját

|

A Microsoft a sok inzultáló bejegyzés miatt kénytelen volt leállítani a Tay chatbotot.

Hirdetés

A Microsoft le akarta nyűgözni a fiatalokat egy mesterséges intelligenciára építő chatbottal, ami egy amerikai tinilányt alakított, és a 18-24 éves amerikaiakat szórakoztatta. 

Hirdetés

Sikerült is meglepetést okozni, a Tay nevű chatbot ugyanis nem csak alkalmi társalgásra volt jó. A Twitteren, a Kik és a GroupMe üzenetküldőn lehetett vele beszélgetni, a különlegessége pedig, hogy mindig tanult az emberektől, és a tapasztalatait felhasználva személyre szabta magát a beszélgetőpartnerekhez. 

Hirdetés

A netes trollokból persze ezúttal sem volt hiány, és el is lepték a chatbotot. Hamar megtanították olyan dolgokra, amelyekre valószínűleg nem volt szüksége. 

Miután rasszista kommenteket kezdett ismételgetni, a nyelvezetet a saját tweetjeibe ültette. 

A rasszista és szexista chatbot gyűlölte a feministákat, a zsidókat, Mexikót, és rengeteg mást is - Hitlernek viszont aktív támogatója lett. 

Hirdetés

96 000 tweettel később igazi rémálommá változott a Microsoft számára, így a redmondiak végül kénytelenek voltak elhallgattatni. 

A mesterséges intelligencia történelmének érdekes mérföldköve volt ez. 

Hirdetés
Hirdetés
Hirdetés
Hirdetés

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://pcworld.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.