Hirdetés

Virtuális embert készít a Samsung

|

A koreai cég egyik leányvállalatának újdonsága összeereszti a Sirit, az okos chatbotokat és a deepfake technológiát, ráadásul napokon belül be is mutatják.

Hirdetés

Az elmúlt hetekben a STAR Labs nevű Samsung leányvállalat egyre-másra pakolt ki különféle teasereket egy Neon nevű projekttel kapcsolatban, és egyelőre annyit lehet róla biztosan tudni, hogy a hamarosan induló CES 2020 kiállításon lerántják róla a leplet. Na meg persze olyan meghatározásokat lövöldöztek felénk, hogy ez egyfajta "mesterséges ember" lesz (egészen pontosan ezt, tehát az "artificial human" megnevezést használták az előzetesekben). De mégis mi ez, jön a robotok támadása, a Skynet és az apokalipszis? Naná, hogy nem.

Hirdetés

Hivatalos részről nincs a fentieknél bővebb információ, de az eddig megszellőztetett adatok alapján egy olyan CGI technológiáról lehet szó, amelyben összeeresztik a mesterséges intelligencia alapú chatbot megoldásokat és a gépi tanuláson alapuló képfeldolgozást, hogy egyfajta avatár megoldást hozzanak létre. Ezt pedig sokféle módon fel lehet használni; például emberi hanggal, gesztusokkal és vonásokkal ellátott robot-recepciósok fogadhatnak minket egy hotelben, ilyen segédek intézhetik a repülőtéri jegyvásárlást és poggyászfeladást, kezelhetik a panaszainkat egy tömegközlekedési állomáson, de akár a most még leginkább hanggal kommunikáló személyi asszisztensek (lásd Alexa, Siri és a többiek) helyébe is léphetnek.

Az alábbi videót lehet, hogy nemsokára eltávolítják a YouTube-ról, de addig érdemes megnézni, mert úgy tűnik, sok minden kiszivárgott a projektről, méghozzá azáltal, hogy egy túlbuzgó érdeklődő szépen átvizsgálta a Neon weboldalának forráskódját és több videóra mutató linket is talált. Ebből pedig összerakható, hogyan is néz majd ki a Neon:

Mindaz alapján, ami itt látható, úgy tűnik, nem teljesen számítógéppel generált műemberekről lesz szó, hanem valós modellek mozdulatait, arcát, gesztusait és mimikáját térképezték fel, majd a deepfake-hez hasonló technológiát használva ezek alapján vezérlik a virtuális karakterek mozgását és viselkedését. A Neon vezetője korábban a Core R3 kifejezést is használta egy tweetjében. Ez a reality, realtime és responsive szavakból alkotott fogalom, ami előre vetítheti, hogy a Neon "valósághű műemberei" teljesen élőnek néznek majd ki, valós időben generált reakciókra épülnek, és az emberi utasításokra, kérdésekre és egyéb jelzésekre válaszolva működnek majd.

Kíváncsiak vagyunk a végeredményre és arra is, lesz-e már konkrét felhasználási módja a technológiának. Ti hol látnátok szívesen ilyen virtuális embereket? Vagy ez az egész már teljesen Black Mirror, és inkább kicsit kényelmetlen érzés? Fejtsétek ki a hozzászólások között!

Hirdetés
Ügyfélszolgálati változás!
Hirdetés

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://pcworld.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.