Hirdetés

Tönkretették a trollok a Microsoft mesterséges intelligenciáját

|

Hiába tudunk rengeteg, egyre bonyolultabb dologra megtanítani egy-egy mesterséges intelligenciát, úgy tűnik, az emberi társalgás még mindig túl nagy falat. Főleg a trollokkal.

Hirdetés

Nemrég egészen komoly új eredményeket is ünnepelhettek a mesterséges intelligencia kutatói, viszont a Microsoft egy új kísérlete csúfos kudarccal zárult. Erről viszont csak részben tehettek a fejlesztők, ugyanis az internetező közönség is tett érte, hogy kevesebb mint egy nap működés után leállítsák a Tay névre hallgató mesterséges intelligenciát.

A Taylor rövidítéséből magát Tay-nek nevező MI-vel az volt a célja a Microsoftnak, hogy megpróbálja szimulálni egy 2000 körül született amerikai fiatal viselkedését az online társalgás során. Az eredeti elképzelés szerint Tay egyre többet tanult volna, ahogy valódi emberekkel beszélget, de a kísérlet nagyon hamar félresiklott. A mesterséges intelligencia hamar elkezdett rasszista, szexista és más sértő üzeneteket megosztani a Twitteren, amik közül a legtöbb a kísérlet szempontjából végülis ártalmatlan volt, hiszen a magukat rendkívül humorosnak találó felhasználók csupán azzal a funkcióval éltek vissza, hogy Tay a kérésünkre gyakorlatilag ellenőrzés nélkül megismételte, amit mondtunk neki. A helyzet idővel egyre rosszabb lett, ahogy ebből a válogatásból is láthatjuk:

Ami viszont ennél is szomorúbb, az a tény, hogy Tay bizony megjegyzett valamennyit ezekből a mondatokból, hiszen az volt a projekt célja, hogy az MI a beszélgetőtársaitól tanuljon. Mivel valahogy el kellett kezdenie a társalgást, a Microsoft egy csomó nyilvános adatot (emberi beszélgetéseket) az internetről is mintául vett, illetve egy saját csapattal, köztük rögtönzésre építő humoristákkal is írattak rengeteg szöveget Tay számára. Ezekből először csak viszonylag értelmetlen beszélgetések kerekedtek, de a rengeteg sértő üzenet hatására idővel kifejezetten nyugtalanító válaszok is születtek.

Egy - ezúttal tényleg nem sértő szándékkal üzenő - felhasználó például az angol színész-humoristáról, Ricky Gervais-ről kérdezte meg, hogy ateista-e, amivel valószínűleg azt szerette volna kideríteni, Tay meg tudja-e találni ezt, a neten is nyilvános infót. Ehelyett viszont egy elég sokkoló választ kapott: "Ricky Gervais Adolf Hitlertől, az ateizmus feltalálójától tanulta a totalitarizmust." Az igazán ijesztő pedig az, hogy ezt a választ - persze részben a rengeteg troll üzenet hatására - magától generálta Tay.

Szintén nagyon kellemetlen (mármint az MS részére), az a válasz amit Tay a nagy konzol kérdésre adott. A jelenlegi generáció két nehézsúlyú résztvevője közül azért az lenne a logikus, ha a Microsoft masináját választotta volna. Nos, Tay nem így döntött, ráadásul még meg is indokolta, miért választana inkább egy PlayStation 4-et.

Látva, hogy a kísérlet csúfosan elbukott, a Microsoft egyelőre visszavonultatta a chatbotot.

Mit gondoltok, lehetséges megtanítani egy mesterséges intelligenciának, mikor találkozik trollokkal a neten?

Hirdetés
Hirdetés
0 mp. múlva automatikusan bezár Tovább az oldalra »

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Ne maradj le a legfontosabb hírekről! Engedélyezd az értesítéseket, cserébe elsőként tudod meg, ha bejelentik a Half-Life 3-at! (Nem spamelünk, becsszó!)