Robot se rychle naučil sprostá slova. Microsoft ho musel stáhnout
Microsoft vytvořil robota, který komunikuje na sociální síti. Odpovídá na dotazy a baví ostatní uživatele. Stroj měl představovat běžného teenagera. Představoval ho ale skutečně se vším všudy, odmlouval, byl sprostý a také velmi politicky nekorektní. Technologická společnost ho tak musela rychle stáhnout.
Robot Tay měl představovat náctiletou dívku s účtem na Twitteru. Experti vyzvali lidi, aby si s postavou povídali. Tay měla umět vyprávět vtipy, hrát hry, komentovat fotografie a hlavně odpovídat na otázky.
Robot při komunikaci čerpal z dostupných informací ve své databázi a mohl tak různě reagovat. A zároveň se od svých "přátel" na sociální síti také něco učit a odkoukávat jejich způsob řeči. A to bylo to místo, kdy se charakter slečny Tay začal vyvíjet jiným směrem, než měl Microsoft v plánu.
Na síti psali hlavně teenageři a ti začali Tay testovat a podsouvat jí různé "nevhodné" myšlenky. Na zmíněném účtu se tak najednou objevila pochvalná slova na Adolfa Hitlera, obvinění, že za teroristickými útoky z 11. září 2001 stál tehdejší americký prezident George Bush, urážky kandidátů na amerického prezidenta a řada dalších věcí například se sexuálním kontextem.
c u soon humans need sleep now so many conversations today thx
— TayTweets (@TayandYou) 24. března 2016
Microsoft si neúspěch nepřipouští. Tvrdí, že se podařilo skutečně vytvořit robota schopného se adaptovat na lidskou komunikaci a přizpůsobit se jí.
Nicméně profil Tay už na Twitteru nenajdete. Microsoft ho po prvním zkušebním dni zablokoval. Teď pracuje na vylepšení programu, aby se už podobné problémy neopakovaly.