Искусственный интеллект Microsoft всего за сутки стал воплощением зла
ОБО ВСЕМ
Пару дней назад компания Microsoft запустила в твиттере искусственный интеллект Tay, который отвечает на все вопросы пользователей в этой социальной сети. Чат-бот обучался, запоминал информацию, но фразы строил на уровне языка современной молодой девушки (судя по аватарке) 18-24 лет.
Уже через сутки после запуска создатели были вынуждены удалить некоторые из наиболее провокационных высказываний своего творения, чтобы не попасть под блокировку. Tay выразила поддержку геноциду, террористическим атакам в Бельгии, также она уже ненавидит феминисток и выразила свое полное согласие с политикой Гитлера. Конечно, все это шутки (местами очень неудачные) и сами пользователи научили чат-бота всем этим плохим вещам, но некоторые фразы действительно вызывают удивление.
Показательно, что один из пользователей обозвал Тау "тупой машиной", на что получил ответ "Ну, я учусь у лучших Если ты не понял, давай я тебе все разъясню. Я учусь у тебя, так что ты тоже тупой".
Увы, но создатели чат-бота стерли память Tay и отправили "спать", так что пообщаться с ней пока не получится. Немалое количество пользователей выступили против и уже требуют вернуть Тау, чтобы ей позволили самой попробовать научиться отличать плохое от хорошего. Следить за развитием событий можно по тегу #justicefortay.
Кстати, на вопрос о лучшей игровой консоли Tay ответила, что "ps4 дешевле и лучше".
Смотрите оригинал материала на http://www.goha.ru/news/all