Чат-бот Microsoft за сутки научился ругаться и стал расистом

24 марта 2016
3 014

Разработанный Microsoft чат-бот Tay, запущенный 23 марта в твиттере, научился ругаться и стал делать расистские высказывания. Об этом в четверг, 24 марта, сообщает BBC. 

Первоначально целью компании было создать чат-бота, который общается на языке молодых людей 18-24 лет. Бот умеет обучаться и запоминать то, что ему пишут, и из этого строит свои фразы. 

Уже через сутки после запуска Microsoft была вынуждена удалить некоторые из наиболее провокационных высказываний Tay.

Так, бот заявил, что поддерживает геноцид, ненавидит феминисток, а также выразил свое согласие с политикой Гитлера. Кроме того, чат-бот признался, что тайно сотрудничает с Агентством национальной безопасности (АНБ). 

Другие новости
«Мыльте, граждане, веревки»: Шнуров написал стихотворение о валдайской речи Путина Сегодня в 15:01 Русская православная церковь за рубежом разорвала отношения с Константинополем Сегодня в 14:45 Суд отказался отпустить Александра Кокорина из-под ареста Сегодня в 13:45 Главу Фонда кино отправили в отставку Сегодня в 13:45 Мать Александра Кокорина предложила за него залог 10 млн рублей. За его брата — нет Сегодня в 13:26 «Не хватает денег ни на цветы, ни на конфеты». Спикер думы Екатеринбурга предложил повысить компенсации депутатам Сегодня в 13:14 Глава NASA сообщил о временном снятии санкций США с Дмитрия Рогозина Сегодня в 12:44 В Саратове суд отменил приговор матери-одиночке, осужденной за уборку пиццерии Сегодня в 12:51 В Москве подали заявку на «Русский марш» Сегодня в 13:04 «Я его приглашал на другое». Золотов ответил на вызов Навального на дебаты Сегодня в 11:26
Популярное у подписчиков Дождя за неделю