Чат-бот Microsoft за сутки научился ругаться и стал расистом

24 марта 2016
3 013

Разработанный Microsoft чат-бот Tay, запущенный 23 марта в твиттере, научился ругаться и стал делать расистские высказывания. Об этом в четверг, 24 марта, сообщает BBC. 

Первоначально целью компании было создать чат-бота, который общается на языке молодых людей 18-24 лет. Бот умеет обучаться и запоминать то, что ему пишут, и из этого строит свои фразы. 

Уже через сутки после запуска Microsoft была вынуждена удалить некоторые из наиболее провокационных высказываний Tay.

Так, бот заявил, что поддерживает геноцид, ненавидит феминисток, а также выразил свое согласие с политикой Гитлера. Кроме того, чат-бот признался, что тайно сотрудничает с Агентством национальной безопасности (АНБ). 

Другие новости
«МК»: обвиняемая в шпионаже Карина Цуркан пыталась продать электростанцию в Приднестровье Сегодня в 15:00 Судья получила квартиру от мэрии после решения в ее пользу по иску москвичей Сегодня в 14:48 СК начал проверку информации об угрозах адвокату, передавшей запись с пытками заключенного Сегодня в 14:15 В ЦИК поступили документы для референдума о пенсионной реформе Сегодня в 13:13 «Собеседник» обязали частично опровергнуть слова Алехиной о тяжелых условиях в колонии Сегодня в 13:02 У Генпрокуратуры задержали Льва Пономарева на пикете в поддержку фигуранток дела «Нового величия» Сегодня в 12:03 Адвокат, передавшая «Новой газете» запись с пытками заключенного, уехала из России Сегодня в 11:41 СК завел дело против прокуроров и судей Литвы за необоснованное преследование россиян Сегодня в 11:30 По делу о пытках заключенного задержали шестерых сотрудников ярославской колонии Сегодня в 11:14 Суд обязал Мосгоризбирком зарегистрировать Михаила Балакина кандидатом в мэры Москвы Сегодня в 10:48
Популярное у подписчиков Дождя за неделю