Чат-бот Microsoft за сутки научился ругаться и стал расистом

24 марта 2016
3 011 1

Разработанный Microsoft чат-бот Tay, запущенный 23 марта в твиттере, научился ругаться и стал делать расистские высказывания. Об этом в четверг, 24 марта, сообщает BBC. 

Первоначально целью компании было создать чат-бота, который общается на языке молодых людей 18-24 лет. Бот умеет обучаться и запоминать то, что ему пишут, и из этого строит свои фразы. 

Уже через сутки после запуска Microsoft была вынуждена удалить некоторые из наиболее провокационных высказываний Tay.

Так, бот заявил, что поддерживает геноцид, ненавидит феминисток, а также выразил свое согласие с политикой Гитлера. Кроме того, чат-бот признался, что тайно сотрудничает с Агентством национальной безопасности (АНБ). 

Купить подписку
Показать комментарии (1)
Другие новости
Число магазинов и кафе на Садовом кольце в Москве сократилось до минимума Сегодня в 09:56 На координатора штаба Навального в Барнауле напали с ножом Сегодня в 09:34 ФСБ заявила об использовании террористами Telegram перед взрывом в Санкт-Петербурге Сегодня в 08:12 Президент Колумбии сообщил о 6 погибших при крушении судна Сегодня в 08:00 Большинство россиян поставили Сталина на первое место в рейтинге самых выдающихся людей в мире Сегодня в 07:14 Хакеры разместили на сайтах правительства Огайо сообщения в поддержку ИГ Сегодня в 06:16 BuzzFeed анонсировал отставку посла России в США Сергея Кисляка Сегодня в 05:19 «Коммерсантъ» узнал об отказе ЕР от использования цитат Путина в региональных предвыборных кампаниях Сегодня в 05:06 Дуров объяснил, где хранятся ключи для расшифровки переписки в Telegram Сегодня в 04:08 The Financial Times узнала о покупке фондом Фридмана британской сети за $2,3 млрд Сегодня в 03:42
Читайте и смотрите новости Дождя там, где вам удобно
Нажав кнопку «Получать рассылку», я соглашаюсь получать электронные письма от телеканала Дождь и соглашаюсь с тем, что письма могут содержать информацию рекламного характера