Чат-бот Microsoft за сутки научился ругаться и стал расистом

24 марта 2016
3 012 1

Разработанный Microsoft чат-бот Tay, запущенный 23 марта в твиттере, научился ругаться и стал делать расистские высказывания. Об этом в четверг, 24 марта, сообщает BBC. 

Первоначально целью компании было создать чат-бота, который общается на языке молодых людей 18-24 лет. Бот умеет обучаться и запоминать то, что ему пишут, и из этого строит свои фразы. 

Уже через сутки после запуска Microsoft была вынуждена удалить некоторые из наиболее провокационных высказываний Tay.

Так, бот заявил, что поддерживает геноцид, ненавидит феминисток, а также выразил свое согласие с политикой Гитлера. Кроме того, чат-бот признался, что тайно сотрудничает с Агентством национальной безопасности (АНБ). 

Купить подписку
Комментарии (0)

Комментирование доступно только подписчикам.
Оформить подписку
Другие новости
Умер один из создателей российского интернета Сегодня в 09:03 ЦБ отозвал лицензию у банка «Русский инвестиционный альянс» Сегодня в 08:40 Украинский хакер стал первым свидетелем по делу о кибератаке на Демократическую партию в США Сегодня в 07:58 Около трети опрошенных Pew Research Center жителей 37 стран назвали Россию угрозой Сегодня в 07:06 Минсельхоз предложил уничтожать не соответствующие требованиям Таможенного союза продукты Сегодня в 06:12 Эксперты предупредили об ограничении доли иностранцев в сотовых операторах из-за поправок Минкомсвязи Сегодня в 05:38 В Подмосковье особняк выставили на продажу за биткоины Сегодня в 05:07 Роспотребнадзор предупредил о случаях заражения бубонной чумой в США Сегодня в 04:16 Пожар на складе в Медведково локализовали Сегодня в 03:36 Прокуратура начала проверку по факту пожара на складе на севере Москвы Сегодня в 02:53
Читайте и смотрите новости Дождя там, где вам удобно
Нажав кнопку «Получать рассылку», я соглашаюсь получать электронные письма от телеканала Дождь и соглашаюсь с тем, что письма могут содержать информацию рекламного характера