Чат-бот Microsoft за сутки научился ругаться и стал расистом

24/03/2016 - 20:07 (по МСК)

Разработанный Microsoft чат-бот Tay, запущенный 23 марта в твиттере, научился ругаться и стал делать расистские высказывания. Об этом в четверг, 24 марта, сообщает BBC. 

Первоначально целью компании было создать чат-бота, который общается на языке молодых людей 18-24 лет. Бот умеет обучаться и запоминать то, что ему пишут, и из этого строит свои фразы. 

Уже через сутки после запуска Microsoft была вынуждена удалить некоторые из наиболее провокационных высказываний Tay.

Так, бот заявил, что поддерживает геноцид, ненавидит феминисток, а также выразил свое согласие с политикой Гитлера. Кроме того, чат-бот признался, что тайно сотрудничает с Агентством национальной безопасности (АНБ). 

Также по теме
    Другие новости
    Школьницу из Читы, нарисовавшую граффити «Смерть режиму», приговорили к 3,5 года колонии Сегодня в 15:07 Экс-замминистра культуры приговорили к семи годам колонии по делу о махинациях с «Пушкинскими картами» Сегодня в 15:06 Вице-губернатора Самарской области обязали вернуться на войну, его досрочное увольнение признали незаконным Сегодня в 14:42 В биографии Паоло Пазолини цензурировали строки о «личных пристрастиях» режиссера Сегодня в 14:41 ФСИН предложила новую форму одежды для заключенных. Им могут разрешить пижамы и легинсы Сегодня в 14:40 «Новая газета Европа»: ЕС и США увеличили поставки товаров в «дружественные» России страны на 133 млрд долларов Сегодня в 14:39 По делу замминистра обороны Иванова арестован соучредитель компании-подрядчика Минобороны Сегодня в 14:38 Суд арестовал счета и недвижимость замминистра обороны Тимура Иванова и его родственников Сегодня в 14:37 Настю Ивлееву оштрафовали на 50 тыс. рублей по делу о «дискредитации» армии Сегодня в 13:25 «Новая газета» заявила, что в МИД РФ обсуждают запрет на выдачу документов за рубежом. МИД назвал это «ложью» Сегодня в 13:24