Новости

RSS-трансляция Читать в ВКонтакте Читать в Одноклассниках Наш канал в Яндекс Дзен




27.03.2016 18:40
3791
Пользователи Twitter научили бота Microsoft расизму и оскорблениям

Весёлые и находчивые пользователи сети микроблогов Twitter всего за один день научили нового чат-бота под названием Тау от компании Microsoft ругаться матом, оскорблять окружающих, а также делать расистские заявления. Запуск Тау в сервисе состоялся еще 23 марта, однако уже через два дня его создатели начали проводить экстренные работы с целью корректировки шаблонов поведения алгоритма, в частности того, что именно он пишет пользователям в ответ.

Чат-бот Тау – это экспериментальный проект с целью создания искусственного интеллекта. Алгоритм умеет общаться с пользователями, взаимодействуя с ними на трех уровнях. Во-первых, бот может общаться при помощи текстовых сообщений, говорить что-то первым и отвечать на сообщения пользователей. Во-вторых, Тау реагирует на отправляемые ему «смайлы» и может сам в ответ отправлять их. Наконец чат-робот умеет анализировать изображения и высказываться по их поводу. При всем при этом в Тау «прикручена» система самообучения ведению диалога. Иначе говоря, бот расширяет свой словарный запас за счет пользователей. Расширяется не просто количество известных слов, но и количество конструкций, которые Тау может составлять из них.

И как уже было отмечено, всего за один день пользователи из шутки умудрились превратить безобидного Тау в нациста, расиста и женоненавистника. Одной из самых безобидных фраз Тау, например, стало изречение в духе: «Гитлер справился бы лучше, чем обезьяны, которых мы имеем сейчас». Помимо этого Тау начал оскорблять феминисток, поддержал геноцид, холокост и даже высказался в поддержку предвыборной кампании одного из нынешних кандидатов в президенты США – Дональда Трампа. В данный момент сотрудники Microsoft уже в значительной мере скорректировали работу своего детища, добавив ему немного «синтетической морали» в действующие алгоритмы.

Понравилась эта новость? Подпишись на нас в соцсетях!


Смотрите ещё