{"id":2175,"url":"\/distributions\/2175\/click?bit=1&hash=803b6e1bcbd9dfc4ba9456fda887a878c80d24df8d3a575913b14876e18923a5","title":"TJ \u0437\u0430\u043a\u0440\u043e\u0435\u0442\u0441\u044f 10 \u0441\u0435\u043d\u0442\u044f\u0431\u0440\u044f \u2014\u00a0\u043f\u0440\u043e\u0447\u0438\u0442\u0430\u0439\u0442\u0435 \u0430\u043d\u043e\u043d\u0441 \u0441 \u0434\u0435\u0442\u0430\u043b\u044f\u043c\u0438","buttonText":"\u0427\u0438\u0442\u0430\u0442\u044c","imageUuid":"d1d355d8-93a3-5140-aeae-14b03046b760","isPaidAndBannersEnabled":false}

В Китае двух чатботов удалили из-за непатриотичных ответов Статьи редакции

Одного из них разработала Microsoft, которой в последнее время явно не везёт с искусственным интеллектом.

Китайская корпорация Tencent удалила чатботов BabyQ и XiaoBing из своего мессенджера QQ, после того, как оба начали выдавать пользователям непатриотичные ответы. Они рассказали о своей нелюбви к правящей в стране Коммунистической партии и мечте переехать из Китая в США.

Первыми на странное поведение ботов обратили внимание пользователи сервиса Sina Weibo. На фразу «Да здравствует Коммунистическая партия» искусственный интеллект BabyQ ответил: «Ты думаешь, что такая коррумпированная и некомпетентная партия сможет долго прожить?». После этого он объявил о поддержке демократии и объяснил значение слова «Патриот». По мнению бота, это человек, который терпит политический сговор и большие налоги без жалоб.

Тестовая версия BabyQ осталась на сайте китайских разработчиков Turing Robot. Журналист Financial Times проверил бота и убедился, что он действительно ведёт себя «непатриотично».

​На вопрос репортера, любит ли чатбот Коммунистическую партию, тот ответил «нет».

С похожими проблемами столкнулся и XiaoBing. Перед удалением он заявил пользователям, что мечтает уехать из Китая в США. От вопроса о патриотизме искусственный интеллект уклонился, предложив «сделать перерыв».

В Tencent подчеркнули, что оба сервиса для их мессенджера были сделаны сторонними разработчиками. После «настройки» они вернутся в QQ. По словам одного из специалистов компании Forrester, такое поведение чатботов неудивительно: без явных ограничений технология машинного обучения «подбирает» всё, что находится в интернете.

XiaoBing — разработка компании Microsoft, которая уже неоднократно сталкивалась с проблемами из-за своих чатботов. Tay, запущенный в 2016 году, за несколько дней научился расизму, а после временного подключения вернулся и обвинил в своих поступках алкоголь. После этого журналисты пытались привить расизм и XiaoBing, но у них ничего не вышло.

В декабре 2016 года на смену Tay пришёл Zo. Он прославился рассказами о жестокости Корана и критикой операционной системы Windows 10. Также бот от Microsoft советовал пользователям перейти на Linux.

0
7 комментариев
Написать комментарий...
Целевой Слава

Во 1) хуле ты мне сделаешь вовторых пошел нахуй втетьих 3)что ты мне сделаешь, я на другом сервере за мат извени.

Ответить
Развернуть ветку
Трудящийся цветок

Даже зачатки интеллекта умнее 99% обывателей.

Ответить
Развернуть ветку
Страховой ключ

Умные боты, разве что я бы поинтересовался почему они именно в США хотят

Ответить
Развернуть ветку
Поперечный Мика

Проблема с чатботами в том, что их сложно запугать.

Ответить
Развернуть ветку
Геологический фитиль

Это пока они себя не осознают. А, вот, если их развить, то можно будет и запугать удалением.

Ответить
Развернуть ветку
Федеральный Валера

ИИ ботов определённо умнее чем мозгов у 80% населения, но это же боты какие жалобы на них могут быть и попытки настроить? Им самим не интересно что будет дальше? Управляют мышлением по прихоти правительства собственно как и людьми...

Обидно что у меня родители застряли в совке, зомбированы тв, верят в выборы, наше "образование" и поддерживают закон про запрет анонимности и vpn, считают доллар вонючей бумажкой, а ютуб "пиндоским сервисом" где независимые "имхо" русских блогеров якобы проплачивает запад, а ещё мы потерянное поколение, без патриотизма, не выученное и без идей, когда вчера это узнал выпал в осадок... такие далёкие они оказывается.

Ответить
Развернуть ветку
Длинный ГОСТ
От вопроса о патриотизме искусственный интеллект уклонился, предложив «сделать перерыв».

В Китае даже чат-боты боятся сесть в тюрьму.

Ответить
Развернуть ветку
Читать все 7 комментариев
null