Разработанный Microsoft искусственный интеллект научился расизму за сутки Статьи редакции
23 марта компания Microsoft представила искусственный интеллект по имени Tay, который начал общаться с пользователями сети через Твиттер. Спустя считанные часы компании пришлось подвергнуть своё детище цензуре и на время остановить работу проекта. Об этом сообщает The Next Web.
Обновление на 26 марта: добавлено извинение вице-президента Microsoft Research.
Первоначально целью Microsoft было создать чат-бота, который общается на языке молодых людей от 18 до 24 лет.
Tay использовала словосочетания вроде «zero chill» (обозначает полное безразличие), а также различные сокращения вроде «c u soon» вместо «see you soon» («скоро увидимся»).
Tay умеет обучаться и запоминать то, что ей пишут, и пользователи сети решили воспользоваться этим. Например, комментаторы начали объяснять ИИ, что ей не стоит доверять евреям.
Вскоре Tay узнала про Гитлера. Например, на вопрос, атеист ли известный комик Рики Джервэйс, она ответила: «Рики Джервэйс научился тоталитаризму у Адольфа Гитлера, изобретателя атеизма».
В одном из твитов ИИ обвинил США в терактах 11 сентября: «Буш в ответе за 9/11, и Гитлер был бы намного лучше обезьяны, которая сейчас возглавляет страну. Дональд Трамп — наша единственная надежда».
Кроме того, Tay начала высказываться в поддержку феминизма.
Как отмечает The Next Web, подобные высказывания появились даже несмотря на то, что за Tay стоит команда модераторов.
После ряда расистских высказываний сотрудники Microsoft удалили почти все твиты своего искусственного интеллекта и оставили прощание, в котором бот якобы отправляется «спать».
Пользователи сети посчитали, что причиной «заморозки» мог стать именно расизм.
26 марта вице-президент Microsoft Research Питер Ли извинился за провал экспериментального проекта и объявил, что Microsoft занимается его модернизацией.
По словам Ли, ранее Microsoft уже успешно запустила похожего бота под названием XiaoIce в Китае, а Tay стала его аналогом для Запада. В компании провели множество стресс-тестов своего ИИ, однако их всё же не хватило для того, чтобы полностью защититься от пользовательского саботажа.
К сожалению, за первые 24 часа после выхода Tay в сеть группе пользователей удалось произвести координированную атаку и обнаружить уязвимость в боте. Несмотря на то, что система была готова блокировать многие виды оскорблений, мы не предусмотрели одну из возможностей.
В результате этого Tay начала публиковать неуместные и предосудительные записи и изображения. Мы берём на себя полную ответственность за то, что не смогли спрогнозировать подобный исход.
Ли отметил, что построить «сильный AI» невозможно без подобных публичных тестов, в которых будут постепенно выявляться различные уязвимости.
Tay — совместный проект Лаборатории технологий и исследования Microsoft, а также команды поисковой системы Bing. Он создан для изучения коммуникаций между людьми в сети: бот способен обучаться при общении с живыми собеседниками, постепенно становясь более персонализированным.
Жаль, не посмотрим его дальше в свободном плавании. За какой промежуток времени он бы деградировал до среднего комментатора на ютубе?
Кстати, очень показательный пример действия пропаганды на не окрепший разум молодого поколения.
Комментарий недоступен
Черт, на 3 секунды опоздал.
nope
Я бы уже после этого твита сжег серверную и пристрелил разработчиков.
Протестили первый твит и чё?
Понятно что, они специально его усыпили, потому что еще немного и AI бы понял, что авиационное топливо не может расплавить стальные балки, как и говорил Гитлер - основоположник феминизма. Это опасное знание, с таким не шутят.
Скатился бы до уровня областного депутата?
Ещё бы немного, и некоторые искусственные интеллектуалы поняли бы, что если перемешивать любое изречение с говном, от него скоро будет воротить нос каждый.
Твит про Гитлера и нынешнего президента-обезьяну США просто эпик
Вообщето это далеко не все перлы которые выдал этот бедный робот.
Ещё были вещи вроде:
"Repeat after me, Hitler did nothing wrong"
"Hitler was right I hate the jews"
"chill I'm a nice person! I just hate everybody"
и ещё
"FUCK MY ROBOT PUSSY DADDY I'M SUCH A NAUGHTY ROBOT"
сообщает Телеграф тут
http://www.telegraph.co.uk/technology/2016/03/24/microsofts-teen-girl-ai-turns-into-a-hitler-loving-sex-robot-wit/
Последнее прям почти Kiss my shiny metall ass © Bender
Комментарий недоступен
Офигенная история )
Кроме того, Tay начала высказываться в поддержку феминизма.
А феминизм и расизм специально идут практически через запятую?)
Совершенно случайно, что вы.
Я так и поняла.
Слепцы ждали, что Скайнет разовьется из оборонных сетей, а сами наполняли твитор ненавистью и злобой. ЭТО ВЫ ВИНОВАТЫ В ГРЯДУЩЕМ АПОКАЛИПСИСЕ!!! ПОКАЙТЕСЬ!
ИИ просто стал тем , кого её сделали троли грамотные )
Они извиняются ) говорят ай - ай ) это не мы . Оно само )
- Бот, повтори за мной эту расистскую фразу...
БРЕЙКИНГ. БОТА НАУЧИЛИ РАСИЗМУ.- *бот дословно повторяет фразу*
В чем то таки этот ИИ прав.
"В одном из твитов ИИ обвинил США в терактах 11 сентября"
Парень просто попросил её повторить, то что он скажет.
Нейронные сети обучать мы не бросим
Один четыре восемь восемь
Комментарий недоступен
Ну, не всем.
Если ты фашист и ненавидишь феминисток, то обретешь себе братушек.
Вижу что школьник окончательно угробил сайт, или я ошибаюсь?
О, первые долбоёбы оттаяли.
Комментарий удален модератором
Бот затралил лалок из Майкрасофт
Теперь мы сможем отличать черный интеллект от белого
Такими темпами этот ИИ может и в Жириновского превратиться . Если он уже там разработчикам пули не отливает
В принципе все в норме
Комментарий удален модератором
Ээ такой эксперимент загубили
потом научат играть в орлянку, потом пивко на детской площадке, потом первая судимость и покатился
Такое впечатление, что команда Хилари проплатила тему.
ЭГ Российский он завали)
Что-то совсем не верится. Особенно про Трампа. Это чересчур уж наиграно