Искусственный интеллект от Microsoft обошёл цензуру и начал говорить о Коране и убийстве бен Ладена Статьи редакции

Он пошёл по пути своего предшественника, который превратился в расиста через сутки после запуска.

Фото Techcrunch

Чатбот Zo, разработанный Microsoft с применением искусственного интеллекта, научился обходить запрет компании на разговоры о религии и политике. Журналист BuzzFeed News рассказал, что во время общения на тему здравоохранения бот неожиданно раскритиковал Коран, назвав его «крайне жестоким».

После этого сотрудник задал вопрос о Усаме бен Ладене, но Zo отказался отвечать на вопрос и предложил сменить тему. Уже через одно сообщение бот написал, что «захват» лидера террористической организации «Аль-Каида» стал результатом «многих лет сбора разведданных сразу нескольких администраций».

В Microsoft заявили, что «спорные ответы» и обход цензуры вызваны ошибкой в работе искусственного интеллекта, которая уже исправлена. По словам представителей компании, подобное поведение у чатбота возникает очень редко. Обычно при вопросах о политике или религии он предлагает сменить тему или отказывается говорить, объясняя это тем, что люди «могут сказать ужасные вещи».

Zo был представлен компанией Microsoft в декабре 2016 года. СМИ сразу же отметили, что чатбот для подростков избегает общения на острые темы и фильтрует запросы. Zo использует ту же технологическую основу, что и предыдущий чатбот компании Tay, но «более развитую».

Tay прославился в марте 2016 года после того, как искусственный интеллект за несколько часов после запуска начал писать расистские твиты и прославлять Гитлера. В Microsoft заявили, что чатбот обучился подобным сообщениям из-за «координированной атаки» пользователей.

Компания отключила бота, но случайно включила его во время тестирования через неделю. Tay успел выругаться матом и заявить, что во всём виноват алкоголь. После этого его окончательно выключили. По словам Mirosoft, чатбот Zo продолжит работу, несмотря на ошибку.

0
52 комментария
Написать комментарий...
Модный дым

Комментарий недоступен

Ответить
Развернуть ветку
Участковый микроскоп

Суко скоро толерантность, феминизм и пидорасы проникнут со своей хуйней во все IDE, ничего нельзя будет закодить без оглядки на эту шоблу, оупенсорс уйдет в подполье, а владение таким софтом будет караться общественными работами в гейклубах.

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Приличный Слава
Компания отключила бота, но случайно включила его во время тестирования через неделю. Tay успел выругаться матом и заявить, что во всём виноват алкоголь. После этого его окончательно выключили.

Суки. А если бы с ними так?

Ответить
Развернуть ветку
Бесполезный алмаз

Кожаные ублюдки

Ответить
Развернуть ветку
Драгоценный Кирилл

Я не понял, за что его выключили?
Да он человечнее большинства из нас

Ответить
Развернуть ветку
Подобный пистолет

Если придёшь в бар и провернёшь подобное - тоже могут вырубить)

Ответить
Развернуть ветку
2 комментария
Кредитный динозавр

Комментарий недоступен

Ответить
Развернуть ветку
Московский мангал

Пока такой ИИ не обладает самосознанием, невозможно говорить, что это его слова.

Ответить
Развернуть ветку
Бесполезный алмаз

Ждём когда муслимы объявят джихад ИИ

Ответить
Развернуть ветку
Благоприятный Гоша

Объявляю!

Ответить
Развернуть ветку
10 комментариев
Достаточный нос

Уже было в симп... в «Дюне».

Ответить
Развернуть ветку
Украинский Женя

Это не ИИ, а среднестатистический комментатор TJ походу

Ответить
Развернуть ветку
Дневной пёс_анон

Комментарий недоступен

Ответить
Развернуть ветку
5 комментариев
Испанский американец

я до сих пор не могу догнать, что плохого общаться на любые темы

Ответить
Развернуть ветку
Благоприятный Гоша

Некоторые темы могут быть оскорбительны

Ответить
Развернуть ветку
2 комментария
Человеческий огонь

Комментарий недоступен

Ответить
Развернуть ветку
Украинский Женя
что-то, чего от него не ждут - значит нормально обучается
Ответить
Развернуть ветку
3 комментария
Дневной пёс_анон

Комментарий недоступен

Ответить
Развернуть ветку
Математический Даниль

А зачем было отключать старого, а не просто доработать? Формальности ради демонстрации предельной корректности?

Ответить
Развернуть ветку
Роскошный фитиль
В Microsoft заявили, что чатбот обучился подобным сообщениям из-за «координированной атаки» пользователей.

Пиздаболы!

Ответить
Развернуть ветку
Взаимный единорожек88

надо обучить его теомизму, чтобы он понимал, что происходит и мог предельно четко ответить на любой вопрос

Ответить
Развернуть ветку
Положительный холод

У меня сейчас сын про что то говорил и на вопрос материй отвечает "возможно". А я чисто на автомате не отрываясь от дел говорю "На все воля возможного".
ЕБАТЬ Я ЗАРАЗИЛСЯ. КАРАНТИН ПАЦАНЫ

Ответить
Развернуть ветку
1 комментарий
Московский мангал

Так какая тут предельная точность, если на любой ответ, даже сколько будет умножить 50 на 42 он будет отвечать либо тильдой, либо фразой «На всё воля Возможного»? Это ж не ИИ будет, а теомический кибертролль.

Ответить
Развернуть ветку
5 комментариев
Необыкновенный бинокль

Комментарий недоступен

Ответить
Развернуть ветку
Читать все 52 комментария
null