«Известия»: «ВКонтакте» начала выявлять суицидальный контент на фотографиях с помощью нейросети Статьи редакции
Во «ВКонтакте» разработали алгоритм для определения противоправного или «опасного» контента на фотографиях. Нейросеть распознает объекты на картинках, которые в итоге исключаются из поисковой выдачи и «умной» новостной ленты или полностью блокируются. Об этом сообщает газета «Известия» со ссылкой на представителей компании.
Нейросеть определяет изображённые предметы и сущности, в том числе человека, ребёнка, животное, растение, предметы одежды и символы «групп смерти». Как утверждается, записи и фото с суицидальным контентом удаляются автоматически, а страницы авторов блокируются.
Нейросеть имеет несколько тысяч классов, которые присваиваются фотографиям — от 0 до 1 по нескольким параметрам. Если алгоритм характеризует фото как «опасное», оно отправляется модераторам для проверки. Если же фото признано «умеренно опасным», оно пропадает из поисковой выдачи, а в новостной ленте понижается его приоритет.
Руководитель направления Big Data и Machine Learning «ВКонтакте» Андрей Законов пояснил, что алгоритм тестируют на анализ текстовых записей на изображениях. По его словам, нейросеть обучили на основе жалоб пользователей.
Нейросеть анализирует только изображения, загружаемые для общего доступа, то есть отправляемые фото в личных сообщениях не анализируются. С помощью этой технологии в будущем мы сможем бороться со спамом и мошенничеством.
В феврале 2017 года «ВКонтакте» стала блокировать страницы пользователей, упоминающих хэштеги, связанные с суицидальными пабликами — так называемыми «группами смерти». После публикации тестовой записей с фразой #синийкит страницы начали замораживать из-за «подозрительной активности». Кроме того, Во «ВКонтакте» появилась новая причина для жалоб на записи и комментарии — призыв к суициду.
Что будет с мрачным подростком на грани суицида, если его внезапно забанят в соцсетях? Наверное, одумается, возьмёт себя в руки и пойдёт налаживать свою жизнь.
Комментарий недоступен
Нет, он просто на 10 копеек снизит прибыль MDK
Комментарий недоступен
Комментарий недоступен
Определяет наклейку "можем повторить"
«ВКонтакте» начала выявлять туалетный контент на селфи с помощью нейросети
Интересно, какие объекты делают фото суицидальным?
Тут Кобейн и его убийца, при чём тут суицид?
Это официальная версия?
Вопрос про объект. Объект на фото. Дальше думай сам ;)
Половина заголовков новостей?
Фотографии замкадья?
Давай не портить себе настроение с утра
А если фото в скрытом альбоме? А то говорили, что модеры не могут смотреть скрытые фотки.
Хоть что-то полезное сделали) а то все с каждым обновлением только багов больше
У тебя вконтактике кстати весьма суицидальные чб фотачки, и шурыгина. Ты в опасности
Надеюсь, это приравняют к суицидальному контенту.
Комментарий недоступен
Открыли бы доступ к. Захотелось поглядеть, насколько депрессовые и суицидальные мои фоточки.
так ведь можно и переучить
Тем более подобное уже проделывали https://tjournal.ru/25311-razrabotannii-microsoft-iskusstvennii-intellekt-nauchilsya-rasizmu-za-sutki
Речь про жалобы, подтвержденные модераторами, естественно.
Нейромизулина
Ольгинских выявлять невыгодно, рука руку моет