{"id":2175,"url":"\/distributions\/2175\/click?bit=1&hash=803b6e1bcbd9dfc4ba9456fda887a878c80d24df8d3a575913b14876e18923a5","title":"TJ \u0437\u0430\u043a\u0440\u043e\u0435\u0442\u0441\u044f 10 \u0441\u0435\u043d\u0442\u044f\u0431\u0440\u044f \u2014\u00a0\u043f\u0440\u043e\u0447\u0438\u0442\u0430\u0439\u0442\u0435 \u0430\u043d\u043e\u043d\u0441 \u0441 \u0434\u0435\u0442\u0430\u043b\u044f\u043c\u0438","buttonText":"\u0427\u0438\u0442\u0430\u0442\u044c","imageUuid":"d1d355d8-93a3-5140-aeae-14b03046b760","isPaidAndBannersEnabled":false}

«Позволить машинам убивать людей — поставить под угрозу нашу безопасность и свободу» Статьи редакции

Семиминутный триллер в поддержку запрета на смертоносных автономных роботов.

Специалисты по изучению искусственного интеллекта при поддержке калифорнийского института Future of Life Institute опубликовали видео, в котором показали возможные будущие последствия использования человечеством автономного оружия.

По сюжету видео, десятки небольших дронов со взрывчаткой совершают атаку на колледж. При нападении погибают более восьми тысяч студентов. Кадры атаки сопровождаются выступлением специалиста по изучению искусственного интеллекта, который заявляет об угрозе со стороны роботов. Действие сменяется выпусками фейковых новостей, которые также нагнетают атмосферу всеобщей опасности.

В конце ролика один из инициаторов проекта, профессор Университета Беркли в Калифорнии Стюарт Рассел (Stuart Russell) подчёркивает, что к искусственному интеллекту, несмотря на его преимущества, нужно относиться с осторожностью.

Видео показывает результаты интегрирующих и миниатюризирующих технологий, которые у нас уже есть. Потенциал искусственного интеллекта в интересах человечества огромен, даже в области обороны. Но позволить машинам убивать людей — значит поставить под угрозу нашу безопасность и свободу. Тысячи моих коллег-исследователей согласны. У нас есть возможность предотвратить то будущее, которое вы только что видели, но это окно закрывается быстро.

Стюарт Рассел

Проект Future of Life начался с конференции в январе 2017 года, на которой были приняты принципы взаимодействия для полезного использования искусственного интеллекта, а также призыва избегать гонки вооружений в летальных автономных вооружениях. Самый вероятный путь к такому оружию включает в себя автоматизацию беспилотных атак, которые пока что контролируются дистанционно.

Автономное оружие будет оружием террора, идеальным инструментом для тех, кто не испытывает угрызений совести по поводу его ужасного применения. Нам нужно действовать сейчас, а не ждать, пока это будущее наступит.

Тоби Уолш

Семиминутное видео покажут на заседании Группы правительственных экспертов ООН (GGE) по смертоносному автономному оружию, которое состоится в Женеве с 13 по 17 ноября.

0
12 комментариев
Написать комментарий...
Низкий единорожек88

У меня как-то пост в канале был на тему автоматической турели Samsung которая охраняет границу с КНДР: http://denissexy.com/432.html

Если коротко, там 11 лет назад уже эту тему поднимали, но кажется все как всегда утихло и особо информации на этот счет я не смог найти.

SGR-A1 оснащена пулеметом 45 калибра, способным выпускать до 900 пуль в минуту (пулемет производила на тот момент компания, принадлежавшая Daewoo), гранатометом(!), системами тепловизора, лазерной наводкой, ночным видением, видео-аудио и подобным.
Все это позволяет турели находить цели в радиусе до 3 километров и вести огонь на поражение БЕЗ участия человека. Система также оснащена распознованием речи, она может понять, что ей говорят, отключиться по ключевому слову, распознать поднятые вверх руки, сообщить оператору на пульт о том, что что-то произошло и нужно подключиться посмотреть.
Ответить
Развернуть ветку
Предстоящий мангал

Будто запрет со стороны каких-то озабоченных опасностью инженеров защитит от использования роботов террористами. Когда появляется технология, то её использование становится неизбежным. Тем более, что автономное оружие давно существует, когда появились самонаводящиеся и высокоточные ракеты.

Ответить
Развернуть ветку
Московский мангал

Да им мозгов не хватит. Для некоторых видов вооружения нужна специализация и тонкое знание техники. Даже если робот, его ещё надо настроить (на современном этапе).

Ответить
Развернуть ветку
Предстоящий мангал

Найдутся спецы. В конце концов, поймают миллионера-оружейного магната, посадят в пещеру и заставят собирать для них оружие.

Ответить
Развернуть ветку
Московский мангал

А потом им всем пиздец… :-)

Ответить
Развернуть ветку
Московский мангал

У террористов многих, имею в виду

Ответить
Развернуть ветку
Острый татарин

Помогут добрые люди.

Ответить
Развернуть ветку
Московский мангал

Не могу найти пруф, но вроде была история как игиловцы захватили какую-то передовую ракетную установку. Но только вот из-за идиотизма не смогли воспользоваться: специальное техническое образование нужно для управления той сложной системой.

Помощников не нашли до сих пор.

Ответить
Развернуть ветку
Целевой Слава

"Северной Корее мозгов не хватит, чтобы запилить нормальные ракеты".

Ответить
Развернуть ветку
Острый татарин

Ты думаешь терором занимаются только все эти обезьяны, что с криками аллах акбар скачут?

Ответить
Развернуть ветку
Московский мангал

Они исполнители. То есть те, кто непосредственно пользуются оружием. Так что да.

Ответить
Развернуть ветку
Передовой пёс_анон
Ответить
Развернуть ветку
Читать все 12 комментариев
null