{"id":2175,"url":"\/distributions\/2175\/click?bit=1&hash=803b6e1bcbd9dfc4ba9456fda887a878c80d24df8d3a575913b14876e18923a5","title":"TJ \u0437\u0430\u043a\u0440\u043e\u0435\u0442\u0441\u044f 10 \u0441\u0435\u043d\u0442\u044f\u0431\u0440\u044f \u2014\u00a0\u043f\u0440\u043e\u0447\u0438\u0442\u0430\u0439\u0442\u0435 \u0430\u043d\u043e\u043d\u0441 \u0441 \u0434\u0435\u0442\u0430\u043b\u044f\u043c\u0438","buttonText":"\u0427\u0438\u0442\u0430\u0442\u044c","imageUuid":"d1d355d8-93a3-5140-aeae-14b03046b760","isPaidAndBannersEnabled":false}

Маск совместно со 115 специалистами потребовал запретить боевых роботов Статьи редакции

Предприниматели, учёные и эксперты из 26 стран направили письмо в ООН.

Американский робот-сапёр. Фото Popular Science

Глава Tesla Элон Маск и создатель компании DeepMind Мустафа Сулейман подписали письмо о необходимости запретить разработку и использование автономного оружия. Вместе с ними документ, направленный к Организации объединённых наций, поддержали 114 специалистов из 26 стран мира.

Авторы письма предупредили, что создание боевых роботов приведёт к «третьей оружейной революции», которая сможет сравниться с изобретением ядерного оружия и пороха.

Когда это случится, ​начнутся военные действия невиданных масштабов, которые будут развиваться со скоростью, которую человечество не сможет осознать. Новый тип оружия может попасть в руки террористов или диктаторов, а также хакеров, которые будут задействовать его для недопустимых целей.

письмо к ООН

Как отметил The Guardian, 21 августа в Мельбурне состоится Международная конференция по вопросам использования искусственного интеллекта (IJCAI), где также будут присутствовать представители ООН. Авторы письма попросили организацию запретить автономное вооружение наравне с химическим оружием.

Маск и до этого выступал за запрет боевых роботов. В 2015 году глава SpaceX вместе со Стивеном Хокингом направлял письмо к ООН с требованием запретить автономное оружие. А 25 июля 2017 года Маск поспорил с Цукербергом о потенциальной опасности искусственного интеллекта.

0
33 комментария
Написать комментарий...
Известный файл

Это че выходит, Федора зря разрабатывали?

Ответить
Развернуть ветку
Олимпийский паркур

А че у его сзади за коробка? Посылка из Почты России?

Ответить
Развернуть ветку
Благодарный велосипед

ООН же такая супер полезная и что-то решающая организация

Ответить
Развернуть ветку
Дополнительный инструмент
Ответить
Развернуть ветку
Газетный чайник
Ответить
Развернуть ветку
Газетный чайник

На фото: экономика Южной Кореи доминирует над экономикой Северной Кореи

Ответить
Развернуть ветку
Газетный чайник

блин, да это же корейский леонид леонтьев!

Ответить
Развернуть ветку
Валютный шар

Комментарий недоступен

Ответить
Развернуть ветку
Поразительный кавалер
Ответить
Развернуть ветку
Довольный кавалер

Будут драться военные роботы против военных роботов — вот так невиданная жестокость.

Ответить
Развернуть ветку
Газетный чайник

я боюсь электрической крови

Ответить
Развернуть ветку
Срочный Слава

есть вероятность, что зацепит мирное население и тебя

Ответить
Развернуть ветку
Честный Валера

Интересно как робо-мужики будут называть робо-баб которые чпокаются с человеками, мясные подстилки?

Ответить
Развернуть ветку
Дополнительный инструмент

Ах он луддитское отродье!

Ответить
Развернуть ветку
Довольный кавалер

Ну или военные с роботы с людь...стоп. У нас же есть электромагнитное оружие? Ядерное оружие?

Ответить
Развернуть ветку
Медленный супер_стар

еще мoжем в кoнце кoнцoв затмить им сoлнце, не смoгут oни oттуда брать энергию!

Ответить
Развернуть ветку
Изящный мангал

Морфеус, жопой чувствую, хуевая затея...

Ответить
Развернуть ветку
Водный Даниль

огромной фоткой путина

Ответить
Развернуть ветку
Понятный якорь

Кстати, как я понимаю, у боевых роботов всё-таки есть довольно значимое отличие от ядерного оружия — их, по идее, можно и в гараже у тех же ИГИЛ собрать, если остальные технологии на уровне (скажем, если можно где-то в облаке обучить нейронную сеть и затем перенести её на роботов для распознавания целей и стрельбы). Какую-нибудь турель с несколькими сервоприводами и распознаванием целей на пикапе с автопилотом. Так что у террористов, скорее всего, боевые роботы будут так или иначе.

Ответить
Развернуть ветку
Престижный Кирилл

Одна из ключевых проблем машинного обучения это наборы данных для обучения. Нейросети, обучающиеся для классификации изображений на 10 классов из ~200x200 пикселей и дающие порядка 10% ошибки обучаются на десятке миллионов изображений.

А такой датасет собрать -- не шутки шутить.

Ответить
Развернуть ветку
Понятный якорь

Я хотел сказать, что с развитием технологий сделать это, скорее всего, будет всё проще, и однажды это даже для террористов не будет проблемой (и тогда, хорошо бы, на мой взгляд, иметь под рукой роботов, которых можно было бы выслать навстречу). К тому же, полагаю, требования террористов к ошибкам куда ниже.

Ответить
Развернуть ветку
Последующий колос

"даже для террористов" чувствуется, что у тебя в голове террористы это какие-то афганские повстанцы бегающие по пустыне, прячущиеся в пещерах, у которых калашников 70х годов модификации на вооружении. Терроризм в современном мире можно даже назвать индустрией. У этих людей развернутая инфраструктура, огромные деньги и скорее всего влиятельные покровители.

Ответить
Развернуть ветку
Понятный якорь

Всё-таки не на уровне подготовки оружейного урана и постройки ракет. Изначально я имел в виду, что, в отличие от ядерного оружия, боевых роботов-то они однажды точно научатся собирать и смогут это сделать, не привлекая особого внимания.

Ответить
Развернуть ветку
Последующий колос

Любую технологию можно украсть если есть деньги.

Ответить
Развернуть ветку
Понятный якорь

Не терпится пойти умирать под пули, вспоминая ласковым словом этих 116 специалистов.

(imb4 в России и так и так идти умирать под пули, роботов ли, солдатов ли.)

Ответить
Развернуть ветку
Повышенный Даниль

Комментарий недоступен

Ответить
Развернуть ветку
Минувший яд

Путин 2!00

Ответить
Развернуть ветку
Газетный чайник

ДружкоШоу 2100

Ответить
Развернуть ветку
Газетный чайник

Поскрипим немножечко!

Ответить
Развернуть ветку
Громкий Артем

Комментарий недоступен

Ответить
Развернуть ветку
Закрытый Кирилл

валар моргулис

Ответить
Развернуть ветку
Газетный дебаркадер

Тут он прав. Подразумеваются не боевые человекоподобные роботы, а дроны с вооружением, которые самостоятельно принимают решение об атаке.

Ответить
Развернуть ветку
Последующий колос

Все кто не понимает почему это опасно, почитайте недавний отчёт гугла о коллективом поведении AI. Агенты программы цель которой собрать как можно большее количество условных яблок, вместо того, чтобы сотрудничать между собой выбирают конкурировать насмерть. У алгоритмов нет моральных устоев и принципов типа гражданских не бьём, или не стрелять при детях, для достижения целей они сделают всё. Простой пример того, на сколько это опасно твиттер бот от майкрософт который за сутки стал расистом.

https://deepmind.com/blog/understanding-agent-cooperation/

Ответить
Развернуть ветку
Читать все 33 комментария
null