Маск совместно со 115 специалистами потребовал запретить боевых роботов Статьи редакции
Предприниматели, учёные и эксперты из 26 стран направили письмо в ООН.
Глава Tesla Элон Маск и создатель компании DeepMind Мустафа Сулейман подписали письмо о необходимости запретить разработку и использование автономного оружия. Вместе с ними документ, направленный к Организации объединённых наций, поддержали 114 специалистов из 26 стран мира.
Авторы письма предупредили, что создание боевых роботов приведёт к «третьей оружейной революции», которая сможет сравниться с изобретением ядерного оружия и пороха.
Когда это случится, начнутся военные действия невиданных масштабов, которые будут развиваться со скоростью, которую человечество не сможет осознать. Новый тип оружия может попасть в руки террористов или диктаторов, а также хакеров, которые будут задействовать его для недопустимых целей.
Как отметил The Guardian, 21 августа в Мельбурне состоится Международная конференция по вопросам использования искусственного интеллекта (IJCAI), где также будут присутствовать представители ООН. Авторы письма попросили организацию запретить автономное вооружение наравне с химическим оружием.
Это че выходит, Федора зря разрабатывали?
А че у его сзади за коробка? Посылка из Почты России?
ООН же такая супер полезная и что-то решающая организация
На фото: экономика Южной Кореи доминирует над экономикой Северной Кореи
блин, да это же корейский леонид леонтьев!
Комментарий недоступен
Будут драться военные роботы против военных роботов — вот так невиданная жестокость.
я боюсь электрической крови
есть вероятность, что зацепит мирное население и тебя
Интересно как робо-мужики будут называть робо-баб которые чпокаются с человеками, мясные подстилки?
Ах он луддитское отродье!
Ну или военные с роботы с людь...стоп. У нас же есть электромагнитное оружие? Ядерное оружие?
еще мoжем в кoнце кoнцoв затмить им сoлнце, не смoгут oни oттуда брать энергию!
Морфеус, жопой чувствую, хуевая затея...
огромной фоткой путина
Кстати, как я понимаю, у боевых роботов всё-таки есть довольно значимое отличие от ядерного оружия — их, по идее, можно и в гараже у тех же ИГИЛ собрать, если остальные технологии на уровне (скажем, если можно где-то в облаке обучить нейронную сеть и затем перенести её на роботов для распознавания целей и стрельбы). Какую-нибудь турель с несколькими сервоприводами и распознаванием целей на пикапе с автопилотом. Так что у террористов, скорее всего, боевые роботы будут так или иначе.
Одна из ключевых проблем машинного обучения это наборы данных для обучения. Нейросети, обучающиеся для классификации изображений на 10 классов из ~200x200 пикселей и дающие порядка 10% ошибки обучаются на десятке миллионов изображений.
А такой датасет собрать -- не шутки шутить.
Я хотел сказать, что с развитием технологий сделать это, скорее всего, будет всё проще, и однажды это даже для террористов не будет проблемой (и тогда, хорошо бы, на мой взгляд, иметь под рукой роботов, которых можно было бы выслать навстречу). К тому же, полагаю, требования террористов к ошибкам куда ниже.
"даже для террористов" чувствуется, что у тебя в голове террористы это какие-то афганские повстанцы бегающие по пустыне, прячущиеся в пещерах, у которых калашников 70х годов модификации на вооружении. Терроризм в современном мире можно даже назвать индустрией. У этих людей развернутая инфраструктура, огромные деньги и скорее всего влиятельные покровители.
Всё-таки не на уровне подготовки оружейного урана и постройки ракет. Изначально я имел в виду, что, в отличие от ядерного оружия, боевых роботов-то они однажды точно научатся собирать и смогут это сделать, не привлекая особого внимания.
Любую технологию можно украсть если есть деньги.
Не терпится пойти умирать под пули, вспоминая ласковым словом этих 116 специалистов.
(imb4 в России и так и так идти умирать под пули, роботов ли, солдатов ли.)
Комментарий недоступен
Путин 2!00
ДружкоШоу 2100
Поскрипим немножечко!
Комментарий недоступен
валар моргулис
Тут он прав. Подразумеваются не боевые человекоподобные роботы, а дроны с вооружением, которые самостоятельно принимают решение об атаке.
Все кто не понимает почему это опасно, почитайте недавний отчёт гугла о коллективом поведении AI. Агенты программы цель которой собрать как можно большее количество условных яблок, вместо того, чтобы сотрудничать между собой выбирают конкурировать насмерть. У алгоритмов нет моральных устоев и принципов типа гражданских не бьём, или не стрелять при детях, для достижения целей они сделают всё. Простой пример того, на сколько это опасно твиттер бот от майкрософт который за сутки стал расистом.
https://deepmind.com/blog/understanding-agent-cooperation/