Программу АНБ США заподозрили в возможной причастности к смертям тысяч невинных людей Статьи редакции
Учёный и исполнительный директор Human Rights Data Analysis Group Патрик Болл (Patrick Ball) назвал результаты машинного обучения, на которые полагалось АНБ США при бомбардировке Пакистана, «абсолютно ерундовыми» и научно несостоятельными. Из-за ошибки системы могли погибнуть тысячи невиновных людей, — поясняет Аrstechnica.
С 2004 года в Пакистане были убиты с помощью беспилотников от 2,5 до 4 тысяч человек, большинство которых были определены правительством США как экстремисты.
Согласно документации, обнародованной Эдвардом Сноуденом, правительственная программа Skynet участвовала в массовом наблюдении за мобильной телефонной сетью Пакистана, собирала метаданные и использовала алгоритмы машинного обучения, чтобы оценить вероятность того, что тот или иной человек является террористом.
Система оценивала более 80 параметров, в том числе шаблоны повседневного поведения человека и его путешествия в другие страны. Программа основана на предположении, что поведение террористов существенно отличается от поведения рядовых граждан, однако ещё весной 2015 года стало известно, что согласно утекшей в сеть документации, самый высокий рейтинг по принятым системой показателям имел Ахмад Заидан, давний руководитель телекомпании «Аль-Джазира» в Исламабаде.
Он часто путешествует по регионам, в которых действуют террористы, и его фото попало во внутреннюю презентацию результатов работы Skynet с пометкой «член "Аль-Каиды"».
Сам журналист любые обвинения такого рода отклонил.
Утверждать, что я или любой другой журналист имеет отношение к одной из этих групп, делая выводы на основе контактов, записей телефонных разговоров или других источников — абсурдное искажение истины и полное непонимание журналистской профессии.
Важной частью программы Skynet являлось изучение алгоритмов поведения известных террористов, а проблема заключается в том, что данных о них относительно немного. Тестируя систему, ей давали информацию о 100 тысячах случайно выбранных человек и шести террористах, и программа должна была найти «спрятанного» седьмого.
Существует слишком мало известных террористов, чтобы использовать данные о них для тренировки и проверки модели. Если они используют одни и те же данные и для обучения, и для тестов, их оценка — абсолютная фигня.
Болл подчеркнул, что низкое качество результатов приводит к проблемам с точностью классификации — даже 0,18 процента ложных срабатываний программы при выборке в 55 миллионов человек означает, что 99 тысяч невинных ошибочно маркированы как «террористы».
На просьбу Аrstechnica о комментарии Агентство национальной безопасности США не отреагировало. Продолжает ли система действовать в настоящее время, неизвестно.
2016 год.
программа Skynet убивает невиинных людей
Oo
Видимо, выбиравшие название люди были с юмором.
Если я правильно понял, то машина АНБ выдаёт номера подозрительных людей, которые с большей долей вероятности могут быть террористами. Я не думаю что у АНБ нет последующей проверки этого списка. То, что алгоритм машины определил журналиста как потенциального террориста как раз и доказывает её работоспособность.
Не хотелось бы оказаться в этом списке даже не смотря на то, что его будут еще перепроверять (еще не факт кстати)
Оказаться в любом списке не очень хочется)
Если бы его не перепроверяли люди то под ударом оказались бы их полевые агенты.
Правильно, поэтому они проверяют список на наличие в нём полевых агентов и передают дальше в авиацию на расстрел
А их детей подают в Белом Доме под сливочным соусом.
Даже не поверил и полез перепроверять в источник, но она, блин, действительно называется skynet.
Комментарий удален модератором
- алло, это ибрагим?
- да, здравствуйте!
- а какой актёр вам нравится в "крепком орешке"?
- ну алан рикман
- то есть террорист?
- ...
- ...
-авада кентавра!
Промышленная автоматизация в массовых убийствах граждан другого государства на его территории с воздуха.
Вот вам и все принципы западной свободы, правосудия, демократии.
Жители других стран - унтерменши, с ними можно делать всё, что угодно. А если убьют несколько тысяч невинных по ошибке, то отругают программиста.
Да в общем-то пиндосам пох...
главное что русским не пох
Эти мерзкие русские черножопых пожалели
прошу не очернять мое светлое русофобство мерзкий "великорусским" расизмом
Это типа - Аллах акбар по телефону сказал и вот ты уже террорист и на тебя ракета летит?
Они у Яндекса, интересно, никаких технологий не лицензировали...
Комментарий удален модератором
Может data science, а не big data?
Комментарий удален модератором
Что-то обучающая выборка с террористами маловата. Не верится, чтоб система с такой малой выборкой и, следовательно, ошибками, работала в автоматическом режиме. Туфта, они бы там кучу народу поубивали бы.
Журналистов прежде всего. И мы бы это заметили, конечно.
Это было в 2004, вряд ли бы вы заметили, там вроде как военные действия были. Неудивительно что США там ненавидят.
Как показывает пример России ненавидеть США можно и без военных действий)
Сколько оказывается среди них сталинистов то
нужен Капитан Америка
Пакистан, наверное, а не Палестина.
Не зря "российские студенты" видяшку сделали
А могли и не стать