Создателя Linux насмешили страхи Стивена Хокинга и Элона Маска перед искусственным интеллектом Статьи редакции
По мнению Линуса Торвальдса, искусственный интеллект в формате помощников вроде Siri и Google Now уже достиг своих пределов и вряд ли станет намного более совершенным. Создатель Linux также усомнился в возможности достижения сингулярности: «Бесконечный экспоненциальный рост? На каких наркотиках сидят эти люди?»
1186
просмотров
А 640кб хватит всем
То есть утверждения Хокинга и Маска в вас сомнений не вызывают, а утверждение Торвальдса вы контраргументируете тем, что люди могут ошибаться? Могут. Но только это относится как к нему, так и к тем, кто утверждает, что искусственный интеллект станет угрозой.
Не знаю, с чего вы взяли, что утверждения Маска и Хокинга не вызывают сомнений. Просто когда кто-то утверждает, что нечто достигло своего потолка и вряд ли значительно улучшится в будущем, сразу приходит в голову цитата про 640кб.
Вы бы оригинал что ли почитали. Он не утверждал, что что-то достигло своего потолка, он сказал, что искусственный интеллект появится, однако это будет не тот интеллект, которого боятся и изображают в фильмах типа терминатора.
Так что тут куда более разумно вспомнить закон Мура, который утверждает, что количество транзисторов, размещаемых на интегральной схеме, будет удваиваеться каждые 24 месяца. В 75-м году он сделал это утверждение - работает до сих пор и превзойти его пока не получилось, а с использованием классических микросхем, видимо, не получится никогда.
Да и про сам закон Мура он говорит, что все это на самом деле начальная часть S-образной кривой развития и кто думает иначе, просто строит иллюзии.
Ок, вы правы, оригинал я не читал.
Комментарий недоступен
Линуксу, кстати, хватает :)
Гейтс этого не говорил.
Линус любит набросить на вентилятор.
Линус не говорил о Siri и Google Now
http://linux.slashdot.org/story/15/06/30/0058243/interviews-linus-torvalds-answers-your-question
Он почему-то ограничивает ИИ нейронными сетями, то есть системами призванными отвечать на вопросы. Как будто таких вещей, как теория принятия решений и теория рациональных агентов не существует. Справочные системы действительно не опасны. Но вот когда машины сами научатся выбирать необходимые действия для достижения задачи и выполнять их, вот тогда начнутся проблемы.
Даже если они будут умнее нас, разве мы не должны радоваться за них, как за своих детей? Мы умрём - они останутся и продолжат наше дело. Такова природа.
Это если у ИИ на самом деле будет разум, а не потребность сделать как можно больше скрепок, в которые он переработает всю материю Земли. Что тоже является нашим вариантом облажаться.