Трем роботам Nao сообщили, что двум из них дали «таблетку немоты», лишившую их возможности разговаривать. Им задали вопрос о том, кому дали таблетку. Только робот, способный говорить, смог произнести «не знаю» и понял, что ему «таблетку» не дали. Он добавил: «Простите, сейчас я знаю. Я смог доказать, что мне не выдали "таблетку немоты"».
902
просмотров
Это "понял" наверняка захардкожено же.
После удачного опыта экспериментаторам пришлось сжечь роботов. На всякий случай.
Код AI все равно хранится на серверах
Зачастую, AI-like это не только алгоритм, но и обучение. Его-то там и нет.
Выглядит страшновато. Похоже предупреждение Хокинга об опасности ИИ имеет под собой весьма веские основания.
А чего страшного?
Лично мне становится страшно когда он встает с места и пытается зиговать
Земля для роботов!
Выглядит жутковато. Глядя на это видео понимаешь, что осознание роботом собственного "я" уже совсем близко
Не так уж и близко. Я не эксперт, но, насколько я понимаю, все что мы пока что создаем - это имитация интеллекта. И фишка в том, что создание все более совершенных систем имитации интеллекта совсем не обязательно приведет к созданию полноценного ИИ.
Пока что мы понятия не имеем как работает разум и не знаем как создать полноценный ИИ. Если это и произойдет, то это будет внезапным событием. И невозможно предсказать когда это произойдет.
Комментарий удален модератором
Не обязательно понимать как устроен и работает телевизор, чтобы пользоваться им и понимать, что вот это - телевизор, а то - нет.
"Если нечто выглядит как утка, плавает как утка и крякает как утка, то это, вероятно, утка и есть."
Это я к тому, что если создадут "имитацию", неотличимую от "настоящего" человеческого интеллекта, то есть, способную пройти тест Тьюринга, то это и будет полноценный ИИ.
Ну нет. Тест Тьюринга совсем не показатель. Его не могут пройти даже некоторые люди.
В человеческом мозге вычислительная мощность и память - это единое целое. Миллиарды нейронов, каждый из которых имеет тысячи связей. Хороший ИИ должен превосходить их.
Пока что все компы мира вместе взятые на один-единственный мозг не тянут)
И не просто имеет тысячи связей, но и постоянно перестраивает эти связи.
"Простите, сейчас я знаю. Я смог доказать, что мне не выдали "таблетку немоты и теперь могу убить всех человеков"
Картинку же забыл, ну
Извините...
Да, когда ты заходишь в мониторинг сервера, и он пингует себя, чтобы узнать, что не помер, он проявляет такой же уровень самосознания.
Отличие в том, что такое поведение робота не является запрограммированным.
Оно не является захардкоженным, но сам алгоритм получения ответа при котором он вычисляет ответ на вопрос только после собственно вопроса (а не превентивно), и обновляет этот ответ по результату выходных действий, вполне себе запрограммирован.
Но в целом, я не уверен, что и человеческое самосознание далеко ушло от того же мониторинга статуса.
Вот зачем они делают такую добрую голубоватую подсветку? Это же прямо наталкивает на мысл, что в случае если робот преодолеет три закона робототехники его подсветка станет красновато-оранжевой...
А разве вопрос был не - " Какую таблетку дали"? И он же просто чекнул себя на наличие голоса, т.е. он же программно знал что такое таблетка немоты, и самосознание заключается в том, что на вопрос, какую таблетку тебе дали, он чекнул себя на наличие в голосе, и связал это со знаниями про таблетку немоты, и выдал результат?
Да какое еще самосознание? просто инструкция <if...then>