{"id":2175,"url":"\/distributions\/2175\/click?bit=1&hash=803b6e1bcbd9dfc4ba9456fda887a878c80d24df8d3a575913b14876e18923a5","title":"TJ \u0437\u0430\u043a\u0440\u043e\u0435\u0442\u0441\u044f 10 \u0441\u0435\u043d\u0442\u044f\u0431\u0440\u044f \u2014\u00a0\u043f\u0440\u043e\u0447\u0438\u0442\u0430\u0439\u0442\u0435 \u0430\u043d\u043e\u043d\u0441 \u0441 \u0434\u0435\u0442\u0430\u043b\u044f\u043c\u0438","buttonText":"\u0427\u0438\u0442\u0430\u0442\u044c","imageUuid":"d1d355d8-93a3-5140-aeae-14b03046b760","isPaidAndBannersEnabled":false}

Разработчик научил iPhone мгновенно распознавать объекты и видеть между ними разницу Статьи редакции

С помощью машинного обучения Apple камера «отгадала» бутылку вина, молоток и кружку, но со смартфоном возникли проблемы.

Разработчик Крис Грининг (Chris Greening) научил iPhone мгновенно идентифицировать объекты и видеть разницу между, например, бутылкой вина, кружкой и молотком. На проект обратили внимание пользователи Reddit, некоторые из которых поначалу ошибочно приняли его за нововведение Google.

В демо-ролике автор наводил камеру на лежащие на столе объекты, в то время как на экране показывались самые вероятные варианты их названий и процентная вероятность правильного выбора.

Порой система оказывалась права, верно называя отвёртку (84%), линейку (94%) или бутылку вина (40%), а иногда сомневалась — айфон становился айподом (или даже модемом, а то и динамиком), а кружка — то чайной, то кофейной. Всегда демонстрировались сразу несколько вариантов, большинство из которых были синонимами.

Разработчик сделал это, подключив камеру iPhone к открытой системе машинного обучения искусственного интеллекта Core ML с технологией Vision Kit. Apple недавно обновила фреймворк для iOS 11.

Систему можно использовать для быстрого распознавания лиц, объектов и текста, анализа движений или определения штрих-кодов. На основе Core ML работают собственные приложения Apple, в том числе камера, Siri и QuickType.

Грининг подробно описал поэтапную работу над проектом в своём блоге. Он использовал iPhone на бета-версии операционной системы iOS 11, а также бета-версию интегрированной среды разработки xCode. Обо всех стадиях кодирования рассказал на Github.

При общении с пользователями Reddit Грининг подчеркнул, что его приложение пропускает изображения на устройстве без отправки данных на сервер. Работает оно при помощи нейронной сети ResNet50, над которой трудились разработчики компании Microsoft. Утверждается, что она способна распознавать более 1000 категорий, включая животных, деревья, транспорт, еду и людей.

Неудивительно, что больше всего шуток пользователи Reddit посвятили сравнению с эпизодом сериала «Кремниевая долина» (Silicon Valley), где один из героев представляет схожий проект. При этом вымышленное приложение способно отличить только хот-дог и «не хот-дог».

0
15 комментариев
Написать комментарий...
Эффективный утюг

Совсем не новая тема, но прикольно видеть в риал тайм на камере телефона. Может через пару-тройку лет доведут до ума и сделают полезной фичей?

Ответить
Развернуть ветку
Тяжелый Данила

Уже довели вообще-то.

В сентябре увидишь сам, да и попользоваться, если обновишься.

Ответить
Развернуть ветку
Эффективный утюг

На этом видео работает совсем не идеально, да и пользы нет. Самсунг со своим идентификатором вещей придумали, как использовать, но имхо и там бесполезно, просто игрушка для продвижения магазинов.

Ответить
Развернуть ветку
Тяжелый Данила

А как же польза от умирающей дополненной реальности. Я вижу массу способов практического применения

Ответить
Развернуть ветку
Водный Даниль

Хуйня

Ответить
Развернуть ветку
Публичный бокал

нет

Ответить
Развернуть ветку
Водный Даниль

Ну ладно (

Ответить
Развернуть ветку
Первичный микроскоп

Или нет!?

Ответить
Развернуть ветку
Водный Даниль

О боже, ещё и в вк написали "магия от эппл". Это старые технологии. Я 2 года назад идее самое в дипломе описывал.

Ответить
Развернуть ветку
Водный Даниль

Тоже самое*

И уже тогда это не было новинкой.

Ответить
Развернуть ветку

Комментарий удален модератором

Развернуть ветку
Печальный пришелец

Так крутость в том, что Apple выкатила API для всего этого и теперь любой разраб сможет с легкостью использовать машинное обучение в своем приложении.

Ответить
Развернуть ветку
Водный Даниль

открытые библиотеки компьютерного зрения уже несколько лет доступны любому желающему. Их точно так же можно обучить распознавать стаканы и прочие предметы. Это не новинка. Я думаю, разрабы игнорируют этот функционал, потому что:
1. он не идеален. Нельзя в режиме реального времени опознавать ВСЕ в кадре
2. нельзя такой функционал обернуть в привлекательную для потребителей идею. Вот китайские гиганты придумали как находить шмот - молодцы. Это уместно. Другого подобного варианта кроме как работы на большого брата я не вижу пока.

Ответить
Развернуть ветку
Достойный Кирилл

Хех

Ответить
Развернуть ветку
Низкий единорожек88

Эээ, это еще с ios 10 возможно — пруф https://github.com/shu223/iOS-10-Sampler

Ответить
Развернуть ветку
Довольный кавалер

Так у гугла распознавание 100 лет как работает в Google Photos (очень практично). И не только там, насколько я помню. И моментальный перевод в камерах вроде бы давно существует (очень практично). А чашки на снимках различать — ну такое...

Ответить
Развернуть ветку
Читать все 15 комментариев
null