Ранее на этой неделе IBM объявила о новом партнерстве с Apple, объяснив, как добавить IBM Watson Services в Core ML. О Watson мы уже говорили. А вот Core ML, вероятно, менее известен: это компьютерная система обучения Apple для программных платформ компании. В частности, Apple говорит, что Core ML можно использовать с Siri, Camera и QuickType.

Как работает Watson

Разумеется, IBM-Apple действительно ориентированы на создание приложений для предприятий — Apple и IBM уже несколько лет являются партнерами в этой области, но я думаю о будущем в других областях, где Watson мог бы принести пользу продуктам Apple. И Siri, безусловно, нуждается в помощи, особенно внутри Apple HomePod.

Как так? Ну, давайте вернемся на минутку и посмотрим, как работает Watson сегодня.

Watson собирает большое количество неструктурированных данных, большинство из которых сегодня является письменной информацией. Проанализировав эти данные для шаблонов, Watson пытается структурировать его, чтобы понять как контент, так и намерение любых действий, предпринятых по этим данным.

Это намного больше, чем просто сканирование бесконечного потока пар вопросов и ответов, потому что не каждый вопрос задается одинаково и может изменить смысл вопроса или анализа. Watson, безусловно, больше, чем моя ограниченная интерпретация, но это те части, которые наиболее важны для моего мыслительного процесса.

Обучение нашими привычками

Так что, если неструктурированные данные были человеческим поведением в умном доме? Теоретически Watson мог определить как контекст, так и намерение пользователей этого дома и распознавание образов, возможно, предвидеть потребности людей в доме из таких соображений.

Чтобы быть более конкретным, Watson мог бы помочь разобраться во всех действиях, которые мы предпринимаем, вокруг и рядом с нашими домами: когда мы обычно просыпаемся, уходим на работу, что мы готовим и когда, кто приходит и уходит, когда мы отдыхаем и что мы обычно делаем за это время. Чтобы дом был полуавтономным, некоторые модели должны быть распознаны из этих действий. И эти шаблоны можно комбинировать с уже имеющимися данными проверки, такими как местоположение GPS, сетевой трафик из Netflix или музыка из онлайн-службы потоковой передачи.

В этот момент цифровой помощник, такой как Siri, может начать предвидеть вещи и делать проницательные предложения без какого-либо программирования или конфигурации пользователя; два элемента, используемые сегодня для подпрограмм и автоматизации.

Например, я обычно захожу в кабинет у меня дома в какой-то момент после обеда, но я не работаю. Вместо этого я включаю свет, чтобы читать книгу или смотреть телевизор, и я могу слушать музыку. Теперь представьте, знает ли Сири это, благодаря Уотсону.

Я мог бы подняться наверх в офис и найти свет, уже включенный для моей предпочтительной яркости. Сири могла проактивно спросить, хочу ли я досмотреть сериал, который я недавно смотрел на Netflix. Возможно, я отвечаю и говорю: «Нет, спасибо, я собираюсь немного почитать». Возможно, Сири просит посмотреть, хочу ли я музыку, предназначенную для легкого фонового шума, когда я читаю. Понимаете о чем я?

Google уже делает это с помощью GoogleDocs

Если вам кажется это невозможно, то подумайте о Google Диске. Используя свое собственное машинное обучение, Google знает, когда я обычно возвращаюсь к конкретным документам, и он выделяет их в соответствующее время. Только подумайте о возможностях этого в рамках IoT.

Если Google может это сделать с документами на диске, и Watson может сделать это с помощью неструктурированных, письменных данных, это просто вопрос того же самого с использованием разных типов данных: Объекты и их действия в интеллектуальном доме. Нет никакой гарантии, что Apple работает с IBM, чтобы сделать Сири более умным помощником в области цифровой связи в доме, но если это так, то скоро мы вступим в новую эру. [staceyoniot]

Author

Наш главный гайд-мастер. Инструкции и обзоры его конёк. Иногда перебарщивает с личным мнением.