AlexxIT Smart Home
8.34K subscribers
325 photos
28 videos
291 links
Заметки про развитие моего умного дома
Все полезные ссылки тут:
https://github.com/AlexxIT
Download Telegram
#yandexstation
С недавнего времени Яндекс начал отключать старые API авторизации. Авторизация по паролю отвалилась в нескольких интеграциях Home Assistant. И, местами, в мобильных приложениях самого Яндекса 🙈

А я нашёл время не просто всё поправить, но и значительно улучшить. В новой бета-версии компонент Yandex.Station поддерживает:

Авторизацию по QR-кодам. Очень удобно. Вам не нужно вообще ничего вводить. Совсем ничего.

Авторизацию через Email. Не нужно вводить пароль или email. Только логин Яндекса, куда выслать письмо с ссылкой. Бывают аккаунты, где это единственный способ авторизации.

Авторизация по Cookies теперь поддерживает все мультиязычные сайты Яндекса. Должно снизить количество ошибок у невнимательно читающих три строчки инструкции пользователей.

Авторизации по паролю и одноразовому коду из приложения Яндекс.Ключ успешно переехали в новую версию. Как и проверка капчи для особо удачливых пользователей.
Все русскоговорящие голосовые ассистенты развивались с двумя огромными форами длиной в несколько лет, имя им Apple и Google.

И вот вчера первая фора закончилась. Apple добавили в свои колонки русский язык.

Apple это особый конкурент. Сложно себе представить пользователя, который выбирает между HomePod и Яндекс Станцией по цене, характеристикам и функциям. Пользователь Apple безусловно выберет технику Apple.

В премиум проектах различных компаний-интеграторов умного дома колонкам Яндекса тоже придётся продвинуться.

Пока ещё остаётся фора номер два. Колонки Google, которые по всем характеристикам, включая цену, на несколько лет впереди...

При этом у каждого бренда есть свои особенности. У Apple это локальная работа голоса, да и всего умного дома, без интернета. У Яндекса это ряд уникальных функций, которые отражает компонент Yandex.Station. У Google это протокол Chromecast и всё с ним связанное.

Но вряд ли основная масса пользователей выбирает колонки по одной из этих характеристик.
#yandexstation
Ну что, шептуны. Кто ещё не успел спросить, а не научили ли компонент Yandex.Station шептать? Собственно вот.

Конечно всю ситуацию омрачает режим dialog, после которого станция издаёт громкий писк и продолжает слушать пользователя. Но, к сожалению, другого способа использовать "Спецэффекты в TTS" неизвестно.

А в Яндексе не делятся секретами своих API. Хотя, по факту, это одно из главнейших преимуществ Станций перед конкурентами в среде русскоговорящих голосовых ассистентов.

https://github.com/AlexxIT/YandexStation#спецэффекты-в-tts
#yandexstation
Ну что, готовы к чему-то ОЧЕНЬ ВКУСНОМУ?

Начиная с самой первой версии, компонент Yandex.Station умеет одну из основных функций умных колонок - произносить текст (TTS).

Чуть позже появилась следующая важная возможность - реагировать на текст, сказанный колонке.

Но чего, довольно важного, не хватало до сегодняшнего дня?

Конечно же: произнести текст на колонке, получить ответ от пользователя и правильно среагировать на него. А, при желании, выстроить с пользователем полноценный диалог в несколько шагов.

- Хозяин, кто-то звонит в домофон. Хотите, чтоб я открыла?

С новыми бета-версиями компонентов YandexStation и YandexDialogs это сделать не сложно. И это работает даже на облачных колонках!

Ах да. Бонусом совместной работы этих двух компонентов можно получить:

- Продвинутый TTS на облачных колонках без всяких лимитов в 100 символов!

- Продвинутый TTS, когда колонка НЕ продолжает слушать пользователя (привет, шептуны!)

Важной особенностью Диалогов является то, что вы можете получить от пользователя в ответ абсолютно любую фразу, а не только из перечня заранее заданных. И, при необходимости, воспользоваться всей мощью Natural Language Processing от Яндекса.

Компонент YandexDialogs уже давно настраивается и создаёт Диалог полностью в автоматическом режиме. При желании, вы можете его использовать как по прямому назначению, так и только в режиме интеграции с компонентом YandexStation. Но, для его работы вам нужен внешний HTTPS-доступ к вашему Home Assistant.

https://github.com/AlexxIT/YandexStation#интеграция-с-яндексдиалогами
Решил я значит переделать трансляцию музыки с колонок Яндекса на переключатель source (источник сигнала). Пробросив такую колонку в Apple HomeKit или обратно в умный дом Яндекса, можно будет включать там трансляцию без дополнительных заморочек.

Я уже представлял, как скажу: "эй Сири, переключи Яндекс Мини на экран Гугл". Странная, но довольно эпичная команда, объединяющая три враждующие экосистемы.

Но не тут то было. За несколько дней до 2022 года Сири всё ещё не умеет переключать источники сигнала умных устройств голосом...

Такое можно сделать только в приложении Apple Home. А ещё там можно выключить колонку. Всё! Больше ничего с колонкой сделать нельзя. 🤦

Я полез гуглить, может что-то делаю неправильно. Но нет. Пользователи создают десятки переключателей, чтоб управлять своей музыкой на колонках Sonos. А ещё можно создать вентилятор, чтоб с помощью скорости вращения управлять громкостью колонки!

И тогда вопрос, зачем все так ждали русский язык на колонках Apple? 🤔
Вчера более четырёх часов переписывал документацию Yandex.Station. Довольно долгий и тяжёлый труд. Многое изменилось с момента прошлой основательной версии.

Конечно идеальному продукту документация не нужна и там всё понятно методом тыка. Но в Yandex.Station каждая функция наполнена нюансами, которые нужно как-то донести. Желательно максимально простым языком.

И тут возникает вопрос, читают ли пользователи документацию? Нет, не так. Читают ли они что-либо вообще? И этот вопрос не про техническую грамотность человека, а про навык уровня начальных классов школы.

Вчера я поднял спор, где мне ответили, что базовое умение современного человека читать никак не связано с его умственным развитием.

Просто современные пользователи не читают. Ничего. Вообще. Даже маленькую просьбу: поискать дубликиты своей проблемы и не создавать новую issue.

Это всё очень убивает инициативу что-либо делать для таких вот людей...

Тем временем все последние плюшки Yandex.Station наконец-то попали в релиз.
#gateway3
Внимание! В свежих евро-версиях Aqara Hub E1 EU (HE1-G01) заблокирована поддержка Mi Home.

Поэтому в интеграции Xiaomi Gateway 3 будет возможна поддержка только китайских версий Aqara Hub E1 CN (ZHWG16LM).

Напоминаю, у самого Xiaomi Mijia Smart Multi-Mode Gateway поддерживаются обе версии (ZNDMWG03LM и ZNDMWG02LM).
#yandexstation
Наконец-то распаковал второй Яндекс.Модуль! И он прям очень сильно порадовал. Это не просто работа над ошибками, это принципиально другое устройство, созданное в совершенно другой компании совершенно другого уровня. Даже задумался, стоит ли им заменить свой Xiaomi Mi Box S.

Кроме YouTube на телевизоре в зале мне ничего не нужно, и новый модуль его отлично поддерживает. Именно полноценную версию Android приложения под телевизоры, а не жалкое подобие, которое было в первом модуле.

Пульт от модуля автоматически нашёл модель моего телевизора (думаю это сделано через CEC) и подобрал правильные ИК-сигналы для контроля громкости, переключателя источников и включения/выключения.

У Mi Box с этим беда. Громкость телевизора и громкость приставки регулируются разными пультами. А CEC для включения/выключения телевизора не редко глючит (обычно помогает перезагрузка телевизора по питанию). Поэтому старый пульт от телевизора никак не может уйти на покой.

У обеих версий модулей (старой и новой) есть особенность - они не поддерживают облачное управление, только локальное. Также они не поддерживают стриминг музыки, что печально. Остальные локальные функцию, включая запуск видео по ссылкам, вроде как работают.

https://github.com/AlexxIT/YandexStation/releases/tag/v3.6.1
Немного отвлёкся и обновил HassWP на актуальные версии. Прошлая версия была датирована июнем.

На 2021.12 обновлять не решился. Очень уж неудачным получился релиз. Остановился на 2021.11.5.

Следующее обновление будет болезненным. Ведь в 2022.1 авторы Home Assistant планируют отказаться от python 3.8. А это означает, прощай Windows 7, который лично я до сих пор пользуюсь как основной.

Плюс ко всему, жадные дядьки из Купертино решили вычеркнуть мой MacBook из поддержки последней OS. Хотя его железо отлично поддерживает все современные технологии. Но, спасибо @megane999, подсказал, как исправить эту несправедливость.

Сама по себе свежая macOS мне 1000 лет как не сдалась. Я точно не собираюсь с кем-нибудь фейстаймить или возюкать мышкой между Маком и айПадом. Но в поисках, почему же у меня не запускается последнее новомодное приложение Shortcuts, я понял, что пропустил очередную революцию от Apple.

В процессе изучения, как же пользователи яблока выживают со всеми ограничениями своего голосового ассистента, оказалось, что продвинутые ИТшники ни в чём себе не отказывают уже несколько лет.

Ведь с помощью технологии Shortcuts они могут на любую команду Сири отправить команду в мобильное приложение Home Assistant. Такая команда работает даже на ноутбуках и колонках.

Есть и второй, более интересный вариант. Это по любой команде Сири отправить REST-команду в Home Assistant. Такие команды запускаются из центра HomeKit напрямую, без использования сторонних приложений.

Я даже задумался реализовать интеграцию Сири и Алисы. Но голосовые автоматизации яблока на пару лет отстают от всего того, что умеют последние релизы Yandex.Station. Не говоря уже, что в запасе у меня есть ещё ряд идей для развития.

В любом случае приложение Shortcuts это такая же важная технология Apple, как и сам HomeKit. Нельзя её игнорировать и проходить стороной. А вместе с python и Windows всё это сулит нескучные новогодние праздники.

https://github.com/AlexxIT/HassWP/releases/tag/v2021.11.5
Меня давно просили задуматься над поддержкой продуктов Aqara и вот появилось устройство, которому стоит уделить своё время.

Для 2К камеры с встроенным Zigbee хабом и локальным распознаванием лиц и жестов нашлась красная таблетка, открывающая бездонную кроличью нору.

Я очень давно ждал возможности попробовать невербальное управление. И, надеюсь, это устройство может дать новую веху развития умного дома.

Идея управления жестами не нова. Видосики на умном экране Google можно останавливать открытой ладонью. Сбер тоже ощупывает данную технологию в своих устройствах. У Apple есть какая-то история с распознаванием лиц на HomeKit-камерах. Но вся магия зажата в своих экосистемах, и пока не может полноценно раскрыться.

Конечно, можно анализировать поток с любой камеры на своём сервере. Но гораздо приятнее, когда устройство умеет это делать самостоятельно.

Бонусом на камере стоит наш любимый Zigbee-чип, а значит, поддержку сторонних Zigbee устройств не нужно будет писать дважды.
Aqara Camera Hub G3 это настоящая кладезь технологий. А её цена, это насмешка над всем рынком умных устройств. Интересно, через сколько месяцев после попадания ко мне, цена подскочит на 30-80%, как это было с Gateway 3?

0. Камера построена на платформе фирмы SigmaStar. Возможно вы, как и я, не слышали раньше этого имени. Но чипы именно этой компании стоят в лучших моделях веб-камер от Logitech, Microsoft и Razer. А это бесспорные лидеры рынка и эталон качества картинки.

1. В первую очередь это домашняя 2К камера. Обзор 360 градусов, ночное видение, двухсторонняя аудио-связь (динамик и микрофон), механическая шторка на объектив.

1.1. Для хранения видео-истории не обязательно использовать облачный или городить свой собственный сервер. Камера умеет хранить архивы на своей карте-памяти. Прям как старичок Xiaomi Dafang...

1.2. Камеру можно подключить к компьютеру по USB и пользоваться, как обычной веб-камерой. Забавная функция, про которую не упоминают в обзорах.

1.3. А ещё она поддерживает заветный HomeKit Secure Video. Уже на этом этапе устройство может заинтересовать ряд пользователей. Но я только начал.

1.4. Есть надежда получить доступ к встроенным RTSP и WebRTC потокам. Да, инженеры Aqara в курсе современных технологий и раздают видео с камеры сразу в формате WebRTC. Удобно и без каких-либо задержек.

2. Камера поддерживает ЛОКАЛЬНОЕ распознавание лиц и жестов. Это целевая функция, которую хотелось бы видеть в Home Assistant.

2.1. Факультативом можно попробовать расширить стандартный набор жестов для распознавания. Потому что у меня под рукой лежит документация, как создавать свои модели TensorFlow для Deep Learning Accelerator чипа камеры.

3. На камере стоит заветный Zigbee чип от Silicon Labs. А значит вся поддержка устройств Zigbee, включая устройства 3х фирм и режим ZHA, должны переехать из проекта Gateway 3 без особых приключений.

4. В камере есть управление ИК-устройствами. Приятным бонусом можно добавить и их поддержку.

5. Aqara обещает добавить в камеру свой собственный TTS. Ещё один приятный бонус.

6. Камера поддерживает Wi-Fi 5 и WPA3. Для кого-то это может быть важно.

PS. Очень хочется проверить, не затерялся ли там где-нибудь чип Bluetooth или поддержка Ethernet через USB. В общем, ждём пациента с нетерпением!
#yandexstation
Что лично я ждал больше всяких там эквалайзеров?

Да обычную версию прошивки колонки!

https://github.com/AlexxIT/YandexStation/releases/tag/v3.8.0
#yandexstation И ещё один момент...

Я уже ранее рассказывал, как проиграть на колонках Яндекса небольшие mp3-файлы. Способ подходит для создания собственных оповещений, вроде звонка во входную дверь. Так же способ описан в документации компонента в разделе Спецэффекты в TTS.

https://t.me/AlexxIT_SmartHome/177

Но если вам хочется послушать свой собственный mp3-альбом, это тоже возможно.

При наличии подписки, сервис Яндекс.Музыка поддерживает загрузку произвольных mp3-файлов. А потом такой альбом можно запустить на колонке. Например, из мобильного приложения Музыки или из Home Assistant, используя функцию Проигрывание медиа по ссылкам.
#yandexstation
Тут у меня в комментариях спросили: как сделать Интерком на колонках с Алисой? Это когда вы говорите фразу колонке, а остальные колонки в доме её произносят.

Такая функция давно есть у колонок Google. Называется Broadcast. Говорят, такое есть и у колонок Apple.

А с компонентом Yandex.Station магией можно наделить и колонки Яндекса. Но, в отличие от вышеупомянутых колонок, вы не ограничены одной экосистемой.

- отправлять фразы можно с любой колонки с Алисой (не обязательно локальной)

- отправлять фразы можно на колонку любого бренда, которая поддерживает TTS из Home Assistant. Если вы успели побаловаться функцией "Стриминг музыки" - ваши колонки его поддерживают

- нужна настроенная интеграция с Яндекс.Диалогами. Если вы ранее её настроили - полдела уже сделано

Если применить фантазию, можно использовать функцию не только для оповещений, а вообще для любых команд на колонку, которая находится в другой комнате, а, возможно, и другом городе.

Волшебное будущее даже ближе, чем вы можете себе представить.

https://github.com/AlexxIT/YandexStation/wiki/Broadcast
Забавно. Но много лет назад мой умный дом начался не с лампочки или розетки. Он начался с мультимедиа-устройства.

Тогда мне удалось научить старенькую Apple TV проигрывать видео практически с любого сайта в Интернете. Конечно же на родной прошивке без всяких модификаций.

Запустить видео можно было с любого компьютера или телефона на любой ОС. Никаких ограничений яблочной экосистемы.

И ещё можно было запустить любой фильм голосом с самодельного голосового ассистента.

Почему самодельного? Да потому что русскоговорящих голосовых ассистентов на тот момент не существовало в природе.

Сейчас уже многие мои идеи тех времён перенесены в компоненты Home Assistant. Часть самоделок потеряла актуальность, ведь функционал начал появляться в уже готовых устройствах и сервисах от больших компаний.

Всё это вспомнилось, потому что Яндекс насчитал, как я слушал Музыку минимум 4 часа в день на протяжении целого года. 😱
Забавно. Всего две недели в уходящем году остались без коммитов в какие-либо проекты. В остальном весь год был весьма активный. Количество интересных устройств и всяких идей давно превышает количество свободного времени в сутках.

Часть рабочих прототипов, вроде камеры Dafang и продвинутого Bluetooth в третьем шлюзе, поставлены на паузу и ждут лучших времён. Проект Gateway 3 в активном доведении второй версии интеграции до ума. SonoffLAN в ожидании полной переработки под новые реалии и стандарты Home Assistant. Несколько громадных статей так и зависли в статусе черновиков. Десятки умных устройств пока сложены в ящик для будущей поддержки. Трек камеры Aqara G3 раз в пару дней даёт о себе знать.

Сегодня закончился 8й месяц ежедневного бега. Так же не без приключений, но об этом как-нибудь в другой раз.

Наступающий год обещает быть не менее интересным. Ожидаем, что камера Aqara G3 подарит опыт применения нейросетевых технологий в умном доме. Надеемся, что Яндекс значительно прокачает свой умный дом, добавив в него автоматизации, хотя бы на уровне MiHome. Уже это позволит делать умными дома друзей и родственников, и связывать устройства различных экосистем, без необходимости разворачивать и поддерживать собственный домашний сервер. Верим, что недавно анонсированный датчик движения от Aqara таки увидит свет, сможет решить туалетный вопрос и не будет при этом стоить всех денег мира.

В общем, ждём чудес!
Несколько месяцев назад один популярный блогер из Флориды начал очень интересный эксперимент. Он сделал тестовый стенд для сравнения разных беспроводных датчиков контакта. Всего в тесте участвовали 14 датчиков на совершенно разных технологиях - Zigbee, ZWave, WiFi, BLE, LoRa (слышали о такой?)

И вот после четырёх месяцев испытаний победил датчик от Aqara.

Датчик победил по ряду показателей: точность срабатывания, размер, цена, работа от батарейки. По последнему параметру датчик оторвался от ближайшего конкурента более чем в два раза!

Забавно. Но в запасе у Aqara есть ещё датчик серии power (P1), вроде как с ещё более повышенным сроком работы от батарейки.

https://youtu.be/c4-8Y7jUCn0
This media is not supported in your browser
VIEW IN TELEGRAM
Забавно. Кто-то заметил подвох?..

У Яндекс Станций бывает громкость не только от 1 до 10, но и промежуточные значения. Проблема, что установить их можно только кнопками. Голосом или через локальные API громкость автоматически округляется 😔