Заметки Computer Vision инженера
5.84K subscribers
35 photos
13 videos
332 links
Мои статьи из разных мест.
Моя телега - @wk_zb

Про консультации - https://telegra.ph/Pro-konsultacii-03-19
Про рекламу - https://telegra.ph/Pro-reklamu-v-bloge-03-19
Про политоту - https://telegra.ph/Pro-politiku-na-kanale-vo-izbezhanie-bana-04-11
Download Telegram
Вторая статья, которую публикую сегодня - на Хабре. Про то, как я собрал умную видео-няню на базе Raspberry Pi, Movidius, OpenVino и PyTorch. Подписчики моего блога уже могли наблюдать отдельные куски этого проекта, которые я выкладывал с мая. Но целиком публикую и рассказываю только сейчас.
https://habr.com/ru/company/recognitor/blog/516232/
Решил запилить видео про немного бомбящую тему. Три лучших способа прослыть некомпетентным в Machine Learning. Регулярно с этим встречаюсь. Уже привык, но до их пор побаливает после каждого упоминания указанных терминов. Если вдруг что-то забыл, пишите:)
https://youtu.be/kHuQDCwA9gM
Давно хотел сформулировать эти мысли. Видео на тему того "На что надо смотреть, когда вы делаете ComputerVision проект". В первую очередь подойдёт тем, кто недавно стал руководить проектом или получил свой первый заказ на разработку готовой системы.
Пытаюсь рассказать что критично, на что обращать внимание, и как выстроить стратегию работ. От чего отталкиваться, что первично.
https://youtu.be/G6UtWlKq3gM
Всем привет! Я уже как-то рассказывал про "Школу будущих CTO" от Phoenix и Яндекс.Облака (по сути это что-то типа месячного хакатона ориентированного на законченный продукт). Ребята позвали меня прочитать несколько лекций + посудить.
Одна из моих лекций будет завтра, в 11 утра, в zoom. Мы решили сделать её открытой для всех, кто захочет придти. Тема лекции заявлена как "«Лучшие практики в CV” или “Интересные решения в CV» ", говорить на ней буду про несколько тем:
- Основная сложность внедрения моделей. Почему важна целостность МЛ-решения и бизнес задачи.
- Как правильно проводить эксперименты, что они должны решать.
- Как правильно выстраивать архитектуру и инфраструктуру МЛ решения.

Лекция будет минут 30-40+минут 20-30 вопросы. Запись надеюсь сюда выложить. Ссылка на завтрашний zoom - https://us02web.zoom.us/j/6161533272?pwd=ZGZXMkNEenZINnlTb1NucS8ySXp4UT09
Обещал вчера скинуть запись лекции, которую проводил. Получите-распишитесь:)
Лекция про то как обычно выстроена архитектура СМ решения, на что надо в первую очередь смотреть, если вы делаете систему с нуля. В какой момент вводить в проект метрики.
Попробовал это густо обмазать примерами из опыта.
А в конце ещё были интересные вопросы:)
https://youtu.be/YgLr9VUpSxU
Небольшой рассказ о том, как мы когда-то давно пришли к задачам распознавания товаров на полках:
1) Как мы рискнули взять задачу, которая на тот момент казалась нерешаемой
2) Как мы выстроили логику работы проекта
3) Как трансформировались алгоритмы с той поры

https://youtu.be/O7ujNLPGxMs
Сегодня Александр (автор весьма известного канала по NLP, с которым мы знакомы уже года 3) и его команда зарелизили очень крутые OpenSource модели SST.
Почему это круто? Банально, потому что любой SST высокого качества сейчас либо ужасно настраивается и неюзабилен (как тот же Kaldi), либо это платные он-лайн модели (тот же Yandex, Google), либо не оптимизированы под железо.

Мне кажется, что такие штуки могут породить новую волну стартапов. Это круто, что ребята решились на такой шаг.

Анонс - https://t.me/snakers4/2554
Сорсы - https://github.com/snakers4/silero-models
Канал - https://t.me/snakers4
Сайт Александра - http://spark-in.me
Какое-то время назад я уже рассказывал о том, как получается классический 3D.
Пришло время рассказать о том, что такое монокулярный и как к нему сейчас подходят. На запись видео меня сподвигли появившиеся недавно сорсы Consistent Video Depth Estimation. Но скорее я рассказываю вообще о том, какие подходы существуют, куда всё движется, и почему упомянутая статья это неплохо.
https://youtu.be/1gnUFHqq0hc
Пару дней назад уже записывал видюшку, в которой рассказывал про, то что такое сегодня монокулярный 3D. Параллельно сделал чуть более подробную статью на Хабр о том, как оно работает - https://habr.com/ru/company/recognitor/blog/519798/
Разобрал доклады по ComputerVision с прошедшего DataFest. Разбирал только из секции CV in industry. Остальные секции возможно тоже разберу, но начала поищу что там интересного было.
В первую очередь пытаюсь рассказать что понравилось + рассказать когда на похожие вещи натыкались на практике и что с ними делали сами:)
https://youtu.be/HoduB-KiDo0
Прошёл по оставшимся CV докладам с DataFest, которые не попали в секцию CV in industry. Старался брать те, которые могут понадобиться в CV, или быть интересными.
В целом, ещё 2-3 приятных доклада, которые любопытно послушать было - нашёл. Но, не скажу, что это фонтан. По сравнению с теми, про которые в прошлый раз говорил.
https://youtu.be/pGbyTtWRRmo
Я в этом году уже делал два поста про трекинг. Большую статью на Хабре + небольшую статью в своём блоге. Но это были скорее гайды на тему how-to. Решил несколько связать и докинуть пару мыслей и примеров из практики, которые в статьи плохо влезали.
https://youtu.be/PvwKVctCjsE
Какое-то время назад я рассказывал небольшую лекцию на 20-30 минут про общение с заказчиками в ML. В первую очередь говорил про метрики, когда на них обращать внимание, когда нет. И как понимать, что в реальности имеет в виду заказчик, а в каком случае его лучше не слушать.
Попробовал пересказать свой рассказ в виде записи. Немного сумбурно, но мысли, мне кажется, сохранились;)
https://youtu.be/bsyJ2CJcqcE
Небольшой рассказ о том, как можно решать Computer Vision задачи под заказ. Где искать, чего ожидать. В чём разница от фриланса. Это некоторое глубокое ИМХО, так как понимаю, что оно может разниться.
https://youtu.be/fJYcl-EF-0s
В последнее время часто слышал утверждения про специализации в ComputerVision, про большое различие в задачах, о разных технологиях, знаниях и навыках. Это и так и не так одновременно. Попробовал рассказать своё видение на эти вопросы.
https://youtu.be/rVPNzaBOUCk
Недавно @meduzalive выпустило статью в которой был высказан один из самых мерзких мифов относящихся к Machine Learning, связанный с распознаванием того что говорят пользователи около умных устройств. Статья рекламная, так что хрен с ними. Но решил всё же записать небольшое видео где поговорить про этот, и про другие известные мифы. Чтобы когда ещё что-то спросит - то кидать ссылку.
https://youtu.be/wHPp8L0KtMg
Полистав youtube последнего DataFest, внезапно нашёл записи трека, ссылка на который была бита в основном указателе. Трек весьма интересный и познавательный. Как минимум 3-4 доклада было интересно послушать. С многими докладами я согласен.
Мне кажется, чтобы это повод поговорить немного о том, как устроено управление DS проектами + обсудить содержание трека.
https://youtu.be/PQCL_7MRdmc
Ещё с весны в загашниках лежали наработки по статье для хабра. Наконец добил их и выложил. Статья про то, как сегодня можно замутить инференс нейронки. К статье сделал видюшку для тех, кому читать скучно и удобнее смотреть.
https://habr.com/ru/company/recognitor/blog/524980/
https://youtu.be/xfOijJ9K_D8
Всем привет! Я думаю, что многие и так знают, на этих выходных будет ODS Data Halloween - https://ods.ai/events/halloween2020
Артур предложил поучаствовать в секции QnA. Мне идея понравилась, и я согласился:)
Вопросы можно задавать либо в этом треде, либо писать в личку, либо прямо на месте, в Spatial Chat. Не знаю, будет ли кто-то делать запись. Если нет - попробую сам свой кусок записать и выложить.
Самые безумные выходные за последнее время. Во-первых, помогал проводить хакатон (как эксперт и судья). В первый день провести почти 55 чекпоинтов, за второй день погрузиться в 20 независимых решений и выбрать лучшие. Но про это потом, наверное через какое-то время на Хабре пост сделаем.
Во-вторых, Артур пригласил на QnA сессию DataHalloween. Были интересные вопросы, мне понравилось. Я несколько варёный оказался из-за хакатона. Но, как и обещал, выкладываю.
https://youtu.be/3lJc-DkLX5I
Небольшое видео с размышлениями о том почему мы делаем именно ComputerVision задачи, и почему считаем что делать разработки в других ML-доменах достаточно затратно по силам, имея бекграунд в CV.
https://youtu.be/-I3QWjQ5rnc