Заметки Computer Vision инженера
5.84K subscribers
35 photos
13 videos
332 links
Мои статьи из разных мест.
Моя телега - @wk_zb

Про консультации - https://telegra.ph/Pro-konsultacii-03-19
Про рекламу - https://telegra.ph/Pro-reklamu-v-bloge-03-19
Про политоту - https://telegra.ph/Pro-politiku-na-kanale-vo-izbezhanie-bana-04-11
Download Telegram
Внезапно обнаружил что в нескольких станциях метро от меня расположен "аналог Amazon Go" (звучит очень гордо но все же). Небольшой магазин без касс. Скорее, конечно, он используется как отладчик технологии, но посетителям с улицы можно войти. Поехал посмотреть как он устроен. Некоторые вещи были немного неожиданными. Ну, и решил сделать небольшое видео-разбор логики этого места + пост в блог с фотками для понятности
http://cv-blog.ru/?p=409
https://youtu.be/gwaZJhyzymU
Две недели назад прошла конференция AI-journey от сбербанка. На ней было достаточно много ComputerVIsion докладов...
Я попробовал их разобрать. Но сразу предупрежу, что конференция очень хаотичная и путанная. У них было и масса технических проблем, и явно проблема с подбором и выстраиванием репертуара. У них есть определенно хорошие доклады в некоторых не CV-секциях, но именно в CV есть просто несколько "стабильно-средних". Короче, тут подробнее рассказываю впечатления -
https://youtu.be/zBtUzwFpZwY
Описал чеклист который использую чтобы понять объем задачи при попытке её оценить. Что спрашивать, куда смотреть, что не забыть. Тут, конечно, все вокруг моего опыта и моих задач, так что вариантов может быть много.
Видео - https://youtu.be/EgoXjFqgvns
Заметка - http://cv-blog.ru/?p=423
Всем привет!
Есть всего несколько общественных организаций которым я периодически жертвую деньги. Одна из них - ОВД-инфо. К чему это тут?

Ребята устраивают хакатон по обработке данных!:)
Меня никто не просил рекламить, но кажется, про это следует рассказать.
https://coda.io/@ovdinfo/hackathon-with-memes
Если я правильно понимаю, то именно Computer Vision задач там нет. Но, DS весь друг с другом пересекается.

(p.s. Мемчики про машинное обучение тоже крутые)
Последние пару недель из всех щелей бьют статьи про CLIP - новую убер-сетку от GoogleAI. Решил разобраться, имеет ли оно смысл.
Хотел выложить в конце января, но решил ещё пару дней потестить, посмотреть. В результате получилось ровно то же самое, что рассказываю в видео. Как только датасет не соответствует простым объектам и их взаимосвязям - CLIP не срабатывает.
https://youtu.be/oyBNkj3Xg9s
В прошлом видео я просил накидать вопросов и идей на новые видео. Мне понравились вопросы про архитектуру сетей, попробовал их обобщить и ответить. Как выбрать нейронку для вашей задачи? А если разработать? Когда будет иметь смысл влезать в дебри?
https://youtu.be/Y-OnWYERy18
Для решения ваших задач через ML не всегда нужно выбирать и запускать нейронные сети. Не всегда надо ресерчить на просторах интернета и сравнивать разные подходы. Обычно можно взять что-то простое и быстро проверить.
Но порой приходиться все же запариться и начать копать. Где копать? На что смотреть? Для специалиста в теме это глупые вопросы. У каждого свой подход. Кто-то идет на Papers With Code, кто-то на Reddit кто-то в ODS.
Рассказал что делаю сам.
https://youtu.be/gIOhQe-dfr0
Меня уже много раз спрашивали что я использую для ML, как настраиваю окружение, где GPU и какие. Наверное, это все достаточно скучные вопросы для профессионалов. Они сформировали свои привычки в первые пол года после входа. Но, для новичков, возможно будет интересно, чтобы послушать какие бывают варианты. Все-таки моя инфраструктура не совсем стандартная.
https://youtu.be/zCHFFW2YJ1c
Летом я в первый раз в своей жизни заказал что-то на Кикстартере. И теперь странная девайсина наконец дошла до меня. Рассматриваю, запускаю и пытаюсь понять нужен ли этот формат вообще где-то.
Видео + пост в блоге с ссылками на код и более структурированными плюсами и минусами.
https://youtu.be/ZxfWp5_yRiw
http://cv-blog.ru/?p=429
Небольшой рассказ о том как выбирать баланс между нейронными сетями и аппаратной составляющей проекта. На полноту не претендует, но возможно натолкнет на идеи где важнее хорошая камера, где грамотный алгоритм, а где их взаимный баланс.
https://youtu.be/LxNmUitR7tY
Часто люди считают что в ComputerVision много математики. В реальности сложная и интересная математика - это скорее редкость для проектов. Небольшой рассказ на что и где наталкивался и с чем встречался.
https://youtu.be/D1cufPHgBB4
Записал свои мысли на тему автоматизации. Что можно автоматизировать в ML-пайплайне, как это делать, когда это нужно и куда смотреть.
https://youtu.be/B9-VZjqaIpY
Не все проекты в CV доходят до какого-то логического конца. Какие-то начинаются и умирают в первую неделю. Спешл к 1му апреля - рассказываю о историях когда делал разные пет-проекты или работы которые не доросли до полноценных проектов, зато выдавали много полезного опыта.
https://youtu.be/HG6SbYDwYsY
На днях вышла офигенная сетка которая бьет State-of-art на задачах сегментации и оценки глубины (естественно за счет трансформеров). Но почему-то про неё нет нигде информации. Исправляю это недоразумение, делаю краткий обзор сетки/что она умеет.
https://youtu.be/Bd8jFcoJBto
Периодически закапываюсь и делаю очередной обзор рынка embedded устройств для ComputerVision. Сейчас триггернул OAK, на который недели две назад я делал обзор. И вот, очередная статья на Хабр - https://habr.com/ru/company/recognitor/blog/551552/
Посмотрел доклады с GTC. Он пока ещё в процессе, но основная часть интересных докладов уже прошла. Часть 1 - про кейноты и развитие NVIDIA. Что-то на удивление слабо в этом году. Из сильного - OMNIVERSE, но это для огромных компаний. И, повсеместное продвижение TRITON. На этом, пожалуй, все.
Завтра выложу видео с обзором продуктовых рассказов на конференции.
https://youtu.be/QtSdxgm2JPg
Вчера обещал вторую часть разбора GTC. Про практические работы которые там докладывались по теме ComputerVision. Что-то стартапы, что-то студенческие проекты, что-то фанатские.
В целом уровень работ неплохой. Рассказываю что понравилось и что нет.
https://youtu.be/qYBEfxE4FSs
Всем привет! Мы в CherryLabs последние пару месяцев неспешно ищем BackEnd разработчика с некоторым пониманием/опытом в CV/ML. Решил тут тоже запостить, вдруг кому интересно - https://telegra.ph/Software-engineer-MLData-focus-04-19
Основные задачи - автоматизация пайплайнов сбора/передачи данных, запуска контейнеров с обучением/выкаткой в прод.
В последние пару месяцев идет масса новых статей по применению Трансформеров к ComputerVision. Попробовал систематизировать их и написать статью на Хабре что нового и откуда это все - https://habr.com/ru/company/recognitor/blog/553478/
А параллельно - видео, кому читать лень - https://youtu.be/xQFeeh5DqeY ;)
Меня часто спрашивают как сделать детекцию.
Статьи на хабре 10 летней давности о каскадах Хаара дают о себе знать;)
Небольшой обзор для людей кто хочет въехать с нуля в 2021. Куда смотреть, что использовать, что обучать или не обучать. Объясняю почему сейчас не надо использовать каскады Хаара и как зоопарки моделей завязываются на аппаратуру
https://youtu.be/5_z33SG5MYg
Немного рассуждений о том когда и зачем нужны Transfer Learning. Рассказ скорее для новичков, которые пытаются понять где это применимо, какие границы. Рассказываю базовые штуки + идеи что и как применять
https://youtu.be/n-bWMIqRsIM