Всем привет!
С наступающим Новым Годом!
Недавно канал набрал 4к подписчиков (YouTube канал взял эту цифру месяц назад). Большое спасибо что смотрите и читаете:)
Новый Год близиться. Так что подведу некоторые мысли о том куда канал развивается, куда движется, что за год нового понял, и какая текущая статистика.
А так же отвечу на самый популярный вопрос:)
https://telegra.ph/Zametki-Computer-Vision-inzhenera-20232024-12-30
С наступающим Новым Годом!
Недавно канал набрал 4к подписчиков (YouTube канал взял эту цифру месяц назад). Большое спасибо что смотрите и читаете:)
Новый Год близиться. Так что подведу некоторые мысли о том куда канал развивается, куда движется, что за год нового понял, и какая текущая статистика.
А так же отвечу на самый популярный вопрос:)
https://telegra.ph/Zametki-Computer-Vision-inzhenera-20232024-12-30
Telegraph
Заметки Computer Vision инженера 2023/2024
Всем привет! Недавно канал набрал 4к подписчиков (YouTube канал взял эту цифру месяц назад). Большое спасибо что смотрите и читаете:) Новый Год близиться. Так что подведу некоторые мысли о том куда канал развивается, куда движется, что за год нового понял…
🔥62❤5💩1
Всем привет!
Небольшое видео про RPi5. Рассказал о том какой фреймворк лучше, как экспортнуть на него сеточку. Ну и почему RPi хорошо, а почему плохо для Computer Vision.
Ну и забенчмаркал, конечно.
https://youtu.be/vZGecjoUiAI
Небольшое видео про RPi5. Рассказал о том какой фреймворк лучше, как экспортнуть на него сеточку. Ну и почему RPi хорошо, а почему плохо для Computer Vision.
Ну и забенчмаркал, конечно.
https://youtu.be/vZGecjoUiAI
YouTube
Raspberry Pi 5 for Image Recognition: detection, classification
00:00:00 - Intro
00:00:08 - Landscape: existing frameworks (NCNN, ONNX-RUNTIME, TFLITE)
00:00:56 - Not the best board!
00:03:01 - SD cards, Power supply
00:04:49 - The best neural inference framework for Raspberry Pi 5
00:05:53 - Competitors
00:07:33 - How…
00:00:08 - Landscape: existing frameworks (NCNN, ONNX-RUNTIME, TFLITE)
00:00:56 - Not the best board!
00:03:01 - SD cards, Power supply
00:04:49 - The best neural inference framework for Raspberry Pi 5
00:05:53 - Competitors
00:07:33 - How…
🔥31❤3
Признаюсь, у меня немного пригорело:)
На одном из популярных каналов про Computer Vision вышло видео с примером того как не надо делать распознавание скорости. Под соусом правильной системы. При этом я бы понял, если бы автор говорил что это наглядный пример для начинающих, но реальность будет другой. Для этих целей видео более чем годиться.
Но нет, в видео автор говорит что так и надо делать. Такие гайды, если становятся популярными - на годы вперед начинают генерить системы с неправильным дизайном. Я видел много такого для трекинга, подсчета людей, и.т.д.
Так что решил по-быстрому сделать видео-ответ где показал почему приведенный подход не очень, и в какую сторону надо смотреть. А тем кто смотрит/читает меня давно, напомню что у меня есть видео на русском где я разбираю тему как решать задачу подробнее.
https://youtu.be/bjljUgpLloM
На одном из популярных каналов про Computer Vision вышло видео с примером того как не надо делать распознавание скорости. Под соусом правильной системы. При этом я бы понял, если бы автор говорил что это наглядный пример для начинающих, но реальность будет другой. Для этих целей видео более чем годиться.
Но нет, в видео автор говорит что так и надо делать. Такие гайды, если становятся популярными - на годы вперед начинают генерить системы с неправильным дизайном. Я видел много такого для трекинга, подсчета людей, и.т.д.
Так что решил по-быстрому сделать видео-ответ где показал почему приведенный подход не очень, и в какую сторону надо смотреть. А тем кто смотрит/читает меня давно, напомню что у меня есть видео на русском где я разбираю тему как решать задачу подробнее.
https://youtu.be/bjljUgpLloM
YouTube
Speed estimation from video - a challenging task!
Original video - https://www.youtube.com/watch?v=uWP6UjDeZvY
00:00:00 - Intro
00:02:35 - Errors of the algorithm
00:06:52 - What causes them
00:13:24 - Problem with environment
00:20:43 - How the real algorithms are built
My LinkedIn - https://www.lin…
00:00:00 - Intro
00:02:35 - Errors of the algorithm
00:06:52 - What causes them
00:13:24 - Problem with environment
00:20:43 - How the real algorithms are built
My LinkedIn - https://www.lin…
🔥57❤6😱3
На Хабре не писал уже давным давно. Как-то сейчас получается что проще сделать видео или небольшую узкоспециализированную статью на медиуме. Но какую-то длинную и сложную мысль с большим числом отсылок однозначно надо публиковать на Хабре. Собственно некоторое суммирование о всех больших моделях про которые я говорил на своём канале с весны решил сделать - https://habr.com/ru/companies/recognitor/articles/786646/
В тексте обзор + немного мыслей о том куда это все идет. Сейчас явно не волна хайпа на тему "ресерчеры не нужны", но кажется что тема иногда витает в воздухе:)
В тексте обзор + немного мыслей о том куда это все идет. Сейчас явно не волна хайпа на тему "ресерчеры не нужны", но кажется что тема иногда витает в воздухе:)
Хабр
«Пора ли гнать на мороз Computer Vision — scientist'ов ?» (Fondation Models и вокруг)
Прошлый год в Computer Vision запомнился тем, что появилось множество больших претрейненных сетей (Fondation Models). Самая известная - GPT4v (ChatGPT с обработкой изображений). В статье я попробую...
🔥42❤16
Думал ещё записать видео, но пожалуй обойдусь без.
Диаграмма это лишь малая часть того что есть в Computer Vision. И конечно, не полная. Тут почти ничего нет про One-Shot, про роботов, про медицину (а там много специфики!). Многие ссылки из приведенных - из моих обзоров. Там где их не было - попробовал добавить хорошие статьи обзорные, которые знаю. Или ссылки на метрики. Так же условно разделение на "блоки".
Я попробовал сделать схему такой чтобы новичкам или мидлам было интересно почитать что они упускают. Если хотите скинуть ссылку на хорошую обзорную статью по темам, где ссылок мало - кидайте, попробую добавить:)
Полистать оригинал можно тут - https://miro.com/app/board/uXjVN3JBiS4=/?share_link_id=549100776746
Диаграмма это лишь малая часть того что есть в Computer Vision. И конечно, не полная. Тут почти ничего нет про One-Shot, про роботов, про медицину (а там много специфики!). Многие ссылки из приведенных - из моих обзоров. Там где их не было - попробовал добавить хорошие статьи обзорные, которые знаю. Или ссылки на метрики. Так же условно разделение на "блоки".
Я попробовал сделать схему такой чтобы новичкам или мидлам было интересно почитать что они упускают. Если хотите скинуть ссылку на хорошую обзорную статью по темам, где ссылок мало - кидайте, попробую добавить:)
Полистать оригинал можно тут - https://miro.com/app/board/uXjVN3JBiS4=/?share_link_id=549100776746
🔥102❤14💩1
Я уже вскользь упоминал про эту железку. Наконец добрался потестить LuckFox Pico Max Pro (RV1106).
Что ж. Это интересно. Нейроночки на МК становятся все удобнее и удобнее. Да, это не Питон. Но это уже "используй адеватный фреймворк для подготовки и экспорта, заинфери на плюсах". А это уже неплохо.
Есть странности с int8. Есть кривости с прошивкой. Но, в целом, при сохранении направления движения у РокЧипа через пару лет все должно стать сильно лучше. Так что получите, распишитесь:
https://www.youtube.com/watch?v=PdgeH8H5iN0
Что ж. Это интересно. Нейроночки на МК становятся все удобнее и удобнее. Да, это не Питон. Но это уже "используй адеватный фреймворк для подготовки и экспорта, заинфери на плюсах". А это уже неплохо.
Есть странности с int8. Есть кривости с прошивкой. Но, в целом, при сохранении направления движения у РокЧипа через пару лет все должно стать сильно лучше. Так что получите, распишитесь:
https://www.youtube.com/watch?v=PdgeH8H5iN0
YouTube
Cheap and convenient Computer Vision (Machine Learning). For RV1106/RV1103 (LuckFox Max Pro, etc.)
00:00:00 - Intro
00:00:58 - Quick spoiler
00:02:02 - How to install the system (Ubuntu, Buildroot)
00:04:29 - Ubuntu vs Buildroot. Python vs C++. Overview
00:05:21 - Cross-compilation (how to set up). How to build and run RKNN example.
00:06:57 - Inference.…
00:00:58 - Quick spoiler
00:02:02 - How to install the system (Ubuntu, Buildroot)
00:04:29 - Ubuntu vs Buildroot. Python vs C++. Overview
00:05:21 - Cross-compilation (how to set up). How to build and run RKNN example.
00:06:57 - Inference.…
🔥40
Мне кажется, что Шахизат становится моим главным поставщиком плат:)
Уже вторая схема появилась по схеме: "Антон, тебе точно надо затестить вот эту плату. Я уже договорился с производителями, сейчас они тебе её бесплатно вышлют":)
Короче, спасибо Шахизату и Seeed Studio!
А поговорим мы сегодня про Grove Vision Ai 2. Мне кажется, что плата забавная. Последний раз на Grove AI v1 я смотрел давным-давно, и осмысленности там было мало. Очень слабый вычислитель, сложно загружать сетки.
Но со временем экосистема решила часть этих проблем. И вторая версия уже не может рассматриваться вне контекста экосистемы.
Экосистема нацелена на умные дома. Есть связка с MQTT, есть готовый скрипт постинга по UART. И большая библиотека готовых сеток. Загрузка своих сеток тоже есть, но весьма ограниченная. И кажется, что для этой платы это и не нужно.
А вот решить задачу детекции котика перед дверью теперь можно сильно проще чем раньше.
Короче, видео - https://youtu.be/vZoFVr-3xLw
Уже вторая схема появилась по схеме: "Антон, тебе точно надо затестить вот эту плату. Я уже договорился с производителями, сейчас они тебе её бесплатно вышлют":)
Короче, спасибо Шахизату и Seeed Studio!
А поговорим мы сегодня про Grove Vision Ai 2. Мне кажется, что плата забавная. Последний раз на Grove AI v1 я смотрел давным-давно, и осмысленности там было мало. Очень слабый вычислитель, сложно загружать сетки.
Но со временем экосистема решила часть этих проблем. И вторая версия уже не может рассматриваться вне контекста экосистемы.
Экосистема нацелена на умные дома. Есть связка с MQTT, есть готовый скрипт постинга по UART. И большая библиотека готовых сеток. Загрузка своих сеток тоже есть, но весьма ограниченная. И кажется, что для этой платы это и не нужно.
А вот решить задачу детекции котика перед дверью теперь можно сильно проще чем раньше.
Короче, видео - https://youtu.be/vZoFVr-3xLw
YouTube
Grove Vision AI Module V2. Overview of platform for computer vision tasks.
00:00:00 - Intro
00:00:30 - Disclamer
00:00:44 - Small story about the general idea
00:01:19 - Two click detection into MQTT
00:03:01 - Limitation of this pipeline
00:03:48 - Detection training
00:04:26 - Memory limitation
00:05:19 - Other models through…
00:00:30 - Disclamer
00:00:44 - Small story about the general idea
00:01:19 - Two click detection into MQTT
00:03:01 - Limitation of this pipeline
00:03:48 - Detection training
00:04:26 - Memory limitation
00:05:19 - Other models through…
🔥28
Сегодня думал доделать ещё одно видео выложить.
Но слишком грустно.
Если вдруг кого-то скрутят менты при попытке возложить цветы на памятники - напоминаю, есть ОВД-инфо, которое пробует вам помочь.
Если что, не стесняйтесь писать мне/сюда.
Но слишком грустно.
Если вдруг кого-то скрутят менты при попытке возложить цветы на памятники - напоминаю, есть ОВД-инфо, которое пробует вам помочь.
Если что, не стесняйтесь писать мне/сюда.
💔188💩46❤2
Вокруг все только и говорят о Yolo-World. Сетка хорошая, не спорю.
Но давайте посмотрим на то где и как она реально применима.
https://youtu.be/3N03SPeDwMA
Но давайте посмотрим на то где и как она реально применима.
https://youtu.be/3N03SPeDwMA
YouTube
Yolo-World. Is it good for real production?
00:00:00 - Intro
00:00:27 - Straight into tests
00:01:23 - Speed test
00:01:52 - A bit of logic behind
00:03:24 - Where you need to use Yolo-World?
My LinkedIn - https://www.linkedin.com/in/maltsevanton
My Telegram channel - https://t.me/CVML_team
e-mail:…
00:00:27 - Straight into tests
00:01:23 - Speed test
00:01:52 - A bit of logic behind
00:03:24 - Where you need to use Yolo-World?
My LinkedIn - https://www.linkedin.com/in/maltsevanton
My Telegram channel - https://t.me/CVML_team
e-mail:…
🔥25❤2
Хочу сделать небольшую серию из видео где рассказать о проектах которые нам попадались. Первое видео в серии про забавные проекты. Самые смешные пока под NDA но собралась забавная подборочка.
https://youtu.be/8vjGkh8SN88
https://youtu.be/8vjGkh8SN88
YouTube
Computer Vision - how it looks inside. Example of a few funny projects.
00:00:00 - Intro
00:00:51 - Smart Robotic Arm for 3D scanning
00:02:27 - Jump over the dog detection
00:03:35 - How to make virtual fitting in a few weeks
00:05:20 - "High tech low life"
00:08:05 - 5 projects we declined
My LinkedIn - https://www.linke…
00:00:51 - Smart Robotic Arm for 3D scanning
00:02:27 - Jump over the dog detection
00:03:35 - How to make virtual fitting in a few weeks
00:05:20 - "High tech low life"
00:08:05 - 5 projects we declined
My LinkedIn - https://www.linke…
🔥30❤3
Небольшой квиз на сегодня. Вот подбородка плат для Computer Vision, которые у меня сейчас есть. Два вопроса на знание матчасти и два вопроса по делу:
1) Как много из них вы узнаете?
2) Каких обзоров на канале пока не было?:)
1) Какие бы платы мне ещё побенчмаркать?
2) Про какие из приведенных нужна вторая серия?:)
1) Как много из них вы узнаете?
2) Каких обзоров на канале пока не было?:)
1) Какие бы платы мне ещё побенчмаркать?
2) Про какие из приведенных нужна вторая серия?:)
🔥19
Я смотрю тут все ждут тестов двух новых плат?
Пока что не будет! И даже... Не будет куда более эпичного видео которое я готовлю последний месяц, но которое скоро выйдет...;)
Сегодня будет продолжение прошлого видео о том где используется Computer Vision. Я продолжу рассказывать о том где применяется Computer Vision. Но на этот раз я попробую рассказать про сложные системы которые помогал разрабатывать. Попробовал уложить каждый из них в ~1 минуту, чтобы дать общую картинку того что такое Computer Vision. Надеюсь это будет просто любопытно + поможет новичкам понять что им может быть интересно.
https://youtu.be/9t8eASTrIP0
Пока что не будет! И даже... Не будет куда более эпичного видео которое я готовлю последний месяц, но которое скоро выйдет...;)
Сегодня будет продолжение прошлого видео о том где используется Computer Vision. Я продолжу рассказывать о том где применяется Computer Vision. Но на этот раз я попробую рассказать про сложные системы которые помогал разрабатывать. Попробовал уложить каждый из них в ~1 минуту, чтобы дать общую картинку того что такое Computer Vision. Надеюсь это будет просто любопытно + поможет новичкам понять что им может быть интересно.
https://youtu.be/9t8eASTrIP0
YouTube
Computer Vision from inside
00:00:00 - Intro
00:00:56 - Iris recognition
00:01:42 - Car Plate Recognition
00:02:54 - Vien Palm Recognition
00:04:02 - 3D reconstruction - ICP, SLAM, Scanning
00:05:20 - X-Ray fluorography
00:06:44 - Goods recognition in stores
00:08:42 - 3D navigation…
00:00:56 - Iris recognition
00:01:42 - Car Plate Recognition
00:02:54 - Vien Palm Recognition
00:04:02 - 3D reconstruction - ICP, SLAM, Scanning
00:05:20 - X-Ray fluorography
00:06:44 - Goods recognition in stores
00:08:42 - 3D navigation…
🔥34
Сегодня будет ЭПИК.
Видео продумывал/записывал последние месяца 3. Кажется, что это просто супер полезный референсный материал для выбора 3Д камеры. Можно посмотреть на картинку, сравнить и понять что нужно. Плюс, с учетом 10 лет опыта работы с разными 3Д камерами подсказываю куда смотреть чтобы не оплошать.
Не забывайте лайкать на ютубе, чтобы все кому это будет полезно увидели этот гайд!
https://youtu.be/JmZdSGtJHNw
Видео продумывал/записывал последние месяца 3. Кажется, что это просто супер полезный референсный материал для выбора 3Д камеры. Можно посмотреть на картинку, сравнить и понять что нужно. Плюс, с учетом 10 лет опыта работы с разными 3Д камерами подсказываю куда смотреть чтобы не оплошать.
Не забывайте лайкать на ютубе, чтобы все кому это будет полезно увидели этот гайд!
https://youtu.be/JmZdSGtJHNw
YouTube
RealSense vs. OAK vs. ZED vs. Azure Kinect vs. Mech Mind 3D cameras comparison
Comparison for 3D cameras from Aivero - https://aivero.com/overview-of-depth-cameras/ (the best right now)
A lot of thanks to Christian, who helped with this video - https://www.linkedin.com/in/crokseth/
My article about physics behind cameras - https://…
A lot of thanks to Christian, who helped with this video - https://www.linkedin.com/in/crokseth/
My article about physics behind cameras - https://…
🔥67❤5💩2
Ох. Хорошая юморная история в которой слилась верификация данных, OpenAI и любимый КР:)
Мои давние подписчики знают что примерно год я жил в Бишкеке. С тех пор знаю много народа оттуда и с удовольствием читаю AI чатики в телеге. Пару дней назад в анонсах выступлений проскочило это.
Даже не знаю что смутило меня больше. "Создатель Chat-GPT" или "VP OpenAI" или то что я в первый раз встретил это имя/фамилию.
Но OpenAI VP успел встретиться даже с кабмином Кыргызстана:)
Пошёл гуглить. Это смутило ещё больше (1, 2). Человек уровня VP, который ни в одном личном профиле не удосужился поставить свою причастность к организации.
Начали разбираться. В инете действительно за 2023 год на разных эвентах и митапах он упоминается как сотрудник. Кроме VP Strategy and Product как ProductLead и Head Of Product. Хороший карьерный рост за год!:)
Сайты OpenAI куда более скромны. Но там есть как "Human data product manager". Его фотография есть на новости про открытие Лондонского офиса. Чуть чуть позже в соседнем чатике люди тоже поняли что что-то странное происходит и нарыли те же линки и стали заваривать бучу.
Пара первичных подтверждений что он не VP OpenAI уже есть. Тут ещё надо пошутить что по мнению причастных ChatGPT-4, ChatGPT-3 и Copilot VP он все же не является. На сайте OpenAI назначение всех VP освещается.
Но варианты типа "VP of Data" в Лондонском офисе пока остаются. Хотя на выступлении Арка чётко говорит VP of Data OpenAI. Ждём утра в SF пока все запрошенные поотвечают и прокомментируют ситуацию:)
Но история и мораль не к тому. Когда мы хотим от LLM модели какую-то достоверность в выдаваемой информации - зачастую мы не понимаем насколько это сложно даже для людей. Проверка информации - это поиск её по крупицам, и зачастую нетривиальные сопоставления. LLM может хорошо анализировать тексты, но контекст, анализ и проверка пока что остаются за гранью. А тем более "пойти подёргать знакомых".
Хорошая байка вышла:)
Мои давние подписчики знают что примерно год я жил в Бишкеке. С тех пор знаю много народа оттуда и с удовольствием читаю AI чатики в телеге. Пару дней назад в анонсах выступлений проскочило это.
Внимание! В Кыргызстан приехал Вице Президент компании OpenAI, создатель чата GPT - Арка Дхар!
Даже не знаю что смутило меня больше. "Создатель Chat-GPT" или "VP OpenAI" или то что я в первый раз встретил это имя/фамилию.
Но OpenAI VP успел встретиться даже с кабмином Кыргызстана:)
Пошёл гуглить. Это смутило ещё больше (1, 2). Человек уровня VP, который ни в одном личном профиле не удосужился поставить свою причастность к организации.
Начали разбираться. В инете действительно за 2023 год на разных эвентах и митапах он упоминается как сотрудник. Кроме VP Strategy and Product как ProductLead и Head Of Product. Хороший карьерный рост за год!:)
Сайты OpenAI куда более скромны. Но там есть как "Human data product manager". Его фотография есть на новости про открытие Лондонского офиса. Чуть чуть позже в соседнем чатике люди тоже поняли что что-то странное происходит и нарыли те же линки и стали заваривать бучу.
Пара первичных подтверждений что он не VP OpenAI уже есть. Тут ещё надо пошутить что по мнению причастных ChatGPT-4, ChatGPT-3 и Copilot VP он все же не является. На сайте OpenAI назначение всех VP освещается.
Но варианты типа "VP of Data" в Лондонском офисе пока остаются. Хотя на выступлении Арка чётко говорит VP of Data OpenAI. Ждём утра в SF пока все запрошенные поотвечают и прокомментируют ситуацию:)
Но история и мораль не к тому. Когда мы хотим от LLM модели какую-то достоверность в выдаваемой информации - зачастую мы не понимаем насколько это сложно даже для людей. Проверка информации - это поиск её по крупицам, и зачастую нетривиальные сопоставления. LLM может хорошо анализировать тексты, но контекст, анализ и проверка пока что остаются за гранью. А тем более "пойти подёргать знакомых".
Хорошая байка вышла:)
🔥64😱1
Поговорим о Gr00t.
Gr00t - это Foundation Model для роботов (с некоторыми пайплайнами тренировки). Предполагается что будет большой эмулятор на базе Isaac Lab через который можно будет тренировать роботов. “Прорыв”, “новый мир” и прочие замечательные слова от человека в кожаной куртке. Итак, мысли:
1) История говорит что у Nvidia чем сложнее программный продукт, тем меньше вероятность что им кто-то будет пользоваться. Самые массовые - CUDA и TensorRT, которые максимально простые. Deep Stream вызывает уже много вопросов. TAO и прочие попытки автоматизировать обучение вызывают скорее смех.
2) Многие знают про треш в который вырождается разработка на ROS. А тут мы имеем двадцать роботов. Скорее всего ROS-не совместимых и проприетарных. Это реально сложная архитектурная и технологическая задача.
3) Где-то я слышал шутку, что когда вы делаете генератор данных для тренировки, то вы умножаете команду на два. Кроме DS команды вам теперь нужна команда по созданию энвайромента, его настройке и.т.д. Что-то намекает что с Gr00t будет так же. Для больших компаний этот подход позволительный, но все компании размером до сотни человек будут старательно его избегать.
4) One Shot learning. Посмотрите видео ниже ⬇️ (сейчас загрузиться). Это наша текущая система едет из точки A в точку B. При этом, для обучения достаточно даже одного примера. One-Shot Learning развивается с огромной скоростью. Да, под Gr00t это и будет в каком-то смысле Fondation Model. Но если он будут достаточно хорош и универсален - зачем нужен симулятор, когда можно обучиться с несколькими реальными примерами?
5) Если мы посмотрим то что публичила Тесла - то можно увидеть что все же большая часть обучения построена вокруг реальных данных. Симуляция - это скорее про корнер кейсы. И машину вы без этих корнер кейсов не выпустите. Но надо ли тратить так много ресурсов для роботов, где ошибки допустимы?
А что думаете вы?:) У кого-то был опыт с большими симуляторами и роботами? Рассказывайте! Удавалось ли вам мейнтейнить их командой меньше чем была в ML?
Gr00t - это Foundation Model для роботов (с некоторыми пайплайнами тренировки). Предполагается что будет большой эмулятор на базе Isaac Lab через который можно будет тренировать роботов. “Прорыв”, “новый мир” и прочие замечательные слова от человека в кожаной куртке. Итак, мысли:
1) История говорит что у Nvidia чем сложнее программный продукт, тем меньше вероятность что им кто-то будет пользоваться. Самые массовые - CUDA и TensorRT, которые максимально простые. Deep Stream вызывает уже много вопросов. TAO и прочие попытки автоматизировать обучение вызывают скорее смех.
2) Многие знают про треш в который вырождается разработка на ROS. А тут мы имеем двадцать роботов. Скорее всего ROS-не совместимых и проприетарных. Это реально сложная архитектурная и технологическая задача.
3) Где-то я слышал шутку, что когда вы делаете генератор данных для тренировки, то вы умножаете команду на два. Кроме DS команды вам теперь нужна команда по созданию энвайромента, его настройке и.т.д. Что-то намекает что с Gr00t будет так же. Для больших компаний этот подход позволительный, но все компании размером до сотни человек будут старательно его избегать.
4) One Shot learning. Посмотрите видео ниже ⬇️ (сейчас загрузиться). Это наша текущая система едет из точки A в точку B. При этом, для обучения достаточно даже одного примера. One-Shot Learning развивается с огромной скоростью. Да, под Gr00t это и будет в каком-то смысле Fondation Model. Но если он будут достаточно хорош и универсален - зачем нужен симулятор, когда можно обучиться с несколькими реальными примерами?
5) Если мы посмотрим то что публичила Тесла - то можно увидеть что все же большая часть обучения построена вокруг реальных данных. Симуляция - это скорее про корнер кейсы. И машину вы без этих корнер кейсов не выпустите. Но надо ли тратить так много ресурсов для роботов, где ошибки допустимы?
А что думаете вы?:) У кого-то был опыт с большими симуляторами и роботами? Рассказывайте! Удавалось ли вам мейнтейнить их командой меньше чем была в ML?
❤18🔥5😱3
Media is too big
VIEW IN TELEGRAM
Видео к тексту выше⬆️. Это то как сейчас у нас ездит робот. Достаточно раза два проехать по маршруту и он его запоминает. Идеи точно то же что мы использовали пару лет назад для задач Pick-and-Placment, но несколько оптимизированные и более продуманные. Наверное как-нибудь запишу видео и про это, но пока рано.
🔥35❤5
Всем привет!
Несколько обновлений про канал и вокруг (что бы не делать, только бы не выкладывать следующее видео про RK3566).
1) Я планирую посетить конференцию Embedded World в начале апреля. Там явно будет много девайсов интересных. На канале попробую на эту тему какое-то видео/пост собрать. Несколько вопросов:
а) Знаете ли вы что-нибудь что там обязательно надо посмотреть?
б) Будет ли там кто-то из подписчиков канала/хочет ли пересечься?
в) Хочет ли кто-то из тех кто там будет рассказать/показать свой проект под видео?
2) В последнее время про рекламу на канале пишут почти каждый день. Даже не смотря на то что в описании все расписано. Хотел бы напомнить правила про рекламу. В обычных форматах её тут не будет.
Что нужно чтобы реклама тут появилась? Нужно чтобы был контент из которого 90% было интересно и полезно. А в остатке можно донести свой месседж. Вот тут примеры таких форматов.
Несколько обновлений про канал и вокруг (что бы не делать, только бы не выкладывать следующее видео про RK3566).
1) Я планирую посетить конференцию Embedded World в начале апреля. Там явно будет много девайсов интересных. На канале попробую на эту тему какое-то видео/пост собрать. Несколько вопросов:
а) Знаете ли вы что-нибудь что там обязательно надо посмотреть?
б) Будет ли там кто-то из подписчиков канала/хочет ли пересечься?
в) Хочет ли кто-то из тех кто там будет рассказать/показать свой проект под видео?
2) В последнее время про рекламу на канале пишут почти каждый день. Даже не смотря на то что в описании все расписано. Хотел бы напомнить правила про рекламу. В обычных форматах её тут не будет.
Что нужно чтобы реклама тут появилась? Нужно чтобы был контент из которого 90% было интересно и полезно. А в остатке можно донести свой месседж. Вот тут примеры таких форматов.
❤21
Так. Я сделалъ.
Видео про Radxa Zero 3W. В целом годиться для любых RK3566.
Если в паре слов:
1) Плата хороша по своему балансу "цена/скорость/потребление"
2) Плата неприятна так как это Radxa. Все что касается системы - сырое, глючное, бажное.
3) Плата внезапно медленнее чем 3568NPU. Хотя по документам должна быть одинаковыми.
https://youtu.be/e_BtAdS5M70
Видео про Radxa Zero 3W. В целом годиться для любых RK3566.
Если в паре слов:
1) Плата хороша по своему балансу "цена/скорость/потребление"
2) Плата неприятна так как это Radxa. Все что касается системы - сырое, глючное, бажное.
3) Плата внезапно медленнее чем 3568NPU. Хотя по документам должна быть одинаковыми.
https://youtu.be/e_BtAdS5M70
YouTube
Running Computer Vision on RK3566 (Radxa Zero 3W, 3E)
00:00:00 - Intro RK3566 - Radxa Zero 3W
00:00:20 - Cameras for comparison
00:01:12 - How to configure the board for RKNN (system set up )
00:02:51 - Driver patching
00:03:55 - Computer Vision speed
00:06:11 - CPU speed
00:06:27 - Temperature balance
00:06:45…
00:00:20 - Cameras for comparison
00:01:12 - How to configure the board for RKNN (system set up )
00:02:51 - Driver patching
00:03:55 - Computer Vision speed
00:06:11 - CPU speed
00:06:27 - Temperature balance
00:06:45…
🔥23❤3
Сегодня уже во всех каналах появилась эта новость с криками "они делали фейк!1!!1!"🤦♂️. (Amazon Fresh, магазин без касс)
Советую от таких каналов отписываться сразу, если они про ML:)
Видео о том как такие магазины работают я делал ещё 2 года назад . Так что тем кому интересно подробности - прошу туда.
Если в двух словах:
1️⃣ Решение чисто с камер невозможно сделать с 100% точностью. Увеличением числа камер (в том числе с 3Д компонентой) можно улучшать точность до достаточно высокой. Так же можно улучшать точность за счет аккуратной выкладки. Но и то и то снижает экономическую эффективность магазина (дороже система, выше цена разработки, выше цена эксплуатации).
2️⃣ Решение можно сделать с почти 100% точностью, но тогда в каждую полку надо встраивать весы. Но это тоже повышает цену эксплуатации и обслуживания. Появляются ограничения на товары, и.т.д.
3️⃣ Как результат - большая часть компаний делает на камерах, но оставляют в системе человека. Несколько вариантов как их используют:
A) Проверять треки людей, верифицировать покупки. Почти все делают это на этапе внедрения.
B) Смотреть только те треки где пользователь нажал кнопку "не сошлось".
C) Проверять взаимодействия с товаром когда где-то что-то не сходиться, подозрительные треки.
Так же, надо всегда дообучать. Появляются новые товары, могут быть новые регионы мира где используют другую одежду, может меняться дизайн магазина, и.т.д. Меня смущает что они говорят про 1000 разметчиков. Но может быть у них там партайм.
Но главная проблема - это косты и продуктовая задача.
1) Вся это система нужна для уменьшения числа продавцов. Но скорее всего отказаться полностью от них будет нельзя, а цена покупки + цена поддержки будет больше цены продавца.
2) Вся эта система не может защитить от воров. Её достаточно просто можно обмануть. А если система не предназначена для защиты от воров - почему не поставить киоски самосканирования на выходе, либо "умные тележки"?
Как результат - почти все ушли в сторону киосков с защитой от обмана или умных тележек. Именно это сделал Амазон. Именно так ещё раньше сделал Х5, именно так сделали ещё куча компаний.
ML - это обычно не про создание чего-то нового, а про оптимизацию процессов.
Советую от таких каналов отписываться сразу, если они про ML:)
Видео о том как такие магазины работают я делал ещё 2 года назад . Так что тем кому интересно подробности - прошу туда.
Если в двух словах:
1️⃣ Решение чисто с камер невозможно сделать с 100% точностью. Увеличением числа камер (в том числе с 3Д компонентой) можно улучшать точность до достаточно высокой. Так же можно улучшать точность за счет аккуратной выкладки. Но и то и то снижает экономическую эффективность магазина (дороже система, выше цена разработки, выше цена эксплуатации).
2️⃣ Решение можно сделать с почти 100% точностью, но тогда в каждую полку надо встраивать весы. Но это тоже повышает цену эксплуатации и обслуживания. Появляются ограничения на товары, и.т.д.
3️⃣ Как результат - большая часть компаний делает на камерах, но оставляют в системе человека. Несколько вариантов как их используют:
A) Проверять треки людей, верифицировать покупки. Почти все делают это на этапе внедрения.
B) Смотреть только те треки где пользователь нажал кнопку "не сошлось".
C) Проверять взаимодействия с товаром когда где-то что-то не сходиться, подозрительные треки.
Так же, надо всегда дообучать. Появляются новые товары, могут быть новые регионы мира где используют другую одежду, может меняться дизайн магазина, и.т.д. Меня смущает что они говорят про 1000 разметчиков. Но может быть у них там партайм.
Но главная проблема - это косты и продуктовая задача.
1) Вся это система нужна для уменьшения числа продавцов. Но скорее всего отказаться полностью от них будет нельзя, а цена покупки + цена поддержки будет больше цены продавца.
2) Вся эта система не может защитить от воров. Её достаточно просто можно обмануть. А если система не предназначена для защиты от воров - почему не поставить киоски самосканирования на выходе, либо "умные тележки"?
Как результат - почти все ушли в сторону киосков с защитой от обмана или умных тележек. Именно это сделал Амазон. Именно так ещё раньше сделал Х5, именно так сделали ещё куча компаний.
ML - это обычно не про создание чего-то нового, а про оптимизацию процессов.
❤49🔥22💔3
Всем привет!
Я достаточно давно подписан на канал Евгения ( Нескучный Data Science ). Мне всегда любопытно смотреть как в разных компаниях выстраиваются DS отделы. А Евгений строит его в Альфе. В какой то момент разговорились и забились записать видео на тему того чем ML в банке отличается от ML вне банков (в первую очередь про стартапы). Получился, как мне кажется, интересный разговор
https://youtu.be/ooBvGEZIlzs
Я достаточно давно подписан на канал Евгения ( Нескучный Data Science ). Мне всегда любопытно смотреть как в разных компаниях выстраиваются DS отделы. А Евгений строит его в Альфе. В какой то момент разговорились и забились записать видео на тему того чем ML в банке отличается от ML вне банков (в первую очередь про стартапы). Получился, как мне кажется, интересный разговор
https://youtu.be/ooBvGEZIlzs
YouTube
ML в банках и стартапах. Чем отличается?
00:00:00 - Intro
00:00:25 - State of the art - используется ли в банках?
00:04:18 - Пользуется ли кто то LLM-чат ботами?
00:07:44 - Какой процент сотрудников занимается ресерчем? Метрика ресерча
00:14:52 - AutoDL AutoML
00:17:01 - Кто в компании…
00:00:25 - State of the art - используется ли в банках?
00:04:18 - Пользуется ли кто то LLM-чат ботами?
00:07:44 - Какой процент сотрудников занимается ресерчем? Метрика ресерча
00:14:52 - AutoDL AutoML
00:17:01 - Кто в компании…
🔥26❤5
Пара мыслей🧠.
1️⃣) Вернулся с Embedded World. Очень интересно было. Кажется, что с компаниями 30-40 пообщался.Наверное, было ещё много с кем можно поговорить. Но даже так - немного подвыгорел:) Главный вывод - производители железа начали поворачиваться лицом к разработчикам. Много в каких компаниях появились специалисты по ML, которые внутри компании говорят как должно выглядеть взаимодействие. Приходишь и нормально говоришь с компанией про обучение, инференс, проблемы экспорта моделей, CI/CD, и.т.д.
Все эти вопросы ещё года 3 назад прятали под скатерть. Такие компании остались. Но 80% научились коммуницировать. Скоро на канале будет 4 коротких видео про конференцию, про самые интересные компании.
2️⃣) Сейчас сижу разбираю записи, и смотрю в фоне вот это видео Осетинской про стартапы после начала войны. Очень рекомендую. Сам думал про несколько маленьких частей оттуда рассказать, но настолько всеобъемлюще и полно не хватило бы сил. Там показано как в реальности сейчас выглядит бизнес и стартапы в последние два года. Рассмотрено очень много вещей про которых в сообществах разработчиков ходят сказки. "Я буду работать из РФ на иностранных заказчиков!" - нет, так не работает кроме очень редких исключений. "Кому я за рубежом нужен/кто мне платить будет" - тоже показано десятки вариантов как это все решается. Показаны основные проблемы, как складывается сообщество, как работает логика и люди. Да, не рассмотрено про сложности платежей в современном мире. Но остальное неплохо. Только учитывайте что у разных людей и разных компаний разные взгляды на мир. И все частично верны, истина посередине.
1️⃣) Вернулся с Embedded World. Очень интересно было. Кажется, что с компаниями 30-40 пообщался.Наверное, было ещё много с кем можно поговорить. Но даже так - немного подвыгорел:) Главный вывод - производители железа начали поворачиваться лицом к разработчикам. Много в каких компаниях появились специалисты по ML, которые внутри компании говорят как должно выглядеть взаимодействие. Приходишь и нормально говоришь с компанией про обучение, инференс, проблемы экспорта моделей, CI/CD, и.т.д.
Все эти вопросы ещё года 3 назад прятали под скатерть. Такие компании остались. Но 80% научились коммуницировать. Скоро на канале будет 4 коротких видео про конференцию, про самые интересные компании.
2️⃣) Сейчас сижу разбираю записи, и смотрю в фоне вот это видео Осетинской про стартапы после начала войны. Очень рекомендую. Сам думал про несколько маленьких частей оттуда рассказать, но настолько всеобъемлюще и полно не хватило бы сил. Там показано как в реальности сейчас выглядит бизнес и стартапы в последние два года. Рассмотрено очень много вещей про которых в сообществах разработчиков ходят сказки. "Я буду работать из РФ на иностранных заказчиков!" - нет, так не работает кроме очень редких исключений. "Кому я за рубежом нужен/кто мне платить будет" - тоже показано десятки вариантов как это все решается. Показаны основные проблемы, как складывается сообщество, как работает логика и люди. Да, не рассмотрено про сложности платежей в современном мире. Но остальное неплохо. Только учитывайте что у разных людей и разных компаний разные взгляды на мир. И все частично верны, истина посередине.
🔥50💩16