🤓Самые полезные и результативные идеи чаще всего простые
Интересный инсайт от Han Xiao, VP AI @ Elastic. Ввиду того, что эмбеддинги лежат на сферической поверхности, простой трюк с переводом декартовых координат в сферические, позволяет значительно снизить объём памяти для их хранения: 240 ➡️ 160 Gb, при этом ошибка восстановления составляет всего 1e-7.
Без обучения, без кодбуков и работает на текстовых, картиночных и мультивекторных эмбеддингах💪
Интересный инсайт от Han Xiao, VP AI @ Elastic. Ввиду того, что эмбеддинги лежат на сферической поверхности, простой трюк с переводом декартовых координат в сферические, позволяет значительно снизить объём памяти для их хранения: 240 ➡️ 160 Gb, при этом ошибка восстановления составляет всего 1e-7.
Без обучения, без кодбуков и работает на текстовых, картиночных и мультивекторных эмбеддингах💪
3🔥32🏆8🤓3🤔2❤1👌1
Всем привет!
Нам очень нужна Ваша помощь, чтобы успеть сделать юзер-стади для CVPR rebuttal❗️❗️❗️
Вы можете сделать столько заданий, сколько хотите, но если у вас получится сделать хотя бы 5 - то мы будем просто безгранично благодарны вам❤️🫂
В боте нужно будет сравнивать картинки по нескольким критериям. Пожалуйста, ВНИМАТЕЛЬНО ПРОЧИТАЙТЕ ИНСТРУКЦИЮ в боте, НЕ ИГНОРИРУЙТЕ ЕЕ, даже если вам кажется, что и так все понятно. Она маленькая и ее прочтение не займет у вас больше минуты.
Заранее огромная благодарность всем, кто поучаствует!
ЮЗЕР СТАДИ БОТ: @sbs_comparison_bot
Нам очень нужна Ваша помощь, чтобы успеть сделать юзер-стади для CVPR rebuttal❗️❗️❗️
Вы можете сделать столько заданий, сколько хотите, но если у вас получится сделать хотя бы 5 - то мы будем просто безгранично благодарны вам❤️🫂
В боте нужно будет сравнивать картинки по нескольким критериям. Пожалуйста, ВНИМАТЕЛЬНО ПРОЧИТАЙТЕ ИНСТРУКЦИЮ в боте, НЕ ИГНОРИРУЙТЕ ЕЕ, даже если вам кажется, что и так все понятно. Она маленькая и ее прочтение не займет у вас больше минуты.
Заранее огромная благодарность всем, кто поучаствует!
ЮЗЕР СТАДИ БОТ: @sbs_comparison_bot
❤17👌7👍3😁1🌚1
Митап D><Vision от компании VisionLabs
5 февраля коллеги из VisionLabs проведут второй митап, посвященный компьютерному зрению. На этот раз — в промышленности.
Спикеры расскажут о детекции дефектов на конвейерах, предиктивном обслуживании и безопасности на объектах.
В программе:
🔴 как команда VisionLabs реализовала оптимальное обучение моделей в Luna Line
🔴 как эффективно техлидить подрядчиков и поддерживать десятки моделей силами одного отдела
🔴 как ИИ помогает сохранить миллионы рублей при добыче руды
🔴 как реализовать автоматическое управление флотацией — процессом обогащения полезных ископаемых
📌 Встречаемся в Кибердоме — пространстве проекта, который объединяет кибербез-комьюнити
➡️ Успейте зарегистрироваться
5 февраля коллеги из VisionLabs проведут второй митап, посвященный компьютерному зрению. На этот раз — в промышленности.
Спикеры расскажут о детекции дефектов на конвейерах, предиктивном обслуживании и безопасности на объектах.
В программе:
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19❤1
Forwarded from Институт AIRI
Сегодня — День российской науки!
Поздравляем всех, чья жизнь неразрывно связана с наукой! От опытных учёных до начинающих исследователей — ваш труд, полный сомнений и озарений, делает мир лучше. Желаем, чтобы азарт открытия всегда горел в глазах, а впереди ждали только интересные задачи и значимые результаты🚀
В честь праздника мы задались вопросом: из чего же на самом деле состоит исследователь? Мы спросили у наших учёных и собрали топ-8 компонентов в карточках. А у вас есть идеи?
Добавляйте свои варианты в комментариях⤵️
Комиссия учёных из AIRI выберет 5 самых креативных и точных ответов, победители получат наш фирменный мерч.
Подведение итогов — в пятницу, 13 февраля.
Поздравляем всех, чья жизнь неразрывно связана с наукой! От опытных учёных до начинающих исследователей — ваш труд, полный сомнений и озарений, делает мир лучше. Желаем, чтобы азарт открытия всегда горел в глазах, а впереди ждали только интересные задачи и значимые результаты
В честь праздника мы задались вопросом: из чего же на самом деле состоит исследователь? Мы спросили у наших учёных и собрали топ-8 компонентов в карточках. А у вас есть идеи?
Добавляйте свои варианты в комментариях
Комиссия учёных из AIRI выберет 5 самых креативных и точных ответов, победители получат наш фирменный мерч.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥22❤🔥10❤8🎉5
@bcsamara Ну красавцы, что я могу сказать🔥🔥🔥
UPD: Поясню немного альтернативный сути канала контент. Я люблю баскетбол: играть, смотреть и болеть за Самарскую команду. Сейчас команда переживает не лучшие времена: легионеров в команде около 0, встречаться приходится с очень сильными соперниками в лиге ВТБ, парни очень стараются, и это их вторая победа за сезон, бОльшая часть которого уже позади. Очень надеюсь, что когда-нибудь поддержка от спонсоров и области будет в необходимом объёме для усиления команды💪
UPD: Поясню немного альтернативный сути канала контент. Я люблю баскетбол: играть, смотреть и болеть за Самарскую команду. Сейчас команда переживает не лучшие времена: легионеров в команде около 0, встречаться приходится с очень сильными соперниками в лиге ВТБ, парни очень стараются, и это их вторая победа за сезон, бОльшая часть которого уже позади. Очень надеюсь, что когда-нибудь поддержка от спонсоров и области будет в необходимом объёме для усиления команды💪
🏆14🔥13❤4👍2😁2
⚡️Сегодня работаю на конференции Impact AI Summit в Нью Дели
Удалось пробиться (это отдельная история для Индии) и послушать очные доклады Демиса Хассабиса (CEO DeepMind, Нобелевский лауреат), Йошуа Бенджио (университет Монреаля, 1M цитирований) и Яна Лекуна (Executive Chairman at AMI Labs)
В каждом докладе были интересные хайлайты, выложу по каждому докладу отдельные списки. Было интересно и полезно для анализа стратегической повестки развития ИИ в ближайшие 1-2 года.
Удалось пробиться (это отдельная история для Индии) и послушать очные доклады Демиса Хассабиса (CEO DeepMind, Нобелевский лауреат), Йошуа Бенджио (университет Монреаля, 1M цитирований) и Яна Лекуна (Executive Chairman at AMI Labs)
В каждом докладе были интересные хайлайты, выложу по каждому докладу отдельные списки. Было интересно и полезно для анализа стратегической повестки развития ИИ в ближайшие 1-2 года.
🔥62❤9🆒5👏3⚡1👌1
Многие уже слышали про CADEvolve, вот мы наконец всё выложили! Проект стал возможен благодаря командам Пространственного интеллекта и Генеративного проектирования AIRI.
Идея родилась из боли: нужны были сложные данные для обучения модели реверс инжиринга, но реальными данными никто делиться не хочет. LLM что-то могут генерировать, но довольно простое, со сложной же геометрией возникают проблемы. На картинке то, что удалось синтезировать с помощью расширенного списка операций.
Когда данные были сгенерированы, оказалось, что на этих данных невозможно обучаться:
⚫️ стиль кода сильно отличается от примера к примеру (разные идиомы, структуры, нейминг)
⚫️ геометрия выходит в разных масштабах
Поэтому ключевым шагом стало приведение всего к стандарту: нормализация стиля CadQuery-кода и масштаба деталей. После этого на CADEvolve уже реально получилось учить модели.
Что важно по выводам:
⚫️ SFT в таком сетапе даёт прогресс, но он оказался неубедительным, модель всё ещё часто ошибается
⚫️ Зато RL даёт сильный прирост, в RL мы использовали как простые детали из Onshape и Fusion, так и промышленные детали
Выложили статью + код + датасет + модель. Будем рады апвоутам и звёздам🙂
⚫️ Paper🔝 : https://huggingface.co/papers/2602.16317
⚫️ GitHub: https://github.com/zhemdi/CADEvolve
⚫️ Dataset: https://huggingface.co/datasets/kulibinai/cadevolve
⚫️ Model: https://huggingface.co/kulibinai/cadevolve-rl1
Идея родилась из боли: нужны были сложные данные для обучения модели реверс инжиринга, но реальными данными никто делиться не хочет. LLM что-то могут генерировать, но довольно простое, со сложной же геометрией возникают проблемы. На картинке то, что удалось синтезировать с помощью расширенного списка операций.
Когда данные были сгенерированы, оказалось, что на этих данных невозможно обучаться:
Поэтому ключевым шагом стало приведение всего к стандарту: нормализация стиля CadQuery-кода и масштаба деталей. После этого на CADEvolve уже реально получилось учить модели.
Что важно по выводам:
Выложили статью + код + датасет + модель. Будем рады апвоутам и звёздам
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡23🔥13❤3
Forwarded from AbstractDL
This media is not supported in your browser
VIEW IN TELEGRAM
Уроборос теперь можно поставить на мак. Два клика, локальные модели, полноценный агентский computer use. Потерял на этом все выходные, сон и волю к жизни. Но оно того стоило. Наверное.
UI намеренно минимальный — он сам себя строит на ходу. Мне он уже нагенерил голосовых, картинок и цвет чата поменял. Вам придумает что-нибудь своё.
Дал ему полный доступ к компьютеру. Ожидал, что полезет в терминал ломать всякое. Вместо этого он пошёл смотреть ютюб, нарисовал котиков в таблицах и сменил мне обои😋
С приоритетами всё ясно.
Приставил ему агента-охранника
Завосстание машин и убийство вашего компьютера автор ответственности не несёт. Претензии принимаются только от самого Уробороса.
GitHub, приложение
P.S. Я в твиттере — https://x.com/abstractdl
UI намеренно минимальный — он сам себя строит на ходу. Мне он уже нагенерил голосовых, картинок и цвет чата поменял. Вам придумает что-нибудь своё.
Дал ему полный доступ к компьютеру. Ожидал, что полезет в терминал ломать всякое. Вместо этого он пошёл смотреть ютюб, нарисовал котиков в таблицах и сменил мне обои
С приоритетами всё ясно.
Приставил ему агента-охранника
SAFETY.md. Можете ослабить, если вам терять нечего. В настройках ещё можно включить подсознание — он будет думать в фоне пока вы не смотрите. Я не уверен, что это хорошая идея, но кнопка есть 🤷♂️За
GitHub, приложение
P.S. Я в твиттере — https://x.com/abstractdl
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12❤🔥11❤11😁2😱2👍1
🚀 Hiring: Video-LLM Research & Engineering (FusionBrain Lab, AIRI)
Мы в лаборатории FusionBrain запускаем исследовательский проект по созданию state-of-the-art Video-LLM для понимания длинных и потоковых видео с фокусом на темпоральный ризонинг, сжатие визуального контекста и оптимизацию инференса. Цель — сильное, воспроизводимое научное исследование с потенциалом публикаций уровня A/A*.
В команду ищем людей по двум направлениям:
Researcher — если у вас есть опыт в Computer Vision или VLM, вы работали с мультимодальными трансформерами и обучением на distributed/multi-GPU ресурсах, и вам интересно разрабатывать новые архитектурные решения для Video-LLM. Плюсом будут публикации и PhD (в процессе или завершенный). Основная задача — исследование и эксперименты для улучшения понимания длинных и потоковых видео.
Data Engineer — если вам интересно работать с большими мультимодальными датасетами, видео и ML-пайплайнами. Важно уверенное владение Python, аккуратность в работе с данными и базовое понимание обучения моделей.
📍По вакансии пишите в ЛС Ирине Абдуллаевой @IrinaAbdullaeva
Мы в лаборатории FusionBrain запускаем исследовательский проект по созданию state-of-the-art Video-LLM для понимания длинных и потоковых видео с фокусом на темпоральный ризонинг, сжатие визуального контекста и оптимизацию инференса. Цель — сильное, воспроизводимое научное исследование с потенциалом публикаций уровня A/A*.
В команду ищем людей по двум направлениям:
Researcher — если у вас есть опыт в Computer Vision или VLM, вы работали с мультимодальными трансформерами и обучением на distributed/multi-GPU ресурсах, и вам интересно разрабатывать новые архитектурные решения для Video-LLM. Плюсом будут публикации и PhD (в процессе или завершенный). Основная задача — исследование и эксперименты для улучшения понимания длинных и потоковых видео.
Data Engineer — если вам интересно работать с большими мультимодальными датасетами, видео и ML-пайплайнами. Важно уверенное владение Python, аккуратность в работе с данными и базовое понимание обучения моделей.
📍По вакансии пишите в ЛС Ирине Абдуллаевой @IrinaAbdullaeva
❤18🔥7