This media is not supported in your browser
VIEW IN TELEGRAM
Вводный курс по Antigravity от Google уже на ютубе.
Показана разработка сайта ИИ агентом с функциями оператора.
По ходу разработки агент в браузере проверяет, что все кнопки нажимаются.
И агент интегрирует приложение с календарём и проверяет, что интеграция работает и расписание рейса заносится в календарь.
Подписываемся на канал тут
#Antigravity #Google #обучение
———-
@tsingular
Показана разработка сайта ИИ агентом с функциями оператора.
По ходу разработки агент в браузере проверяет, что все кнопки нажимаются.
И агент интегрирует приложение с календарём и проверяет, что интеграция работает и расписание рейса заносится в календарь.
Подписываемся на канал тут
#Antigravity #Google #обучение
———-
@tsingular
👍9✍5❤3
Generative UI: Google генерирует интерфейсы по запросу
Случилось то, о чем так долго говорилибольшевики ИИ энтузиасты.
Google представил Generative UI.
Gemini 3 создаёт полностью кастомные интерфейсы для любого промпта.
Вместо текста или маркдауна модель пишет код страницы: игры, инструменты, визуализации.
Работает в Gemini App (dynamic view) и AI Mode в Google Search.
Примеры: галерея Ван Гога с контекстом, интерактивные симуляции РНК-полимеразы, советник по моде.
Ну т.е. 2 года мы говорили, что скоро ИИшечка будет в реальном времени генерить интерфейсы исходя из задачи, а не по шаблону CMS и вот оно в работе.
Пока в гугле, далее везде.
Пишут, что пользователи довольны и так намного удобнее, чем в стародавние времена, которые вот были до Gemini3.
Как жили вообще не понятно.
#GenerativeUI #Gemini3
———
@tsingular
Случилось то, о чем так долго говорили
Google представил Generative UI.
Gemini 3 создаёт полностью кастомные интерфейсы для любого промпта.
Вместо текста или маркдауна модель пишет код страницы: игры, инструменты, визуализации.
Работает в Gemini App (dynamic view) и AI Mode в Google Search.
Примеры: галерея Ван Гога с контекстом, интерактивные симуляции РНК-полимеразы, советник по моде.
Ну т.е. 2 года мы говорили, что скоро ИИшечка будет в реальном времени генерить интерфейсы исходя из задачи, а не по шаблону CMS и вот оно в работе.
Пока в гугле, далее везде.
Пишут, что пользователи довольны и так намного удобнее, чем в стародавние времена, которые вот были до Gemini3.
Как жили вообще не понятно.
#GenerativeUI #Gemini3
———
@tsingular
🔥15⚡4🤔3🎉3😐3👾2✍1👍1👏1
Forwarded from GigaChat
Media is too big
VIEW IN TELEGRAM
На старт, внимание... AI Journey уже здесь!
Стартовала главная конференция года по искусственному интеллекту — AI Journey 2025. Она продлится три дня, и на одной площадке мы соберём ведущих AI-экспертов. Обсудим, как искусственный интеллект усиливает потенциал человека — помогает творить, лечить, принимать решения, открывать новые горизонты в медицине, кино, моде, спорте и исследовать будущее
Что ждёт участников сегодня
🤩 Разрушители мифов про ИИ🤩 AI Reels — реальная жизнь с ИИ🤩 ИИ в киноиндустрии🤩 AI для тебя. Мир сверхвозможностей: что мы в нём сохраним🤩 Панельная дискуссия «Будущее с AI»
Погружаемся в дискуссии, смотрим выступления спикеров и обсуждаем, каким искусственный интеллект будет завтра ↓
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6✍4❤1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
SMOL_секреты_создания_LLM_мирового_класса_Перевод_t_me_aivkube.pdf
14.6 MB
Перевод The Smol Training Playbook:
The Secrets to Building World-Class LLMs
Подписчик Сергей Долгов проделал титанический труд - перевел культовый гайд по тренировке своих языковых моделей.
Вот что он пишет:
На первый взгляд SMOL Playbook от HuggingFace, которым мы обязаны почти всем в AI-опенсорсе - это эссе размером в2️⃣ 0️⃣ 0️⃣ ➕ страниц о том, как обучать большие модели. Но для меня это - изысканный десерт весом в полтонны, которым никак не можешь наесться. Слой за слоем я читал и находил все новые и новые инсайты, многие из которых подтверждали мои предположения и опыт, но бОльшая часть была ошеломляюще новой.
Если в 2024 вы собирали простых ассистентов на GPT, этой весной освоили n8n и Комфи, а сейчас уже делаете 40-секундные ролики на Sora, то, возможно, в следующем году вы уже будете тренировать LLM для целых компаний или, как минимум, руководить теми, кто их тренирует . Спрос растет на тех, кто хорошо разбирается в принципах работы нейронок.
Я занимаюсь тем, что собираю команды, обучаю и внедряю ИИ. Две недели назад я взялся за перевод SMOL Playbook от тех самых HuggingFace, которым мы обязаны почти всем в AI-опенсорсе. Это книга о том, как все устроено в мире LLM, как не растянуться на входе в него и многократно не споткнуться по ходу дела. Благодаря этому материалу всего за несколько вечеров вы сможете разложить процесс по полочкам и избежите дорогих ошибок:
▶️ выбор архитектуры под вашу задачу
▶️ подготовка и чистка датасета
▶️ тонкости обучения и отладки
▶️ экономии вычислений.
Кофаундер и ведущие исследователи HuggingFace честно (и с изрядным юмором!) пишут о всех граблях, ограничениях и компромиссах, с которыми они столкнулись, и которые 100% ждут вас (тут, видимо, нужен скрытый текст) если вы не прочитаете этот текст.
Так что, если в будущем вы допускаете, что можете попасть в одну из этих когорт...
🧑💻 AI-инженер и ресёрчер, которому нужна компактная и быстрая модель
🙆🏻♂️ Стартапер с ограниченным бюджето, которому нужно протестировать гипотезу и не сжечь деньги
🧛♂️ Руководитель, желающий понять, почему одни LLM выстреливают, а другие нет
... прочитайте эту книгу, возможно она сэкономит вам месяцы жизни. И определенно доставит удовольствие!
Спасибо Сергею за такой труд.
@cgevent
The Secrets to Building World-Class LLMs
Подписчик Сергей Долгов проделал титанический труд - перевел культовый гайд по тренировке своих языковых моделей.
Вот что он пишет:
На первый взгляд SMOL Playbook от HuggingFace, которым мы обязаны почти всем в AI-опенсорсе - это эссе размером в
Если в 2024 вы собирали простых ассистентов на GPT, этой весной освоили n8n и Комфи, а сейчас уже делаете 40-секундные ролики на Sora, то, возможно, в следующем году вы уже будете тренировать LLM для целых компаний или, как минимум, руководить теми, кто их тренирует . Спрос растет на тех, кто хорошо разбирается в принципах работы нейронок.
Я занимаюсь тем, что собираю команды, обучаю и внедряю ИИ. Две недели назад я взялся за перевод SMOL Playbook от тех самых HuggingFace, которым мы обязаны почти всем в AI-опенсорсе. Это книга о том, как все устроено в мире LLM, как не растянуться на входе в него и многократно не споткнуться по ходу дела. Благодаря этому материалу всего за несколько вечеров вы сможете разложить процесс по полочкам и избежите дорогих ошибок:
Кофаундер и ведущие исследователи HuggingFace честно (и с изрядным юмором!) пишут о всех граблях, ограничениях и компромиссах, с которыми они столкнулись, и которые 100% ждут вас (тут, видимо, нужен скрытый текст) если вы не прочитаете этот текст.
Так что, если в будущем вы допускаете, что можете попасть в одну из этих когорт...
🙆🏻♂️ Стартапер с ограниченным бюджето, которому нужно протестировать гипотезу и не сжечь деньги
🧛♂️ Руководитель, желающий понять, почему одни LLM выстреливают, а другие нет
... прочитайте эту книгу, возможно она сэкономит вам месяцы жизни. И определенно доставит удовольствие!
Спасибо Сергею за такой труд.
@cgevent
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥23❤2✍2🏆2👍1🆒1 1
Media is too big
VIEW IN TELEGRAM
Figure обновила отчет по внедрению роботов на производстве BMW
По итогам 11-месяцев работы:
- Робот участвовал в производстве более 30 000 автомобилей (модели X3).
- Загружено более 90 000 деталей.
- Работал по 10-часовыми сменами с понедельника по пятницу.
- Пройдено пешком совокупно более 200 миль.
- Один робот Figure 02 работал на заводе 6 месяцев ежедневно.
- Наиболее частой точкой отказа оборудования было предплечье. Полученные знания легли в основу конструкции Figure 03.
Были определены три критических KPI:
- Время цикла: 84 секунды.
- Точность загрузки деталей : > 99% за смену
- Ноль вмешательств, требующих остановки или перезагрузки робота (за смену).
Трудность была в достижении баланса качества и скорости.
Некоторые запчасти нужно было размещать с допуском 5 миллиметров за 2 секунды.
Компания заявляет: «Чтобы соответствовать этим (ключевым показателям эффективности), наш робот должен был обладать точными, но адаптивными движением, позволяющими быстро и точно размещать ноги и в режиме реального времени реагировать на изменения окружающей среды».
#роботы #Figure #BMW
———
@tsingular
По итогам 11-месяцев работы:
- Робот участвовал в производстве более 30 000 автомобилей (модели X3).
- Загружено более 90 000 деталей.
- Работал по 10-часовыми сменами с понедельника по пятницу.
- Пройдено пешком совокупно более 200 миль.
- Один робот Figure 02 работал на заводе 6 месяцев ежедневно.
- Наиболее частой точкой отказа оборудования было предплечье. Полученные знания легли в основу конструкции Figure 03.
Были определены три критических KPI:
- Время цикла: 84 секунды.
- Точность загрузки деталей : > 99% за смену
- Ноль вмешательств, требующих остановки или перезагрузки робота (за смену).
Трудность была в достижении баланса качества и скорости.
Некоторые запчасти нужно было размещать с допуском 5 миллиметров за 2 секунды.
Компания заявляет: «Чтобы соответствовать этим (ключевым показателям эффективности), наш робот должен был обладать точными, но адаптивными движением, позволяющими быстро и точно размещать ноги и в режиме реального времени реагировать на изменения окружающей среды».
#роботы #Figure #BMW
———
@tsingular
🔥18❤2⚡2👾2👏1
С выходом Gemini3 тут такая чехарда началась.
- OpenAI срочно выпустил обновление GPT Codex 5.1 и он теперь Max.
Предыдущий кодекс устарел за пару недель.
- Маск тут же пишет, что вот теперь Grok 4.1 Fast обошёл Gemini3 в использовании Агентских инструментов по версии artificialanalysis.ai
Картинка с анонсом лучшей модели крутится как карусель, короче.
Ждём еще что Qwen выпустит, что-то давно их не слышно.
#Grok #Gemini #Codex
———
@tsingular
- OpenAI срочно выпустил обновление GPT Codex 5.1 и он теперь Max.
Предыдущий кодекс устарел за пару недель.
- Маск тут же пишет, что вот теперь Grok 4.1 Fast обошёл Gemini3 в использовании Агентских инструментов по версии artificialanalysis.ai
Картинка с анонсом лучшей модели крутится как карусель, короче.
Ждём еще что Qwen выпустит, что-то давно их не слышно.
#Grok #Gemini #Codex
———
@tsingular
🤣18❤1👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🔬 NVIDIA прокачивает материаловедение
На конференции в Сент-Луисе показали две платформы, которые превращают месяцы лабораторных экспериментов в дни.
Holoscan — обработка изображений материалов в реальном времени
Brookhaven National Laboratory получает рентгеновские снимки материалов с разрешением <10 нм.
Раньше: делаешь скан → ждёшь обработки → смотришь результат.
Сейчас: видишь результат прямо во время сканирования.
Практический эффект:
- Мгновенная корректировка эксперимента
- Больше экспериментов на том же оборудовании = меньше стоимость исследования
- Потенциал для автономных экспериментов с AI
ALCHEMI — поиск новых материалов ускоренный GPU.
Набор микросервисов для симуляции молекул.
Вместо синтеза тысяч образцов в лаборатории — виртуальный скрининг миллионов вариантов.
Реальные кейсы:
ENEOS (энергетика):
- 10 млн кандидатов для жидкостного охлаждения ЦОДов
- 100 млн вариантов катализаторов для водородного топлива
Срок проверки: несколько недель
Ускорение: 10× против старых методов
Universal Display Corporation (OLED-дисплеи):
- Из 10^100 возможных молекул находят оптимальные для экранов
- Ускорение поиска в сравнении с CPU - до x10,000
- Молекулярная динамика: с дней до секунд через параллельные GPU
- Фокус: синие фосфоресцентные OLED = меньше энергопотребление
Суть технологии:
GPU пропускают через себя миллиарды комбинаций атомов, отсеивая неподходящие варианты до реальных тестов.
Только лучшие кандидаты попадают в лабораторию.
Результат: от химической интуиции к массовому вычислительному поиску.
ALCHEMI — одна из 150+ библиотек CUDA-X для научных расчётов.
Забрутфорсили химию.
#NVIDIA #материаловедение #ALCHEMI #SC25 #наука
———
@tsingular
На конференции в Сент-Луисе показали две платформы, которые превращают месяцы лабораторных экспериментов в дни.
Holoscan — обработка изображений материалов в реальном времени
Brookhaven National Laboratory получает рентгеновские снимки материалов с разрешением <10 нм.
Раньше: делаешь скан → ждёшь обработки → смотришь результат.
Сейчас: видишь результат прямо во время сканирования.
Практический эффект:
- Мгновенная корректировка эксперимента
- Больше экспериментов на том же оборудовании = меньше стоимость исследования
- Потенциал для автономных экспериментов с AI
ALCHEMI — поиск новых материалов ускоренный GPU.
Набор микросервисов для симуляции молекул.
Вместо синтеза тысяч образцов в лаборатории — виртуальный скрининг миллионов вариантов.
Реальные кейсы:
ENEOS (энергетика):
- 10 млн кандидатов для жидкостного охлаждения ЦОДов
- 100 млн вариантов катализаторов для водородного топлива
Срок проверки: несколько недель
Ускорение: 10× против старых методов
Universal Display Corporation (OLED-дисплеи):
- Из 10^100 возможных молекул находят оптимальные для экранов
- Ускорение поиска в сравнении с CPU - до x10,000
- Молекулярная динамика: с дней до секунд через параллельные GPU
- Фокус: синие фосфоресцентные OLED = меньше энергопотребление
Суть технологии:
GPU пропускают через себя миллиарды комбинаций атомов, отсеивая неподходящие варианты до реальных тестов.
Только лучшие кандидаты попадают в лабораторию.
Результат: от химической интуиции к массовому вычислительному поиску.
ALCHEMI — одна из 150+ библиотек CUDA-X для научных расчётов.
Забрутфорсили химию.
#NVIDIA #материаловедение #ALCHEMI #SC25 #наука
———
@tsingular
🔥9👍5⚡4❤1
Forwarded from GigaDev — разработка GigaChat
GigaAM-v3: новый уровень качества, пунктуация, нормализация
➡️ GitHub | HuggingFace | GitVerse
В прошлом году мы открыли семейство моделей GigaAM, после чего значительно улучшили качество благодаря подходу HuBERT-CTC во второй версии. Основными запросами сообщества оставались поддержка пунктуации в наших моделях, а также улучшение на сложных срезах данных. Сегодня мы рады представить следующий большой релиз — GigaAM-v3.
Что публикуем
🔘 GigaAM-v3 — foundation audio encoder (база для дообучения).
🔘 GigaAM-v3-CTC — улучшенная CTC модель распознавания, быстрый инференс
🔘 GigaAM-v3-RNNT — улучшенная RNNT модель распознавания, лучшее качество
🔘 GigaAM-v3-e2e-CTC — распознавание с пунктуацией и нормализацией, быстрый инференс
🔘 GigaAM-v3-e2e-RNNT — распознавание с пунктуацией и нормализацией, максимальное качество
Пример e2e-вывода:
Что нового в v3
🔘 Масштаб предобучения: 50k → 700k часов аудио на русском языке.
🔘 Новые домены в обучении ASR: колл-центр, музыкальные запросы, речь с особенностями, разговорная речь (суммарно 2k часов).
🔘 Для всего корпуса обучающих данных восстановлены пунктуация и нормализация при помощи GigaChat Max Audio.
🔘 Линейка CTC/RNNT + e2e — выбирайте скорость или максимум качества под свой сценарий.
Метрики
🔘 Открытые датасеты (Golos, OpenSTT, Common Voice, LibriSpeech): паритет с GigaAM-v2.
🔘 Новые домены (WER, v2-RNNT → v3-RNNT):
• речь с особенностями 27% → 19%
• колл-центр 13% → 10%
• спонтанная речь 10.3% → 7%
🔘 Пунктуация: v3-e2e-RNNT vs reference + Whisper Forced Decoding — F1-score по запятой 84% vs 62%, остальные знаки ~паритет.
🔘 Side-by-Side (Gemini 2.5 Pro as a judge): v3-e2e-RNNT vs Whisper-large-v3 — 70:30 (колл-центр), 64:36 (Common Voice).
Более качественные модели распознавания того же класса эксклюзивно доступны в наших умных устройствах, а также могут быть бесплатно использованы на повседневной основе с помощью бота @smartspeech_sber_bot.
Совсем скоро выйдет пост на Хабр, где мы поделимся подробностями обучения и оценки качества. Не пропустите!
В прошлом году мы открыли семейство моделей GigaAM, после чего значительно улучшили качество благодаря подходу HuBERT-CTC во второй версии. Основными запросами сообщества оставались поддержка пунктуации в наших моделях, а также улучшение на сложных срезах данных. Сегодня мы рады представить следующий большой релиз — GigaAM-v3.
Что публикуем
Пример e2e-вывода:
В твоём каталоге есть первая серия сезона 14 «Где логика»?Что нового в v3
Метрики
• речь с особенностями 27% → 19%
• колл-центр 13% → 10%
• спонтанная речь 10.3% → 7%
Более качественные модели распознавания того же класса эксклюзивно доступны в наших умных устройствах, а также могут быть бесплатно использованы на повседневной основе с помощью бота @smartspeech_sber_bot.
Совсем скоро выйдет пост на Хабр, где мы поделимся подробностями обучения и оценки качества. Не пропустите!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10👍5
Forwarded from GigaChat
Мы стремимся не замыкаться в «закрытой» технологии, а строить открытую платформу для всей страны, поэтому мы публикуем веса наших моделей.
Что появилось в открытом доступе ↓
🔷 GigaChat Ultra Preview
Самая мощная модель Сбера. Лучше DeepSeek V3.1 и GigaChat Max 2 в русскоязычных задачах. Подходит для бизнеса, аналитики, разработки и дообучения на своих данных➡ GitHub | HuggingFace |GitVerse
GigaAM-v3
5 моделей, которые превращают голос в текст с пунктуацией, понимают акценты, спонтанную речь и даже музыкальные запросы. Подойдут для голосовых ассистентов, контакт-центров, аналитики звонков➡ GitHub | HuggingFace | GitVerse
🔷 GigaChat Lightning
Лёгкая, компактная и быстрая. Конкурирует с Qwen3-4B, по скорости сравнима с Qwen3-1.7B, но намного умнее и больше по параметрам➡ GitHub | HuggingFace |GitVerse
🔷 Kandinsky 5.0
Создание фото и видео по тексту. Внутри:
• Image Lite — делает изображения в HD, отлично понимает русский язык и культурный контекст
• Video Pro — создаёт до 10 секунд реалистичного HD-видео. Конкурирует с топовыми мировыми моделями
• Video Lite — облегчённая версия для домашней видеокарты (от 12 ГБ)➡️ GitHub | GitVerse | Hugging Face | Технический репорт
🔷 K-VAE 1.0
Ускорение генеративного AI. Это технологии, которые «упаковывают» картинки и видео в скрытое пространство, чтобы модели работали быстрее и требовали меньше ресурсов. Лучшие среди открытых аналогов➡️ GitHub|Hugging Face
Код и веса этих всех моделей теперь доступны всем пользователям по лицензии MIT, в том числе для использования в коммерческих целях.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13👍3⚡2
LangChain запустил песочницы для DeepAgents
LangChain интегрировал удалённые песочницы для безопасного выполнения кода агентами.
Поддерживаются три провайдера: Runloop, Daytona и Modal.
Агент работает локально, но код выполняется удалённо — создаёт файлы, запускает команды, видит результаты.
Настройка через CLI одной командой: токены API и setup-скрипт.
Но есть нюанс:
Прямая цитата: "мы рекомендуем проверять дашборд провайдера, чтобы убедиться, что агент или песочница случайно не остались запущенными".
То есть автоматическая очистка ненадёжна.
Мониторинг вручную через три разных интерфейса.
Идея здравая, - отдельностоящая песочница дла кодовых агентов, но реализация на уровне беты пока.
#DeepAgents #Sandboxes #LangChain
------
@tsingular
LangChain интегрировал удалённые песочницы для безопасного выполнения кода агентами.
Поддерживаются три провайдера: Runloop, Daytona и Modal.
Агент работает локально, но код выполняется удалённо — создаёт файлы, запускает команды, видит результаты.
Настройка через CLI одной командой: токены API и setup-скрипт.
Но есть нюанс:
Прямая цитата: "мы рекомендуем проверять дашборд провайдера, чтобы убедиться, что агент или песочница случайно не остались запущенными".
То есть автоматическая очистка ненадёжна.
Мониторинг вручную через три разных интерфейса.
Идея здравая, - отдельностоящая песочница дла кодовых агентов, но реализация на уровне беты пока.
#DeepAgents #Sandboxes #LangChain
------
@tsingular
❤3👍3✍1
Cloud.ru AI Factory представили свой редактор nocode для ИИ полностью совместимый с n8n
Просто копируешь workflow и вставляешь его в рабочее поле редактора и все работает.
Не n8n, все полностью своё, но стандартный формат JSON n8n процесса импортируется простым копированием
#Cloud #n8n
———
@tsingular
Просто копируешь workflow и вставляешь его в рабочее поле редактора и все работает.
Не n8n, все полностью своё, но стандартный формат JSON n8n процесса импортируется простым копированием
#Cloud #n8n
———
@tsingular
🔥8🤣3⚡2❤1🏆1🗿1
Нанобанана Про вышла.
Точность, - космос!
пробуем тут
https://gemini.google.com/app
UPD: появилась в aistudio тоже
#nanobanana #Google
———
@tsingular
Точность, - космос!
пробуем тут
https://gemini.google.com/app
UPD: появилась в aistudio тоже
#nanobanana #Google
———
@tsingular
🔥8⚡2🤣2🏆2❤1
Как обещал, пробуем Нану2 с теми же картинками для сравнения и тем же промптом.
Что сказать. По мне точность выше, но первая была прикольнее что ли :)
Там правда была возможность температуру повысить в aistudio до 0.7, может в этом дело.
#Нанобанана #Google
———
@tsingular
Что сказать. По мне точность выше, но первая была прикольнее что ли :)
Там правда была возможность температуру повысить в aistudio до 0.7, может в этом дело.
#Нанобанана #Google
———
@tsingular
⚡3👍3🔥2❤1