Технозаметки Малышева
8.27K subscribers
3.67K photos
1.37K videos
40 files
3.87K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Вводный курс по Antigravity от Google уже на ютубе.

Показана разработка сайта ИИ агентом с функциями оператора.
По ходу разработки агент в браузере проверяет, что все кнопки нажимаются.
И агент интегрирует приложение с календарём и проверяет, что интеграция работает и расписание рейса заносится в календарь.

Подписываемся на канал тут

#Antigravity #Google #обучение
———-
@tsingular
👍953
Generative UI: Google генерирует интерфейсы по запросу

Случилось то, о чем так долго говорили большевики ИИ энтузиасты.

Google представил Generative UI.
Gemini 3 создаёт полностью кастомные интерфейсы для любого промпта.

Вместо текста или маркдауна модель пишет код страницы: игры, инструменты, визуализации.
Работает в Gemini App (dynamic view) и AI Mode в Google Search.
Примеры: галерея Ван Гога с контекстом, интерактивные симуляции РНК-полимеразы, советник по моде.

Ну т.е. 2 года мы говорили, что скоро ИИшечка будет в реальном времени генерить интерфейсы исходя из задачи, а не по шаблону CMS и вот оно в работе.
Пока в гугле, далее везде.
Пишут, что пользователи довольны и так намного удобнее, чем в стародавние времена, которые вот были до Gemini3.
Как жили вообще не понятно.

#GenerativeUI #Gemini3
———
@tsingular
🔥154🤔3🎉3😐3👾21👍1👏1
Forwarded from GigaChat
Media is too big
VIEW IN TELEGRAM
🌊🌊🌊🌊🌊🌊🌊🌊🌊🌊

На старт, внимание... AI Journey уже здесь!

Стартовала главная конференция года по искусственному интеллекту — AI Journey 2025. Она продлится три дня, и на одной площадке мы соберём ведущих AI-экспертов. Обсудим, как искусственный интеллект усиливает потенциал человека — помогает творить, лечить, принимать решения, открывать новые горизонты в медицине, кино, моде, спорте и исследовать будущее

Что ждёт участников сегодня
🤩 Разрушители мифов про ИИ
🤩 AI Reels — реальная жизнь с ИИ
🤩 ИИ в киноиндустрии
🤩 AI для тебя. Мир сверхвозможностей: что мы в нём сохраним
🤩 Панельная дискуссия «Будущее с AI»


Погружаемся в дискуссии, смотрим выступления спикеров и обсуждаем, каким искусственный интеллект будет завтра ↓

🖥 Подключайтесь к трансляции
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥641
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
SMOL_секреты_создания_LLM_мирового_класса_Перевод_t_me_aivkube.pdf
14.6 MB
Перевод The Smol Training Playbook:
The Secrets to Building World-Class LLMs


Подписчик Сергей Долгов проделал титанический труд - перевел культовый гайд по тренировке своих языковых моделей.

Вот что он пишет:

На первый взгляд SMOL Playbook от HuggingFace, которым мы обязаны почти всем в AI-опенсорсе - это эссе размером в 2️⃣0️⃣0️⃣ страниц о том, как обучать большие модели. Но для меня это - изысканный десерт весом в полтонны, которым никак не можешь наесться. Слой за слоем я читал и находил все новые и новые инсайты, многие из которых подтверждали мои предположения и опыт, но бОльшая часть была ошеломляюще новой.

Если в 2024 вы собирали простых ассистентов на GPT, этой весной освоили n8n и Комфи, а сейчас уже делаете 40-секундные ролики на Sora, то, возможно, в следующем году вы уже будете тренировать LLM для целых компаний или, как минимум, руководить теми, кто их тренирует . Спрос растет на тех, кто хорошо разбирается в принципах работы нейронок.

Я занимаюсь тем, что собираю команды, обучаю и внедряю ИИ. Две недели назад я взялся за перевод SMOL Playbook от тех самых HuggingFace, которым мы обязаны почти всем в AI-опенсорсе. Это книга о том, как все устроено в мире LLM, как не растянуться на входе в него и многократно не споткнуться по ходу дела. Благодаря этому материалу всего за несколько вечеров вы сможете разложить процесс по полочкам и избежите дорогих ошибок:
▶️выбор архитектуры под вашу задачу
▶️подготовка и чистка датасета
▶️тонкости обучения и отладки
▶️ экономии вычислений.
Кофаундер и ведущие исследователи HuggingFace честно (и с изрядным юмором!) пишут о всех граблях, ограничениях и компромиссах, с которыми они столкнулись, и которые 100% ждут вас (тут, видимо, нужен скрытый текст) если вы не прочитаете этот текст.
Так что, если в будущем вы допускаете, что можете попасть в одну из этих когорт...
🧑‍💻 AI-инженер и ресёрчер, которому нужна компактная и быстрая модель
🙆🏻‍♂️ Стартапер с ограниченным бюджето, которому нужно протестировать гипотезу и не сжечь деньги
🧛‍♂️ Руководитель, желающий понять, почему одни LLM выстреливают, а другие нет
... прочитайте эту книгу, возможно она сэкономит вам месяцы жизни. И определенно доставит удовольствие!


Спасибо Сергею за такой труд.

@cgevent
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2322🏆2👍1🆒11
Media is too big
VIEW IN TELEGRAM
Figure обновила отчет по внедрению роботов на производстве BMW

По итогам 11-месяцев работы:
- Робот участвовал в производстве более 30 000 автомобилей (модели X3).
- Загружено более 90 000 деталей.
- Работал по 10-часовыми сменами с понедельника по пятницу.
- Пройдено пешком совокупно более 200 миль.

- Один робот Figure 02 работал на заводе 6 месяцев ежедневно.
- Наиболее частой точкой отказа оборудования было предплечье. Полученные знания легли в основу конструкции Figure 03.

Были определены три критических KPI:
- Время цикла: 84 секунды.
- Точность загрузки деталей : > 99% за смену
- Ноль вмешательств, требующих остановки или перезагрузки робота (за смену).

Трудность была в достижении баланса качества и скорости.
Некоторые запчасти нужно было размещать с допуском 5 миллиметров за 2 секунды.

Компания заявляет: «Чтобы соответствовать этим (ключевым показателям эффективности), наш робот должен был обладать точными, но адаптивными движением, позволяющими быстро и точно размещать ноги и в режиме реального времени реагировать на изменения окружающей среды».

#роботы #Figure #BMW
———
@tsingular
🔥1822👾2👏1
С выходом Gemini3 тут такая чехарда началась.

- OpenAI срочно выпустил обновление GPT Codex 5.1 и он теперь Max.
Предыдущий кодекс устарел за пару недель.
- Маск тут же пишет, что вот теперь Grok 4.1 Fast обошёл Gemini3 в использовании Агентских инструментов по версии artificialanalysis.ai

Картинка с анонсом лучшей модели крутится как карусель, короче.

Ждём еще что Qwen выпустит, что-то давно их не слышно.

#Grok #Gemini #Codex
———
@tsingular
🤣181👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🔬 NVIDIA прокачивает материаловедение

На конференции в Сент-Луисе показали две платформы, которые превращают месяцы лабораторных экспериментов в дни.

Holoscan — обработка изображений материалов в реальном времени
Brookhaven National Laboratory получает рентгеновские снимки материалов с разрешением <10 нм.

Раньше: делаешь скан → ждёшь обработки → смотришь результат.

Сейчас: видишь результат прямо во время сканирования.

Практический эффект:
- Мгновенная корректировка эксперимента
- Больше экспериментов на том же оборудовании = меньше стоимость исследования
- Потенциал для автономных экспериментов с AI

ALCHEMI — поиск новых материалов ускоренный GPU.

Набор микросервисов для симуляции молекул.
Вместо синтеза тысяч образцов в лаборатории — виртуальный скрининг миллионов вариантов.

Реальные кейсы:
ENEOS (энергетика):
- 10 млн кандидатов для жидкостного охлаждения ЦОДов
- 100 млн вариантов катализаторов для водородного топлива
Срок проверки: несколько недель
Ускорение: 10× против старых методов

Universal Display Corporation (OLED-дисплеи):
- Из 10^100 возможных молекул находят оптимальные для экранов
- Ускорение поиска в сравнении с CPU - до x10,000
- Молекулярная динамика: с дней до секунд через параллельные GPU
- Фокус: синие фосфоресцентные OLED = меньше энергопотребление

Суть технологии:
GPU пропускают через себя миллиарды комбинаций атомов, отсеивая неподходящие варианты до реальных тестов.
Только лучшие кандидаты попадают в лабораторию.
Результат: от химической интуиции к массовому вычислительному поиску.

ALCHEMI — одна из 150+ библиотек CUDA-X для научных расчётов.

Забрутфорсили химию.

#NVIDIA #материаловедение #ALCHEMI #SC25 #наука
———
@tsingular
🔥9👍541
GigaAM-v3: новый уровень качества, пунктуация, нормализация

➡️ GitHub | HuggingFace | GitVerse

В прошлом году мы открыли семейство моделей GigaAM, после чего значительно улучшили качество благодаря подходу HuBERT-CTC во второй версии. Основными запросами сообщества оставались поддержка пунктуации в наших моделях, а также улучшение на сложных срезах данных. Сегодня мы рады представить следующий большой релиз — GigaAM-v3.

Что публикуем
🔘GigaAM-v3 — foundation audio encoder (база для дообучения).
🔘GigaAM-v3-CTC — улучшенная CTC модель распознавания, быстрый инференс
🔘GigaAM-v3-RNNT — улучшенная RNNT модель распознавания, лучшее качество
🔘GigaAM-v3-e2e-CTC — распознавание с пунктуацией и нормализацией, быстрый инференс
🔘GigaAM-v3-e2e-RNNT — распознавание с пунктуацией и нормализацией, максимальное качество

Пример e2e-вывода: В твоём каталоге есть первая серия сезона 14 «Где логика»?

Что нового в v3
🔘Масштаб предобучения: 50k → 700k часов аудио на русском языке.
🔘Новые домены в обучении ASR: колл-центр, музыкальные запросы, речь с особенностями, разговорная речь (суммарно 2k часов).
🔘Для всего корпуса обучающих данных восстановлены пунктуация и нормализация при помощи GigaChat Max Audio.
🔘Линейка CTC/RNNT + e2e — выбирайте скорость или максимум качества под свой сценарий.

Метрики
🔘 Открытые датасеты (Golos, OpenSTT, Common Voice, LibriSpeech): паритет с GigaAM-v2.
🔘 Новые домены (WER, v2-RNNT → v3-RNNT):
• речь с особенностями 27% → 19%
• колл-центр 13% → 10%
• спонтанная речь 10.3% → 7%
🔘 Пунктуация: v3-e2e-RNNT vs reference + Whisper Forced Decoding — F1-score по запятой 84% vs 62%, остальные знаки ~паритет.
🔘 Side-by-Side (Gemini 2.5 Pro as a judge): v3-e2e-RNNT vs Whisper-large-v3 — 70:30 (колл-центр), 64:36 (Common Voice).


Более качественные модели распознавания того же класса эксклюзивно доступны в наших умных устройствах, а также могут быть бесплатно использованы на повседневной основе с помощью бота @smartspeech_sber_bot.

Совсем скоро выйдет пост на Хабр, где мы поделимся подробностями обучения и оценки качества. Не пропустите!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10👍5
Forwarded from GigaChat
🔥МЫ ПРЕДСТАВЛЯЕМ КРУПНЕЙШИЙ OPEN-SOURCE AI В ЕВРОПЕ 🔥

Мы стремимся не замыкаться в «закрытой» технологии, а строить открытую платформу для всей страны, поэтому мы публикуем веса наших моделей.

Что появилось в открытом доступе ↓

🔷 GigaChat Ultra Preview
Самая мощная модель Сбера. Лучше DeepSeek V3.1 и GigaChat Max 2 в русскоязычных задачах. Подходит для бизнеса, аналитики, разработки и дообучения на своих данных
GitHub | HuggingFace |GitVerse

GigaAM-v3
5 моделей, которые превращают голос в текст с пунктуацией, понимают акценты, спонтанную речь и даже музыкальные запросы. Подойдут для голосовых ассистентов, контакт-центров, аналитики звонков
GitHub | HuggingFace | GitVerse

🔷 GigaChat Lightning
Лёгкая, компактная и быстрая. Конкурирует с Qwen3-4B, по скорости сравнима с Qwen3-1.7B, но намного умнее и больше по параметрам
GitHub | HuggingFace |GitVerse

🔷 Kandinsky 5.0
Создание фото и видео по тексту. Внутри:
• Image Lite — делает изображения в HD, отлично понимает русский язык и культурный контекст
• Video Pro — создаёт до 10 секунд реалистичного HD-видео. Конкурирует с топовыми мировыми моделями
• Video Lite — облегчённая версия для домашней видеокарты (от 12 ГБ)
➡️ GitHub | GitVerse | Hugging Face | Технический репорт

🔷 K-VAE 1.0
Ускорение генеративного AI. Это технологии, которые «упаковывают» картинки и видео в скрытое пространство, чтобы модели работали быстрее и требовали меньше ресурсов. Лучшие среди открытых аналогов
➡️ GitHub|Hugging Face


Код и веса этих всех моделей теперь доступны всем пользователям по лицензии MIT, в том числе для использования в коммерческих целях.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13👍32
LangChain запустил песочницы для DeepAgents

LangChain интегрировал удалённые песочницы для безопасного выполнения кода агентами.
Поддерживаются три провайдера: Runloop, Daytona и Modal.

Агент работает локально, но код выполняется удалённо — создаёт файлы, запускает команды, видит результаты.
Настройка через CLI одной командой: токены API и setup-скрипт.

Но есть нюанс:
Прямая цитата: "мы рекомендуем проверять дашборд провайдера, чтобы убедиться, что агент или песочница случайно не остались запущенными".

То есть автоматическая очистка ненадёжна.
Мониторинг вручную через три разных интерфейса.

Идея здравая, - отдельностоящая песочница дла кодовых агентов, но реализация на уровне беты пока.

#DeepAgents #Sandboxes #LangChain
------
@tsingular
3👍31
Cloud.ru AI Factory представили свой редактор nocode для ИИ полностью совместимый с n8n

Просто копируешь workflow и вставляешь его в рабочее поле редактора и все работает.

Не n8n, все полностью своё, но стандартный формат JSON n8n процесса импортируется простым копированием

#Cloud #n8n
———
@tsingular
🔥8🤣321🏆1🗿1
Нанобанана Про вышла.

Точность, - космос!

пробуем тут
https://gemini.google.com/app

UPD: появилась в aistudio тоже

#nanobanana #Google
———
@tsingular
🔥82🤣2🏆21
Как обещал, пробуем Нану2 с теми же картинками для сравнения и тем же промптом.

Что сказать. По мне точность выше, но первая была прикольнее что ли :)

Там правда была возможность температуру повысить в aistudio до 0.7, может в этом дело.

#Нанобанана #Google
———
@tsingular
3👍3🔥21