🧠 Adaptive Deep Reasoning — умная система от Hunyuan, которая сама выбирает, **как много думать*.
Вместо одного фиксированного способа рассуждать — модель динамически переключается между короткой и длинной цепочкой **рассуждений в зависимости от сложности задачи.
Без потери качества. Без избыточных токенов.
🔧 Как это работает:
1️⃣ Supervised Fine-tuning — обучает модель сразу двум режимам: short и long reasoning
2️⃣ Reinforcement Learning (GRPO) — адаптивная стратегия наград:
• Анализирует сложность запроса
• Подбирает подходящую длину рассуждения
• Оптимизирует выбор reasoning-режима
⚙️ Встроенная logit-based switching loss — с первого токена выбирает нужную траекторию (длинную или короткую).
✅ Что получаем:
• Мгновенное переключение между режимами
• Экономия ресурсов без потери точности
• Повышение эффективности reasoning без усложнения архитектуры
🚀 Adaptive Deep Reasoning — это как если бы модель *думала ровно столько, сколько нужно*. Ни больше, ни меньше.
arxiv.org/pdf/2505.20101
@bigdatai
Вместо одного фиксированного способа рассуждать — модель динамически переключается между короткой и длинной цепочкой **рассуждений в зависимости от сложности задачи.
Без потери качества. Без избыточных токенов.
🔧 Как это работает:
1️⃣ Supervised Fine-tuning — обучает модель сразу двум режимам: short и long reasoning
2️⃣ Reinforcement Learning (GRPO) — адаптивная стратегия наград:
• Анализирует сложность запроса
• Подбирает подходящую длину рассуждения
• Оптимизирует выбор reasoning-режима
⚙️ Встроенная logit-based switching loss — с первого токена выбирает нужную траекторию (длинную или короткую).
✅ Что получаем:
• Мгновенное переключение между режимами
• Экономия ресурсов без потери точности
• Повышение эффективности reasoning без усложнения архитектуры
🚀 Adaptive Deep Reasoning — это как если бы модель *думала ровно столько, сколько нужно*. Ни больше, ни меньше.
arxiv.org/pdf/2505.20101
@bigdatai
FLUX.1 Kontext — семейство моделей для генерации и редактирования изображений, которые работают "в контексте". Это значит, что модели умеют не только генерировать картинки по тексту, но и принимать на вход изображения, чтобы модель поняла, что именно вы хотите сохранить или изменить. Возможности: сохранение стиля или персонажа из вашего референса, точечное редактирование без искажения и добавление инструкций шаг за шагом.
Есть 3 версии: FLUX.1 Kontext [pro] — универсальная для генерации и инпейнта, работает в разы быстрее аналогов и сохраняет консистентность при многошаговых правках. FLUX.1 Kontext [max] — экспериментальная модель с улучшенным следованием промптам и типографикой. Обе уже доступны через партнеров: KreaAI, Freepik, LeonardoAI, Replicate и др.
Для исследователей и энтузиастов открыли доступ по запросу к приватной бета-версии FLUX.1 Kontext [dev] с открытыми весами (12B). А чтобы просто потестить возможности, запустили демо - Playground.
bfl.ai
@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
🧠 Gemini Fullstack LangGraph — умный AI, который реально умеет гуглить
Этот проект — готовый fullstack-пример с фронтендом на React и backend-агентом на LangGraph, который умеет проводить глубокие исследования по пользовательскому запросу. И делает это по-взрослому: генерирует поисковые фразы, гуглит, анализирует пробелы в знании и уточняет запросы, пока не соберёт обоснованный ответ с источниками.
🚀 Что под капотом:
💬 Fullstack-приложение: React + LangGraph
🧠 LangGraph-агент, управляемый Google Gemini
🔍 Динамическая генерация поисковых запросов
🌐 Поиск через Google Search API
🤔 Умная самооценка: где не хватает знаний — туда и копает
📄 Ответы с цитатами и источниками
🔄 Горячая перезагрузка — удобно в разработке (и фронт, и бэк)
📦 Подходит для тех, кто хочет собрать исследовательского AI-ассистента с реальным выходом в веб.
🔗 Репозиторий
Этот проект — готовый fullstack-пример с фронтендом на React и backend-агентом на LangGraph, который умеет проводить глубокие исследования по пользовательскому запросу. И делает это по-взрослому: генерирует поисковые фразы, гуглит, анализирует пробелы в знании и уточняет запросы, пока не соберёт обоснованный ответ с источниками.
🚀 Что под капотом:
💬 Fullstack-приложение: React + LangGraph
🧠 LangGraph-агент, управляемый Google Gemini
🔍 Динамическая генерация поисковых запросов
🌐 Поиск через Google Search API
🤔 Умная самооценка: где не хватает знаний — туда и копает
📄 Ответы с цитатами и источниками
🔄 Горячая перезагрузка — удобно в разработке (и фронт, и бэк)
📦 Подходит для тех, кто хочет собрать исследовательского AI-ассистента с реальным выходом в веб.
🔗 Репозиторий
🧠 Что такое Word Embeddings и зачем они нужны в NLP?
В новой статье на Machine Learning Mastery объясняется, как word embeddings (векторные представления слов) преобразили обработку естественного языка.
📌 Что такое word embeddings?
Это способ представить слова в виде плотных векторов в многомерном пространстве, где семантически похожие слова располагаются рядом. Например, вектора для слов "король" и "королева" будут близки друг к другу. Это основано на гипотезе распределения: слова, встречающиеся в похожих контекстах, имеют схожее значение.
🔧 Как их использовать?
- Предобученные модели: можно использовать готовые embeddings, такие как Word2Vec, GloVe, FastText или ELMo.
- Обучение с нуля: с помощью библиотек, например, Gensim или PyTorch, можно обучить собственные embeddings на вашем корпусе данных.
### 🤖 Embeddings в современных языковых моделях
В трансформерах, таких как BERT, embeddings являются первым слоем (`nn.Embedding`), преобразующим токены в векторы. Эти вектора затем обрабатываются слоями внимания для понимания контекста и значений слов в предложении.
📚 Подробнее
В новой статье на Machine Learning Mastery объясняется, как word embeddings (векторные представления слов) преобразили обработку естественного языка.
📌 Что такое word embeddings?
Это способ представить слова в виде плотных векторов в многомерном пространстве, где семантически похожие слова располагаются рядом. Например, вектора для слов "король" и "королева" будут близки друг к другу. Это основано на гипотезе распределения: слова, встречающиеся в похожих контекстах, имеют схожее значение.
🔧 Как их использовать?
- Предобученные модели: можно использовать готовые embeddings, такие как Word2Vec, GloVe, FastText или ELMo.
- Обучение с нуля: с помощью библиотек, например, Gensim или PyTorch, можно обучить собственные embeddings на вашем корпусе данных.
### 🤖 Embeddings в современных языковых моделях
В трансформерах, таких как BERT, embeddings являются первым слоем (`nn.Embedding`), преобразующим токены в векторы. Эти вектора затем обрабатываются слоями внимания для понимания контекста и значений слов в предложении.
📚 Подробнее
Yandex B2B Tech обновила платформу SourceCraft и сделала её общедоступной. Ранее она использовалась только внутри компании, теперь с ней могут работать любые разработчики.
Обновление включает ряд новых функций. Среди них — инструменты безопасной разработки: сканер секретов в коде, анализ зависимостей и сводка по выявленным рискам. Это позволяет снижать вероятность ошибок и повышать безопасность ИТ-продуктов.
Также появилась возможность зеркалировать репозитории с GitHub, подключать сторонние приложения через публичный API и использовать корпоративную учётную запись для командной работы.
По словам руководителя платформы, обновления направлены на сокращение затрат и ускорение вывода продуктов на рынок — с сохранением требований к качеству и безопасности.
Обновление включает ряд новых функций. Среди них — инструменты безопасной разработки: сканер секретов в коде, анализ зависимостей и сводка по выявленным рискам. Это позволяет снижать вероятность ошибок и повышать безопасность ИТ-продуктов.
Также появилась возможность зеркалировать репозитории с GitHub, подключать сторонние приложения через публичный API и использовать корпоративную учётную запись для командной работы.
По словам руководителя платформы, обновления направлены на сокращение затрат и ускорение вывода продуктов на рынок — с сохранением требований к качеству и безопасности.
Forwarded from Machinelearning
Please open Telegram to view this post
VIEW IN TELEGRAM
🧠 OpenThinker3-7B — новая открытая LLM для математики, кода и науки
Команда Open Thoughts представила OpenThinker3-7B — модель с 7B параметров, натренированную на 1.2M задач по математике, программированию и естественным наукам. Построена на базе Qwen2.5-7B-Instruct и удивляет точностью даже без RLHF.
🔍 Что внутри:
• 850 000 математических задач
• 250 000 задач по программированию
• 100 000 научных вопросов
• SFT (без RL) — но обходит модели до 32B
📊 Результаты (AIME24 / MATH500 / CodeElo):
• OpenThinker3-7B:
• DeepSeek-R1-Distill-32B:
• OpenThinker2-7B:
🧩 Ключевые фишки:
• Полностью открытая модель: веса, код, датасеты
• Работает с Evalchemy, CodeElo, GPQA, JEEBench
• Умеет точно рассуждать без цепочек промптов
• Превосходит модели в 3–5 раз больше по параметрам
⚙️ Технические детали:
• GPU: 512 × A100
• Время обучения: 48 часов
• PyTorch 2.3, Transformers 4.46
• Оптимизатор: AdamW, LR: 8e-5, cosine scheduler
🔗 Полезные ссылки:
https://huggingface.co/open-thoughts/OpenThinker3-7B
📂 Датасет: https://huggingface.co/datasets/open-thoughts/OpenThoughts3-1.2M
📄 Статья: https://arxiv.org/abs/2506.04178
💻 GitHub: github.com/open-thoughts/open-thoughts
Команда Open Thoughts представила OpenThinker3-7B — модель с 7B параметров, натренированную на 1.2M задач по математике, программированию и естественным наукам. Построена на базе Qwen2.5-7B-Instruct и удивляет точностью даже без RLHF.
🔍 Что внутри:
• 850 000 математических задач
• 250 000 задач по программированию
• 100 000 научных вопросов
• SFT (без RL) — но обходит модели до 32B
📊 Результаты (AIME24 / MATH500 / CodeElo):
• OpenThinker3-7B:
69.0
/ 90.0
/ 32.2
• DeepSeek-R1-Distill-32B:
51.3
/ 88.0
/ 21.1
• OpenThinker2-7B:
60.7
/ 87.6
/ 26.6
🧩 Ключевые фишки:
• Полностью открытая модель: веса, код, датасеты
• Работает с Evalchemy, CodeElo, GPQA, JEEBench
• Умеет точно рассуждать без цепочек промптов
• Превосходит модели в 3–5 раз больше по параметрам
⚙️ Технические детали:
• GPU: 512 × A100
• Время обучения: 48 часов
• PyTorch 2.3, Transformers 4.46
• Оптимизатор: AdamW, LR: 8e-5, cosine scheduler
🔗 Полезные ссылки:
https://huggingface.co/open-thoughts/OpenThinker3-7B
📂 Датасет: https://huggingface.co/datasets/open-thoughts/OpenThoughts3-1.2M
📄 Статья: https://arxiv.org/abs/2506.04178
💻 GitHub: github.com/open-thoughts/open-thoughts
💡 Встречайте Water — простой и гибкий фреймворк для многокомпонентных AI-систем.
🌊 Что такое Water:
• Лёгкий, модульный и open-source
• Изначально рассчитан на работу с несколькими агентами
• Совместим с любыми популярными платформами: OpenAI Agents SDK, LangChain, Google ADK и другими
• Поддерживает структурированные сценарии: последовательные, параллельные, циклы, условия
Идеален для тех, кто хочет собирать сложные AI-цепочки без лишнего кода и ограничений.
🔗 GitHub: https://github.com/manthanguptaa/water
📘 Docs: https://manthanguptaa.in/posts/water/
#AI #Agents #MultiAgent #Framework #opensource
🌊 Что такое Water:
• Лёгкий, модульный и open-source
• Изначально рассчитан на работу с несколькими агентами
• Совместим с любыми популярными платформами: OpenAI Agents SDK, LangChain, Google ADK и другими
• Поддерживает структурированные сценарии: последовательные, параллельные, циклы, условия
Идеален для тех, кто хочет собирать сложные AI-цепочки без лишнего кода и ограничений.
🔗 GitHub: https://github.com/manthanguptaa/water
📘 Docs: https://manthanguptaa.in/posts/water/
#AI #Agents #MultiAgent #Framework #opensource
Как масштабировать машинные модели и работать с огромными объемами данных? Откройте для себя возможности Spark ML на открытом уроке от OTUS!
Spark ML — это мощный инструмент для масштабируемого машинного обучения, который позволяет обучать модели на больших данных, не переходя на специализированные ML-системы. Мы покажем, как интеграция с Spark SQL и DataFrame API упрощает ETL-подготовку данных и фичуризацию для реальных проектов.
Убедитесь, как Spark ML решает задачи отказоустойчивости и распределённых вычислений, позволяя вам легко строить промышленные ML-пайплайны.
Посетите открытый урок 11 июня в 20:00 МСК в преддверие старта курса «Spark Developer» и получите скидку на обучение: https://otus.pw/kzQH/?erid=2W5zFH32Kha
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
Spark ML — это мощный инструмент для масштабируемого машинного обучения, который позволяет обучать модели на больших данных, не переходя на специализированные ML-системы. Мы покажем, как интеграция с Spark SQL и DataFrame API упрощает ETL-подготовку данных и фичуризацию для реальных проектов.
Убедитесь, как Spark ML решает задачи отказоустойчивости и распределённых вычислений, позволяя вам легко строить промышленные ML-пайплайны.
Посетите открытый урок 11 июня в 20:00 МСК в преддверие старта курса «Spark Developer» и получите скидку на обучение: https://otus.pw/kzQH/?erid=2W5zFH32Kha
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
📄 Это исследование оценивает 14 техник prompt-инжиниринга для 10 задач в области Software Engineering, используя 4 разных LLM.
Методология 🔧:
● Эффективность оценивалась с помощью метрик:
● Анализировались лингвистические характеристики prompt'ов:
● Применялась
📌 Выводы помогут понять, какие типы prompt'ов реально работают в инженерных задачах и почему.
Читать
Методология 🔧:
● Эффективность оценивалась с помощью метрик:
Accuracy
, F1 score
, CodeBLEU
, BLEU
.● Анализировались лингвистические характеристики prompt'ов:
лексическое разнообразие
, число токенов
и их связь с качеством ответа.● Применялась
контрастивная интерпретация
, чтобы выявить ключевые факторы, влияющие на результативность техник.📌 Выводы помогут понять, какие типы prompt'ов реально работают в инженерных задачах и почему.
Читать
🎯 5 ИИ-проектов, которые ты можешь собрать за выходные
Хочешь прокачать навыки ML и Python без математики и Kaggle? Лови 5 готовых идей, которые можно собрать за 1–2 дня:
🔹 Голосовой ассистент — Whisper + GPT + озвучка
🔹 Чат-бот для PDF — LangChain + FAISS + OpenAI
🔹 Генератор картинок — Stable Diffusion + Gradio
🔹 Подписи к фото — BLIP + HuggingFace
🔹 TL;DR бот — BART или GPT для суммаризации текста
✅ Примеры кода
✅ Деплой на HuggingFace / Streamlit
✅ Всё реально собрать за выходные
📎 Забирай гайд — и добавь проекты в резюме: «AI developer: checked»
Хочешь прокачать навыки ML и Python без математики и Kaggle? Лови 5 готовых идей, которые можно собрать за 1–2 дня:
🔹 Голосовой ассистент — Whisper + GPT + озвучка
🔹 Чат-бот для PDF — LangChain + FAISS + OpenAI
🔹 Генератор картинок — Stable Diffusion + Gradio
🔹 Подписи к фото — BLIP + HuggingFace
🔹 TL;DR бот — BART или GPT для суммаризации текста
✅ Примеры кода
✅ Деплой на HuggingFace / Streamlit
✅ Всё реально собрать за выходные
📎 Забирай гайд — и добавь проекты в резюме: «AI developer: checked»
👩🏻💻 mcp-agent — фреймворк для создания интеллектуальных агентов с Model Context Protocol.
Этот проект реализует идеи Anthropic по стандартизации взаимодействия ИИ-ассистентов с внешними сервисами. Вместо того чтобы писать сложные интеграции, вы можете подключать агентов к MCP-серверам и использовать готовые шаблоны для построения рабочих процессов.
Фреймворк поддерживает все паттерны из Building Effective Agents, включая параллельное выполнение задач, маршрутизацию запросов и swarm-оркестрацию агентов. При этом он остается легковесным и позволяет комбинировать разные подходы.
🤖 GitHub
@bigdatai
Этот проект реализует идеи Anthropic по стандартизации взаимодействия ИИ-ассистентов с внешними сервисами. Вместо того чтобы писать сложные интеграции, вы можете подключать агентов к MCP-серверам и использовать готовые шаблоны для построения рабочих процессов.
Фреймворк поддерживает все паттерны из Building Effective Agents, включая параллельное выполнение задач, маршрутизацию запросов и swarm-оркестрацию агентов. При этом он остается легковесным и позволяет комбинировать разные подходы.
🤖 GitHub
@bigdatai
Media is too big
VIEW IN TELEGRAM
🚀 Cosmos-Predict2 — новая открытая видео-модель для Physical AI от NVIDIA!
Cosmos-Predict2 — ключевая часть экосистемы World Foundation Models (WFMs), созданная для Physical AI. Модель умеет предсказывать будущее состояние визуального мира, используя текст и видео. Cosmos разработан для ускорения обучения моделей, которые понимают физику, среду и действия — от автономных автомобилей до роботов. Выглядит очень интересно.
Это самое мощное поколение моделей в экосистеме Cosmos. Модель заметно улучшена по сравнению с Predict1:
🎯 лучшее качество видео
🧠 точнее соответствует текстовому описанию
🎥 более реалистичная динамика движения
📊 Cosmos-Predict2 превосходит другие open-source видео foundation-модели.
▪ Веса
▪ Полный код для инференса и обучения (с туториалами)
@ai_machinelearning_big_data
#Cosmos #NVIDIA
Cosmos-Predict2 — ключевая часть экосистемы World Foundation Models (WFMs), созданная для Physical AI. Модель умеет предсказывать будущее состояние визуального мира, используя текст и видео. Cosmos разработан для ускорения обучения моделей, которые понимают физику, среду и действия — от автономных автомобилей до роботов. Выглядит очень интересно.
Это самое мощное поколение моделей в экосистеме Cosmos. Модель заметно улучшена по сравнению с Predict1:
🎯 лучшее качество видео
🧠 точнее соответствует текстовому описанию
🎥 более реалистичная динамика движения
📊 Cosmos-Predict2 превосходит другие open-source видео foundation-модели.
▪ Веса
▪ Полный код для инференса и обучения (с туториалами)
@ai_machinelearning_big_data
#Cosmos #NVIDIA