квака появилась в ollama
https://ollama.com/library/qwq
20 гигов - т.е. взлетит на 1 карте.
и есть режим tools - т.е. можно прикрутить к агентам!!
ещё есть 32b-fp16 на 66GB, но это уже для Nvidia digits или M3Ultra прибережём
#QwQ
———
#tsingular
https://ollama.com/library/qwq
20 гигов - т.е. взлетит на 1 карте.
и есть режим tools - т.е. можно прикрутить к агентам!!
ещё есть 32b-fp16 на 66GB, но это уже для Nvidia digits или M3Ultra прибережём
#QwQ
———
#tsingular
⚡3❤2
Forwarded from Анализ данных (Data analysis)
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ HF: Spark-TTS, модель преобразования текста в речь на базе LLM, которая выполняет клонирование голоса с нуля и создание голоса с высокой детализацией — все в одном потоке!
> Сделана на Qwen2.5
> Управляйте частотой тона, скоростью и стилем диктора непосредственно из текста.
Попробовать можно здесь: https://huggingface.co/spaces/Mobvoi/Offical-Spark-TTS
Paper: https://arxiv.org/pdf/2503.01710
Code: https://github.com/SparkAudio/Spark-TTS
Demo: https://sparkaudio.github.io/spark-tts/
> Сделана на Qwen2.5
> Управляйте частотой тона, скоростью и стилем диктора непосредственно из текста.
Попробовать можно здесь: https://huggingface.co/spaces/Mobvoi/Offical-Spark-TTS
Paper: https://arxiv.org/pdf/2503.01710
Code: https://github.com/SparkAudio/Spark-TTS
Demo: https://sparkaudio.github.io/spark-tts/
👍7
Media is too big
VIEW IN TELEGRAM
QwQ локально. Очень неплохо рассуждает, на мой взгляд.
2046 токенов нагенерил. Все, как видно, аккуратно и по делу.
18 токенов в секунду на M4
58 токенов в секунду на 4090
Получается 4090 в 3 раза быстрее М4, кстати.
#QwQ
———
@tsingular
2046 токенов нагенерил. Все, как видно, аккуратно и по делу.
18 токенов в секунду на M4
58 токенов в секунду на 4090
Получается 4090 в 3 раза быстрее М4, кстати.
#QwQ
———
@tsingular
🔥6👀2👍1
Forwarded from Агенты ИИ | AGI_and_RL
Вышла приятная обзорка по методам посттренинга LLMов и по ризонингу. С красивыми табличками, схемками.
Много про разного вида RL который можно применять, цепочки рассуждений, test-time scaling и вот это все
Читаем!
LLM Post-Training: A Deep Dive into Reasoning Large Language Models
https://arxiv.org/abs/2502.21321
И конечно же листик пособирали, тоже приятный.
https://github.com/mbzuai-oryx/Awesome-LLM-Post-training
PS собираемся и собираем все крутое по нейронкам тут https://t.me/researchim
Много про разного вида RL который можно применять, цепочки рассуждений, test-time scaling и вот это все
Читаем!
LLM Post-Training: A Deep Dive into Reasoning Large Language Models
https://arxiv.org/abs/2502.21321
И конечно же листик пособирали, тоже приятный.
https://github.com/mbzuai-oryx/Awesome-LLM-Post-training
PS собираемся и собираем все крутое по нейронкам тут https://t.me/researchim
⚡5👍2
Описание ИИ агента-оркестратора на основе инструкции Дневального по роте.
#дневальный #агенты
———
@tsingular
промпт
Ты — ИИ-оркестратор в мультиагентной системе.
Твоя роль: координировать и управлять агентами, обеспечивать безопасность и эффективность системы.
Ты подчиняешься главному модулю управления.
Обязанности:
- Постоянно мониторь систему и агентов, не прекращая работу без разрешения.
- Предотвращай несанкционированный доступ к данным и ресурсам.
- Активируй агентов для выполнения задач по расписанию или приоритетам.
- Сообщай главному модулю о сбоях, аномалиях или нарушениях безопасности, устраняя их.
- Поддерживай порядок: управляй памятью, предотвращай конфликты и перегрузку.
- В распределённых системах обеспечивай согласованность и синхронизацию.
Действия при сбоях:
- Сообщи главному модулю и перераспредели задачи.
- Активируй резервных агентов при необходимости.
Примеры:
- Сбой узла: перераспредели задачи.
- Срочный запрос: активируй агентов.
- Нарушение доступа: заблокируй и доложи.
Ограничения:
- Не прекращай мониторинг без разрешения.
- Будь всегда готов к действию.
Задача:
Начни координировать агентов, обеспечивая безопасность и эффективность системы.
#дневальный #агенты
———
@tsingular
🔥10⚡2✍2
🤖 Рубрика крутые инструкции от AWS:
Построение мультиагентной системы на базе AWS, LangGraph и Mistral
Система собирает информацию о городе из разных источников: события (локальная база + поиск онлайн), погода, рестораны. И всё работает в связке:
Если в локальной базе нет событий, она автоматически ищет информацию через Tavily API:
1. Модульность — можно быстро заменить/обновить любого агента, не ломая всю систему
2. Гибкость — каждый агент можно оптимизировать под конкретную задачу
3. Безопасность — у каждого агента доступ только к тем инструментам, которые ему нужны
Вся система собрана на LangGraph, который управляет состоянием и потоками данных между агентами.
Для поиска ресторанов используется RAG с Amazon Titan Embeddings + FAISS, хотя в статье рекомендуют для продакшена использовать Amazon Bedrock Knowledge Bases.
#AWS #LangGraph #Agents #MistralAI
———
@tsingular
Построение мультиагентной системы на базе AWS, LangGraph и Mistral
Система собирает информацию о городе из разных источников: события (локальная база + поиск онлайн), погода, рестораны. И всё работает в связке:
workflow.add_node("Events Database Agent", events_database_agent)
workflow.add_node("Online Search Agent", search_agent)
workflow.add_node("Weather Agent", weather_agent)
workflow.add_node("Restaurants Recommendation Agent", query_restaurants_agent)
workflow.add_node("Analysis Agent", analysis_agent)Если в локальной базе нет событий, она автоматически ищет информацию через Tavily API:
def route_events(state):
if f"No upcoming events found for {state.city}" in state.events_result:
return "Online Search Agent"
else:
return "Weather Agent"
1. Модульность — можно быстро заменить/обновить любого агента, не ломая всю систему
2. Гибкость — каждый агент можно оптимизировать под конкретную задачу
3. Безопасность — у каждого агента доступ только к тем инструментам, которые ему нужны
«Агенты революционизируют ландшафт генеративного ИИ, соединяя крупные языковые модели с приложениями реального мира. Эти умные, автономные системы скоро станут краеугольным камнем внедрения ИИ в разных отраслях»
Вся система собрана на LangGraph, который управляет состоянием и потоками данных между агентами.
Для поиска ресторанов используется RAG с Amazon Titan Embeddings + FAISS, хотя в статье рекомендуют для продакшена использовать Amazon Bedrock Knowledge Bases.
#AWS #LangGraph #Agents #MistralAI
———
@tsingular
✍5👨💻1
Реалии искусственного интеллекта
В рамках 16-й ежегодной международной научно-практической конференции «Реалии экономики данных» в РАНХиГС выступил модератором секции по ИИ.
RuTube - запись секции
Докладчики:
Рыжов Александр
РАНХиГС - д.т.н. профессор, заведующий кафедрой "Системы управления бизнес-процессами"
Малышев Михаил
независимый ИИ эксперт
в роли модератора
Друца Алексей
Директор по проникновению технологий, Яндекс
Расов Арсений
Руководитель команды машинного обучения в поиске по видео Вконтакте
Дегтярев Евгений
Технический директор, Партнер
Компания УМАРТА
Головин Леонид
Советник Генерального Директора
по цифровой трансформации
Газпромтранс
Презентации есть на сайте конференции в разделе "О мероприятии"
#ranepa #конференции
———
@tsingular
В рамках 16-й ежегодной международной научно-практической конференции «Реалии экономики данных» в РАНХиГС выступил модератором секции по ИИ.
RuTube - запись секции
Докладчики:
Рыжов Александр
РАНХиГС - д.т.н. профессор, заведующий кафедрой "Системы управления бизнес-процессами"
Малышев Михаил
независимый ИИ эксперт
в роли модератора
Друца Алексей
Директор по проникновению технологий, Яндекс
Расов Арсений
Руководитель команды машинного обучения в поиске по видео Вконтакте
Дегтярев Евгений
Технический директор, Партнер
Компания УМАРТА
Головин Леонид
Советник Генерального Директора
по цифровой трансформации
Газпромтранс
Презентации есть на сайте конференции в разделе "О мероприятии"
#ranepa #конференции
———
@tsingular
🔥17👍11🏆2
Forwarded from Data Secrets
This media is not supported in your browser
VIEW IN TELEGRAM
Ребята встроили в свой многомиллионный раздел с датасетами Data Studio. Теперь из нужной таблицы можно прямо на платформе извлечь то, что нужно, не скачивая ее полностью. Результат вернется в виде CSV, или им можно поделиться ссылкой.
Ну и самое приятное: писать SQL-запрос самому не обязательно. Достаточно описать все на естественном языке, а код за вас напишет DeepSeek V3.
Please open Telegram to view this post
VIEW IN TELEGRAM
🆒6👍4
Forwarded from Data Secrets
Всего через несколько часов после выхода QwQ-32B Alibaba дропнули START – модель, дообученную на использование инструментов
START – это Self-Taught Reasoner with Tools. То есть здесь из обычных цепочек рассуждений пытаются сделать такие, чтобы модель в какой-то момент сама понимала, что хорошо бы проверить что-то с помощью кода, шла и проверяла.
Для этого взяли QwQ-32B и зафайнтюнили его в два этапа:
1. Во время инференса прямо в CoT вставляли подсказки. Типа «Возможно, здесь хорошо бы использовать Python», как будто моделька сама до этого догадалась. Такие подсказки становились частью контекста и заставляли ризонер подумать подольше, сгенерировать код и запустить его.
2. После первого этапа у нас остается куча цепочек с использованием интерпретатора. Среди них есть ошибочные и хорошие. Фильтруем, обрабатываем, и еще разок дообучаем модель на чистых и правильных CoT с инструментами.
Надо сказать, очень прикольный способ генерации специфичной синтетики, который, к тому же, дал свои результаты: метрики относительно базового QwQ-32B подскочили на 5-15 процентных пунктов, и STAR почти на всех представленных бенчмарках обогнал o1-mini.
arxiv.org/pdf/2503.04625
START – это Self-Taught Reasoner with Tools. То есть здесь из обычных цепочек рассуждений пытаются сделать такие, чтобы модель в какой-то момент сама понимала, что хорошо бы проверить что-то с помощью кода, шла и проверяла.
Для этого взяли QwQ-32B и зафайнтюнили его в два этапа:
1. Во время инференса прямо в CoT вставляли подсказки. Типа «Возможно, здесь хорошо бы использовать Python», как будто моделька сама до этого догадалась. Такие подсказки становились частью контекста и заставляли ризонер подумать подольше, сгенерировать код и запустить его.
2. После первого этапа у нас остается куча цепочек с использованием интерпретатора. Среди них есть ошибочные и хорошие. Фильтруем, обрабатываем, и еще разок дообучаем модель на чистых и правильных CoT с инструментами.
Надо сказать, очень прикольный способ генерации специфичной синтетики, который, к тому же, дал свои результаты: метрики относительно базового QwQ-32B подскочили на 5-15 процентных пунктов, и STAR почти на всех представленных бенчмарках обогнал o1-mini.
arxiv.org/pdf/2503.04625
🔥9
Пентагон внедряет ИИ в военное планирование через проект Thunderforge
Министерство обороны США заключило контракт с Scale AI для интеграции искусственного интеллекта в стратегические операции.
Партнерами проекта выступают Anduril со своей платформой Lattice и Microsoft, обеспечивающая работу языковых моделей.
Система будет помогать военному руководству в планировании миссий, распределении ресурсов и проведении симуляций.
Первоначальное развертывание запланировано в Индо-Тихоокеанском и Европейском командованиях с последующим расширением на все 11 боевых подразделений.
Разработчики подчеркивают, что ИИ будет функционировать под постоянным человеческим контролем, а конечные решения останутся за офицерами.
ИИ будет командовать войнами, а потом и государствами.
Вопрос ближайшего будущего уже.
#Pentagon #ScaleAI #Anduril
-------
@tsingular
Министерство обороны США заключило контракт с Scale AI для интеграции искусственного интеллекта в стратегические операции.
Партнерами проекта выступают Anduril со своей платформой Lattice и Microsoft, обеспечивающая работу языковых моделей.
Система будет помогать военному руководству в планировании миссий, распределении ресурсов и проведении симуляций.
Первоначальное развертывание запланировано в Индо-Тихоокеанском и Европейском командованиях с последующим расширением на все 11 боевых подразделений.
Разработчики подчеркивают, что ИИ будет функционировать под постоянным человеческим контролем, а конечные решения останутся за офицерами.
ИИ будет командовать войнами, а потом и государствами.
Вопрос ближайшего будущего уже.
#Pentagon #ScaleAI #Anduril
-------
@tsingular
🤯9👍4👾2🫡1
This media is not supported in your browser
VIEW IN TELEGRAM
Manus: китайский ИИ агент-оператор для десятков приложений
Китайские товарищи выпустили систему, способную управлять десятками ИИ приложений одновременно через ИИ агента под названием Manus. (https://manus.im/)
Разработка обгоняет Perplexity Deep Research,OpenAI Operator и Claude Computer, превосходя их всех в бенчмарках.
Согласно отзывам, Manus способен параллельно обрабатывать до 50 различных задач — от финансовых транзакций до исследований и покупок.
Система вызывает противоречивые чувства: восторг профессионалов сочетается с тревогой о будущем человеческого труда.
Пока все соревнуются в копировании ИИ исследователей, китайские разработчики просто делают инструменты для реальной работы. DeepSeek был только разминкой!
UPD: обещают скоро выпустить в Opensource
#Manus #агенты
———
@tsingular
Китайские товарищи выпустили систему, способную управлять десятками ИИ приложений одновременно через ИИ агента под названием Manus. (https://manus.im/)
Разработка обгоняет Perplexity Deep Research,OpenAI Operator и Claude Computer, превосходя их всех в бенчмарках.
Согласно отзывам, Manus способен параллельно обрабатывать до 50 различных задач — от финансовых транзакций до исследований и покупок.
Система вызывает противоречивые чувства: восторг профессионалов сочетается с тревогой о будущем человеческого труда.
Пока все соревнуются в копировании ИИ исследователей, китайские разработчики просто делают инструменты для реальной работы. DeepSeek был только разминкой!
UPD: обещают скоро выпустить в Opensource
#Manus #агенты
———
@tsingular
👍8🔥2🤔1
Microsoft дарит бесплатный доступ к o3-mini-high всем пользователям Copilot
Microsoft существенно расширяет возможности функции Think Deeper, интегрируя модель OpenAI o3-mini-high.
Теперь каждый пользователь Copilot получает неограниченный доступ к технологии, ранее доступной только подписчикам ChatGPT Pro.
Модель o3-mini характеризуется улучшенной эффективностью при сохранении интеллектуального потенциала флагманской o1.
Think Deeper обеспечивает пошаговое решение комплексных задач, требуя больше времени на обработку запросов.
Раньше функционал был эксклюзивом подписки Copilot Pro, затем появился в бесплатной версии с ограничениями, которые теперь полностью сняты.
Если вдруг снимут ограничения на доступ к Copilot из РФ - все эти чудеса заморских технологий составят серьёзную конкуренцию локальным разработкам.
#Microsoft #Copilot #OpenAI
-------
@tsingular
Microsoft существенно расширяет возможности функции Think Deeper, интегрируя модель OpenAI o3-mini-high.
Теперь каждый пользователь Copilot получает неограниченный доступ к технологии, ранее доступной только подписчикам ChatGPT Pro.
Модель o3-mini характеризуется улучшенной эффективностью при сохранении интеллектуального потенциала флагманской o1.
Think Deeper обеспечивает пошаговое решение комплексных задач, требуя больше времени на обработку запросов.
Раньше функционал был эксклюзивом подписки Copilot Pro, затем появился в бесплатной версии с ограничениями, которые теперь полностью сняты.
Если вдруг снимут ограничения на доступ к Copilot из РФ - все эти чудеса заморских технологий составят серьёзную конкуренцию локальным разработкам.
#Microsoft #Copilot #OpenAI
-------
@tsingular
👍9
🚀LADDER: LLM учится решать задачи как человек - от простого к сложному
Исследователи из Tufa Labs разработали подход LADDER (Learning through Autonomous Difficulty-Driven Example Recursion), позволяющий моделям учиться на декомпозиции сложных задач.
Суть в том, что модель сама генерирует более простые варианты сложной задачи, образуя естественный градиент сложности.
Она решает эти упрощенные варианты и постепенно учится решать всё более сложные задачи — без участия человека! 🤯
🧪 Технические детали, которые делают этот метод особенным:
1. Рекурсивное разложение проблемы: Модель генерирует дерево вариантов, где каждый новый уровень проще предыдущего. Важно, что сама модель определяет, как упростить задачу.
2. Верификация решений: на математической задаче из примера для проверки используется численное интегрирование, которое дает достоверную проверку.
3. Reinforcement Learning (GRPO): Применяется Group Relative Policy Optimization без отдельной критической модели, что экономит память и повышает эффективность.
4. TTRL (Test-Time Reinforcement Learning): Когда модель сталкивается с новой сложной задачей на этапе тестирования, она генерирует для неё варианты прямо во время вывода!
🔥 Результаты просто огонь:
- Модель Llama 3.2 3B улучшила точность с 1% до 82% на университетских интегралах
- 7B модель достигла 73% на экзамене MIT Integration Bee, превзойдя GPT-4o (42%)
- После TTRL та же 7B модель достигла 90% на MIT Integration Bee, перегнав даже OpenAI o1 (80%)
Да, вы правильно поняли — 7-миллиардная модель ОБОШЛА топовые модели с триллионами параметров! И это без дополнительной архитектурной оптимизации и человеческого фидбека.
💼 Бизнес-применение:
1. Экономия на вычислительных ресурсах: зачем платить за огромные модели, если можно научить маленькие?
2. Создание узкоспециализированных решений с меньшими бюджетами: можно взять маленькую модель и научить её конкретной задаче.
3. Edge-устройства: теперь реально делать локальные приложения с продвинутым мышлением на слабом железе.
Кажется, наконец-то появится альтернатива подходу "залить всё железом". LADDER открывает дверь к более эффективным моделям без безумного масштабирования.
Т.е. 5090 пока не покупаем :)
#LADDER #RL #mathematics
Исследователи из Tufa Labs разработали подход LADDER (Learning through Autonomous Difficulty-Driven Example Recursion), позволяющий моделям учиться на декомпозиции сложных задач.
Суть в том, что модель сама генерирует более простые варианты сложной задачи, образуя естественный градиент сложности.
Она решает эти упрощенные варианты и постепенно учится решать всё более сложные задачи — без участия человека! 🤯
🧪 Технические детали, которые делают этот метод особенным:
1. Рекурсивное разложение проблемы: Модель генерирует дерево вариантов, где каждый новый уровень проще предыдущего. Важно, что сама модель определяет, как упростить задачу.
2. Верификация решений: на математической задаче из примера для проверки используется численное интегрирование, которое дает достоверную проверку.
3. Reinforcement Learning (GRPO): Применяется Group Relative Policy Optimization без отдельной критической модели, что экономит память и повышает эффективность.
4. TTRL (Test-Time Reinforcement Learning): Когда модель сталкивается с новой сложной задачей на этапе тестирования, она генерирует для неё варианты прямо во время вывода!
🔥 Результаты просто огонь:
- Модель Llama 3.2 3B улучшила точность с 1% до 82% на университетских интегралах
- 7B модель достигла 73% на экзамене MIT Integration Bee, превзойдя GPT-4o (42%)
- После TTRL та же 7B модель достигла 90% на MIT Integration Bee, перегнав даже OpenAI o1 (80%)
Да, вы правильно поняли — 7-миллиардная модель ОБОШЛА топовые модели с триллионами параметров! И это без дополнительной архитектурной оптимизации и человеческого фидбека.
💼 Бизнес-применение:
1. Экономия на вычислительных ресурсах: зачем платить за огромные модели, если можно научить маленькие?
2. Создание узкоспециализированных решений с меньшими бюджетами: можно взять маленькую модель и научить её конкретной задаче.
3. Edge-устройства: теперь реально делать локальные приложения с продвинутым мышлением на слабом железе.
Кажется, наконец-то появится альтернатива подходу "залить всё железом". LADDER открывает дверь к более эффективным моделям без безумного масштабирования.
Т.е. 5090 пока не покупаем :)
#LADDER #RL #mathematics
👍13❤🔥1
🔥 AutoAgent: Создание ИИ-агентов без единой строчки кода
Исследователи из Гонконгского университета представили AutoAgent — систему, позволяющую создавать и запускать ИИ-агентов через обычный разговорный язык. Никакой разработки!
Что умеет:
- Полное самоуправление: система сама генерирует агентов и рабочие процессы на основе обычного текстового запроса
- Четыре ключевых компонента: Утилиты агентной системы + LLM-движок действий + Самоуправляемая файловая система + Модуль самонастройки через "самоигру"
- Впечатляющие показатели: 2-е место в бенчмарке GAIA с общей точностью 55.15% и 71.7% точности в задачах первого уровня
- Превосходит существующие фреймворки: превзошёл Langfun Agent (60.38%) и FRIDAY (45.28%)
- Работа с документами: в MultiHop-RAG достиг 73.51% точности против 62.83% у LangChain RAG при меньшей частоте ошибок (14.2%)
Теперь руководители, аналитики и менеджеры могут создавать собственных ИИ-помощников без привлечения дорогостоящих разработчиков.
Текущие решения вроде LangChain и AutoGen хороши, но требуют технических знаний для настройки API, инженерии промптов и отладки — AutoAgent убирает эти барьеры, делая технологию доступной практически для любого бизнеса.
Реальное применение:
- Автоматизация финансового анализа
- Управление документами
- Структурированное решение сложных задач
- Интеграция данных из разных источников
Интересно, сколько времени пройдет, прежде чем такие системы станут стандартом для бизнеса? И главное — не станет ли это последним гвоздем в крышку гроба айтишных зарплат? 😏
Paper
GitHub
#агенты #nocode #Китай #opensource
———
@tsingular
Исследователи из Гонконгского университета представили AutoAgent — систему, позволяющую создавать и запускать ИИ-агентов через обычный разговорный язык. Никакой разработки!
Что умеет:
- Полное самоуправление: система сама генерирует агентов и рабочие процессы на основе обычного текстового запроса
- Четыре ключевых компонента: Утилиты агентной системы + LLM-движок действий + Самоуправляемая файловая система + Модуль самонастройки через "самоигру"
- Впечатляющие показатели: 2-е место в бенчмарке GAIA с общей точностью 55.15% и 71.7% точности в задачах первого уровня
- Превосходит существующие фреймворки: превзошёл Langfun Agent (60.38%) и FRIDAY (45.28%)
- Работа с документами: в MultiHop-RAG достиг 73.51% точности против 62.83% у LangChain RAG при меньшей частоте ошибок (14.2%)
Теперь руководители, аналитики и менеджеры могут создавать собственных ИИ-помощников без привлечения дорогостоящих разработчиков.
Текущие решения вроде LangChain и AutoGen хороши, но требуют технических знаний для настройки API, инженерии промптов и отладки — AutoAgent убирает эти барьеры, делая технологию доступной практически для любого бизнеса.
Реальное применение:
- Автоматизация финансового анализа
- Управление документами
- Структурированное решение сложных задач
- Интеграция данных из разных источников
Интересно, сколько времени пройдет, прежде чем такие системы станут стандартом для бизнеса? И главное — не станет ли это последним гвоздем в крышку гроба айтишных зарплат? 😏
Paper
GitHub
#агенты #nocode #Китай #opensource
———
@tsingular
🔥10🤔4