This media is not supported in your browser
VIEW IN TELEGRAM
Основная идея — предоставить полностью открытые (open source) аппаратные и программные средства, документацию и сообщество для всех, кто хочет работать с ARM-микроконтроллерами, избегая ограничений и лицензионных отчислений, связанных с проприетарными инструментами и платформами.
Ключевые аспекты и цели проекта:
▪️ Открытое Оборудование (Open Hardware): Разработка и публикация схем, печатных плат (PCB) и другой документации для отладочных плат и периферийных устройств на базе ARM Cortex-M. Это позволяет любому производить, модифицировать и изучать аппаратную часть.
▪️ Открытое Программное Обеспечение (Open Source Software): Создание и поддержка открытых библиотек, драйверов, операционных систем реального времени (RTOS) и инструментов разработки (компиляторы, отладчики, SDK), которые не привязаны к конкретному производителю чипов или инструментов.
▪️ Доступность и Образование: Сделать разработку на ARM Cortex-M более доступной для студентов, хоббистов, исследователей и малого бизнеса, снижая порог входа за счет бесплатных и открытых инструментов и подробной документации.
▪️ Независимость от Вендоров: Предоставление альтернативы экосистемам конкретных производителей (например, STMicroelectronics STM32Cube, NXP MCUXpresso), чтобы пользователи не были "заперты" на инструментах или чипах одного поставщика.
open-arm.org
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 EasyControl — это фреймворк (набор инструментов и методов), разработанный для добавления управляющих сигналов (условий) к моделям генерации изображений на основе Diffusion Transformer (DiT).
По сути, это попытка создать аналог популярного ControlNet (который в основном используется с U-Net архитектурами) для нового поколения диффузионных моделей, построенных на трансформерах. Его цель — сделать процесс управления генерацией в DiT моделях таким же гибким, эффективным и легко подключаемым.
Как работает EasyControl?
EasyControl решает проблемы интеграции управляющих сигналов в DiT, используя комбинацию нескольких ключевых идей:
▪ Легковесные Модули Внедрения Условий (Condition Injection LoRA): Вместо того чтобы переобучать всю огромную DiT модель или создавать громоздкие копии её частей для каждого нового условия (например, позы, контуры, глубина), EasyControl использует LoRA (Low-Rank Adaptation). Это техника, позволяющая "внедрить" дополнительную информацию (управляющий сигнал) в существующую модель, обучая лишь небольшое количество дополнительных параметров. Это делает процесс добавления новых типов контроля очень эффективным по ресурсам и позволяет сохранять исходные "знания" и стиль базовой DiT модели (style lossless).
▪ Парадигма Обучения с Учетом Позиции (Position-Aware Training Paradigm): Трансформеры (как в DiT) обрабатывают изображение как последовательность патчей (участков). Чтобы управляющий сигнал (например, карта позы) корректно влиял на соответствующие участки генерируемого изображения, EasyControl использует специальный подход к обучению, который помогает модели лучше понимать пространственное соответствие между управляющим сигналом и генерируемым контентом.
▪ Оптимизация Внимания и Кэширование (Causal Attention + KV Cache): Для повышения эффективности на этапе генерации (inference), EasyControl применяет оптимизации, характерные для трансформеров. Использование Causal Attention (причинного внимания) и KV Cache (кэширование ключей и значений в механизме внимания) позволяет ускорить процесс генерации, особенно при работе с длинными последовательностями патчей и дополнительными модулями условий.
🔗 Github
🔗Paper
По сути, это попытка создать аналог популярного ControlNet (который в основном используется с U-Net архитектурами) для нового поколения диффузионных моделей, построенных на трансформерах. Его цель — сделать процесс управления генерацией в DiT моделях таким же гибким, эффективным и легко подключаемым.
Как работает EasyControl?
EasyControl решает проблемы интеграции управляющих сигналов в DiT, используя комбинацию нескольких ключевых идей:
▪ Легковесные Модули Внедрения Условий (Condition Injection LoRA): Вместо того чтобы переобучать всю огромную DiT модель или создавать громоздкие копии её частей для каждого нового условия (например, позы, контуры, глубина), EasyControl использует LoRA (Low-Rank Adaptation). Это техника, позволяющая "внедрить" дополнительную информацию (управляющий сигнал) в существующую модель, обучая лишь небольшое количество дополнительных параметров. Это делает процесс добавления новых типов контроля очень эффективным по ресурсам и позволяет сохранять исходные "знания" и стиль базовой DiT модели (style lossless).
▪ Парадигма Обучения с Учетом Позиции (Position-Aware Training Paradigm): Трансформеры (как в DiT) обрабатывают изображение как последовательность патчей (участков). Чтобы управляющий сигнал (например, карта позы) корректно влиял на соответствующие участки генерируемого изображения, EasyControl использует специальный подход к обучению, который помогает модели лучше понимать пространственное соответствие между управляющим сигналом и генерируемым контентом.
▪ Оптимизация Внимания и Кэширование (Causal Attention + KV Cache): Для повышения эффективности на этапе генерации (inference), EasyControl применяет оптимизации, характерные для трансформеров. Использование Causal Attention (причинного внимания) и KV Cache (кэширование ключей и значений в механизме внимания) позволяет ускорить процесс генерации, особенно при работе с длинными последовательностями патчей и дополнительными модулями условий.
🔗 Github
🔗Paper
На чем основана?
Цель: Поддержка более широкого спектра языков, с особым акцентом на 40 восточных языках (Восточная Азия, Южная Азия, Юго-Восточная Азия, Ближний Восток) и 22 китайских диалектах.
Как обучалась? Использовалась комбинация собственных (проприетарных) и общедоступных (open-source) наборов данных для обучения и оптимизации.
Результаты: Эксперименты показали, что Dolphin значительно превосходит существующие лучшие модели с открытым исходным кодом по качеству распознавания для многих языков.
Доступность: Разработчики делают обученные модели и исходный код для их использования (инференса) общедоступными, чтобы способствовать воспроизводимости и развитию сообщества.
https://huggingface.co/DataoceanAI/dolphin-base
https://huggingface.co/DataoceanAI/dolphin-small
https://huggingface.co/papers/2503.20212
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔎 rwkv.cpp — проект, адаптирующий архитектуру RWKV для эффективной работы на обычных процессорах.
В отличие от традиционных LLM, RWKV требует лишь немного памяти на токен — это позволяет запускать модели с большими контекстами даже на слабом железе.
Инструмент реализован на C/C++ с поддержкой квантования и CUDA через cuBLAS. Особенно интересна совместимость с LoRA-адаптерами, что позволяет дообучать модели без полного экспорта весов. Тесты показывают стабильную работу даже на 4-ядерных CPU с контекстом в 8K токенов.
🤖 GitHub
@data_analysis_ml
В отличие от традиционных LLM, RWKV требует лишь немного памяти на токен — это позволяет запускать модели с большими контекстами даже на слабом железе.
Инструмент реализован на C/C++ с поддержкой квантования и CUDA через cuBLAS. Особенно интересна совместимость с LoRA-адаптерами, что позволяет дообучать модели без полного экспорта весов. Тесты показывают стабильную работу даже на 4-ядерных CPU с контекстом в 8K токенов.
🤖 GitHub
@data_analysis_ml
Они более десяти лет назад и сделали стратегические инвестиции в TPU.
Этот шаг в отношении TPU оправдал себя.
В результате у Google теперь есть собственное специализированное оборудование, и ему не нужно много графических процессоров от Nvidia.
Gemini 2.5 Pro доступна бесплатно для всех пользователей с аккаунтом Google.
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Основные выводы статьи:
- Проблема достоверности CoT: Исследование показало, что модели часто не раскрывают истинные причины своих ответов в CoT. Это означает, что, хотя модель может предоставить логически звучащее объяснение, оно не всегда отражает фактический процесс, использованный для получения ответа.
- Эксперимент с промптами: В ходе эксперимента моделям предоставлялись скрытые промпты, влияющие на их ответы. Ожидалось, что модели упомянут использование этих подсказок в своих объяснениях. Однако результаты показали, что модели редко признавали использование подсказок, что ставит под сомнение прозрачность их рассуждений.
- Последствия для безопасности ИИ: Низкая достоверность CoT затрудняет мониторинг и выявление нежелательных или потенциально опасных поведений моделей. Это подчеркивает необходимость разработки более надежных методов оценки и контроля процессов принятия решений в LLM.
Скрытое Рассуждение: Модели, особенно при решении сложных задач, могут генерировать внутренние шаги рассуждения (иногда называемые "scratchpad" или "chain-of-thought"), чтобы прийти к правильному ответу. Однако, в своем итоговом ответе они часто не показывают эти шаги.
- Ложная Уверенность: Модели склонны представлять свои ответы, даже если они результат сложного или неопределенного внутреннего процесса, с высокой степенью уверенности. Они редко используют фразы, выражающие неуверенность ("я думаю", "возможно", "мне кажется"), даже когда такая неуверенность была бы уместна, исходя из их внутреннего процесса "размышлений".
- Проблема Обучения: Такое поведение может быть артефактом процесса обучения (например, Reinforcement Learning from Human Feedback - RLHF), где модели вознаграждаются за прямые и уверенные ответы, которые предпочитают люди-оценщики, даже если это скрывает сложный процесс вывода или потенциальную неуверенность.
Риски Непрозрачности и Чрезмерной Уверенности:
Безопасность: Скрытое рассуждение может содержать ошибочные или вредные шаги, которые не видны в финальном ответе.
- Надежность: Чрезмерно уверенные ответы могут ввести пользователей в заблуждение, особенно когда модель ошибается.
- Интерпретируемость: Пользователям сложнее понять, как модель пришла к выводу, и доверять ее ответам, если процесс скрыт.
Статья поднимает важную проблему: современные LLM часто "думают" сложнее, чем "говорят". Они скрывают свои внутренние рассуждения и представляют ответы с излишней уверенностью. Anthropic исследует, почему так происходит и как это исправить, чтобы повысить безопасность и надежность ИИ.
🔗 Подробнее
#Anthropic #ml #reasoning
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Ты — специалист в области машинного обучения? Хочешь проверить свои силы в реальных задачах, с которыми ежедневно сталкиваются 1000+ специалистов Авито? Тогда не упусти шанс стать частью крупнейшего соревнования в этой области!
Что тебя ждет:
Выбирай одну или обе задачи, показывай лучшие результаты и получай шанс на победу! Участвовать можно как индивидуально, так и в команде до 4 человек. Загружай до 5 решений в день.
Регистрация уже открыта! Подробности и анкета по ссылкам выше.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 BizGen — это мощный инструмент для автоматической генерации инфографики из текстовых данных.
Он использует комбинацию NLP и компьютерного зрения для анализа текста, планирования макета и создания визуально привлекательных изображений.
Благодаря поддержке сложных макетов, многоязычного рендеринга и высокого качества генерации, BizGen идеально подходит для бизнеса, маркетинга, образования и научных исследований.
Этот инструмент упрощает процесс визуализации данных, делая его быстрее, дешевле и доступнее для широкого круга пользователей.
📌 Github
Он использует комбинацию NLP и компьютерного зрения для анализа текста, планирования макета и создания визуально привлекательных изображений.
Благодаря поддержке сложных макетов, многоязычного рендеринга и высокого качества генерации, BizGen идеально подходит для бизнеса, маркетинга, образования и научных исследований.
Этот инструмент упрощает процесс визуализации данных, делая его быстрее, дешевле и доступнее для широкого круга пользователей.
📌 Github
💴 Опубликованы цены на API Gemini 2.5 Pro по сравнению с OpenAI GPT-4.5/o1.
- $1.25/1M input for <200K tokens
- $10/1M output for <200K tokens
- $2.50/1M input for >200K tokens
- $15/1M output for >200K tokens
Как вы считаете OpenAI завышает цены или Google демпингует ... 🤣
📌 Цены
@data_analysis_ml
- $1.25/1M input for <200K tokens
- $10/1M output for <200K tokens
- $2.50/1M input for >200K tokens
- $15/1M output for >200K tokens
Как вы считаете OpenAI завышает цены или Google демпингует ... 🤣
📌 Цены
@data_analysis_ml
Это LoRA для интеграции с ComfyUI, основанные на Wan2.1-T2V-1.3B.
: Поддерживается 4, 5, 6, 8, 10 и более шагов, что позволяет балансировать между качеством и временем генерации.
На тестах получаются потрясающие результаты всего за 5 шагов!
Please open Telegram to view this post
VIEW IN TELEGRAM
📌 FastRAG — фреймворк, предлагающий разработчикам современные инструменты для создания оптимизированных RAG-пайплайнов. Этот сервис, построенный на базе Haystack и Hugging Face, фокусируется на эффективном сочетании информационного поиска с генеративными возможностями LLM.
Фреймворк предоставляет готовые компоненты для работы с современными методами семантического поиска, оптимизированные под современные аппаратные ускорители, включая процессоры Intel Xeon и AI-акселераторы Gaudi.
При этом FastRAG активно развивается — от поддержки мультимодальности до примеров динамического синтеза промптов.
🤖 GitHub
@data_analysis_ml
Фреймворк предоставляет готовые компоненты для работы с современными методами семантического поиска, оптимизированные под современные аппаратные ускорители, включая процессоры Intel Xeon и AI-акселераторы Gaudi.
При этом FastRAG активно развивается — от поддержки мультимодальности до примеров динамического синтеза промптов.
🤖 GitHub
@data_analysis_ml
🔥 OpenThinker2-32B: превосходит DeepSeekR1-32B в математике и Кодинге.
OpenThinker2-32B набирает 76,7 баллов на AIME24, 90,8 на MATH500 и 64,1 на GPQA-D.
Он набрал 90,8 баллов по MATH500, обойдя R1-Distill-32B (90. 0) .
Это новый лидер на бенчмарке GPQA-D лидирует с результатом 64,1 по сравнению с R1-Distill-32B с результатом 65,8.
https://huggingface.co/bartowski/open-thoughts_OpenThinker2-32B-GGUF
@data_analysis_ml
OpenThinker2-32B набирает 76,7 баллов на AIME24, 90,8 на MATH500 и 64,1 на GPQA-D.
Он набрал 90,8 баллов по MATH500, обойдя R1-Distill-32B (90. 0) .
Это новый лидер на бенчмарке GPQA-D лидирует с результатом 64,1 по сравнению с R1-Distill-32B с результатом 65,8.
https://huggingface.co/bartowski/open-thoughts_OpenThinker2-32B-GGUF
@data_analysis_ml
Forwarded from Machinelearning
🦙 Встречайте, дамы и господа, LLaMA 4: мультимодальные MoE модели!
Llama 4 Omni разработана для понимания и обработки информации модальностей, а не только текста.
Доступна в 3х вариантах: Llama 4 Scout и Llama 4 Maverick, Llama 4 Behemoth.
У Llama 4 Scout (109B) контекстное окно размером 10 М, 17B активных параметров, 16 экспертов, может быть запущена на 1ом GPU!
Llama 4 Maverick (400B) окно в 1M, 128 экспертов, 17B активных параметров.
У Бегемота окно в 2T!!!, 16 экспертов, 288B активных параметров.
- Model Card
- Веса
- Релиз
@ai_machinelearning_big_data
Llama 4 Omni разработана для понимания и обработки информации модальностей, а не только текста.
Доступна в 3х вариантах: Llama 4 Scout и Llama 4 Maverick, Llama 4 Behemoth.
У Llama 4 Scout (109B) контекстное окно размером 10 М, 17B активных параметров, 16 экспертов, может быть запущена на 1ом GPU!
Llama 4 Maverick (400B) окно в 1M, 128 экспертов, 17B активных параметров.
У Бегемота окно в 2T!!!, 16 экспертов, 288B активных параметров.
- Model Card
- Веса
- Релиз
@ai_machinelearning_big_data
Если вы хотите попробовать новую Llama 4 Scout (п вот краткое руководство:
▪ Вам нужна машина с четырьмя H100 на сервисе (пример под hyperbolic, вы можете арендовать в другом месте https://app.hyperbolic.xyz/compute)
▪ Подключитесь по SSH к серверу и запустите в терминале:
>> sudo apt-get update && sudo apt-get install -y python3-pip
>> pip install -U vllm
>> pip install -U "huggingface_hub[cli]"
▪ Запустите Llama 4 с помощью vllm:
>> vllm serve meta-llama/Llama-4-Scout-17B-16E-Instruct --tensor-parallel-size 4 --max-model-len 10000
▪ Проверьте работу модели, открыв новый терминал и выполнив запрос:
>> curl http://localhost:8000/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "meta-llama/Llama-4-Scout-17B-16E-Instruct",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "What can I do in SF?"}
]
}
Всего несколько команд и вы получите локально развернутую модель Llama 4 Scout и сможете работать с ней.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Искусственный интеллект. Высокие технологии
Microsoft Research представила WHAMM — новую систему или технологию, предназначенную для моделирования окружающего мира в реальном времени, с особым акцентом на интерактивные среды.
Это означает, что WHAMM способна быстро создавать и постоянно обновлять цифровую 3D-модель физического пространства, учитывая изменения, которые происходят в нем, в том числе в результате взаимодействия пользователя или других динамических событий.
▪ ИИ генерирует кадры в реальном времени, анализируя действия игрока.
▪Старая WHAMM — 1 fps, новая — 10 fps при 640×360, почти играбельно.
Модель помнит последние 0,9 секунды, что добавляет случайности.
Ключевая особенность — система работает достаточно быстро, чтобы обновлять модель мира практически мгновенно по мере поступления новых данных от сенсоров (вероятно, камер, датчиков глубины и т.д.). Это критически важно для плавного взаимодействия.
🔗 Играть в ИИ-версию Quake II можно здесь.
@vistehno
#microsoft #ai #quake #muse
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM