В основе технологического стека - семейство моделей Codestral, с обновленной моделью Codestral 25.08.
Эта версия показала измеримые улучшения, подтвержденные на реальных кодовых базах: на 30% увеличилось количество принятых автодополнений, на 10% вырос объем сохраняемого после подсказки кода, а число генераций, когда модель производит слишком длинный и некорректный код, сократилось на 50%.
В режиме чата модель также стала лучше: ее способность следовать инструкциям выросла на 5% по метрике IF Eval v8, а общие возможности в программировании улучшились в среднем на 5% по тесту MultiplE.
За это отвечает Codestral Embed, модель для создания векторных представлений, специально спроектированная для кода, а не для обычного текста. По заявлениям Mistral, она превосходит эмбеддинг-решения от OpenAI и Cohere в реальных задачах по извлечению кода.
Ключевое преимущество - возможность настройки размерности эмбеддингов (до 256 измерений с квантованием до INT8), что позволяет балансировать между качеством поиска и хранением данных, сохраняя высокую производительность.
Они реализованные через Devstral - агентскую систему на базе фреймворка OpenHands. Система ориентирована на задачи рефакторинга, генерации тестов и создание pull-реквестов.
На бенче SWE-Bench Verified модель Devstral Small 1.1 выбивает 53.6%, а Devstral Medium - 61.6%, значительно опережая Claude 3.5 и GPT-4.1-mini.
Devstral Small (24 млрд параметров) может работать на одной Nvidia RTX 4090 или Mac с 32 ГБ ОЗУ, что идеально для локальных или изолированных сред.
Все эти возможности объединяются в плагине Mistral Code для IDE от JetBrains и VS Code. Он автодополняет код с помощью Codestral 25.08 и автоматизирует рутину: написание коммитов или docstring’ов через Devstral, и семантический поиск на базе Codestral Embed.
Плагин учитывает контекст из
Git diffs
, истории терминала и инструментов статического анализа.Для корпоративных клиентов предусмотрено развертывание в облаке, VPC или полностью on-prem, а также интеграция с SSO, ведение логов аудита и отсутствие обязательной телеметрии.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍65❤35🔥9🤣2😁1😢1👨💻1
Тенденция в IT-образовании: университеты и бизнес создают совместные программы
Современное технологическое образование все чаще выходит за рамки академических аудиторий. Яркий пример — новая магистерская программа «Машинное обучение в цифровом продукте», разработанная ФКН ВШЭ совместно с Авито.
Ключевые особенности программы:
— акцент на практическом применении ML в разработке цифровых продуктов
— работа с реальными кейсами Авито
— сбалансированный учебный план: от фундаментальных дисциплин до узкоспециализированных курсов
— совместное преподавание университетских экспертов и инженеров компании
Условия поступления:
— Требуемые навыки: Python, SQL, алгоритмы, высшая математика
— Обязательное присутствие на очных занятиях в Москве
— Многоэтапный отбор: тестирование и собеседование
— 35 мест, 30 из которых оплачивает Авито
Студенты программы получат возможность попасть на стажировку в Авито с перспективой дальнейшего трудоустройства. Заявки принимают до 8 августа в личном кабинете абитуриента в ВШЭ, дальше — несколько этапов отбора.
Современное технологическое образование все чаще выходит за рамки академических аудиторий. Яркий пример — новая магистерская программа «Машинное обучение в цифровом продукте», разработанная ФКН ВШЭ совместно с Авито.
Ключевые особенности программы:
— акцент на практическом применении ML в разработке цифровых продуктов
— работа с реальными кейсами Авито
— сбалансированный учебный план: от фундаментальных дисциплин до узкоспециализированных курсов
— совместное преподавание университетских экспертов и инженеров компании
Условия поступления:
— Требуемые навыки: Python, SQL, алгоритмы, высшая математика
— Обязательное присутствие на очных занятиях в Москве
— Многоэтапный отбор: тестирование и собеседование
— 35 мест, 30 из которых оплачивает Авито
Студенты программы получат возможность попасть на стажировку в Авито с перспективой дальнейшего трудоустройства. Заявки принимают до 8 августа в личном кабинете абитуриента в ВШЭ, дальше — несколько этапов отбора.
👍35❤12😁9🔥5🤬4👨💻1
LangExtract - опенсорсная python-библиотека с функцией легковесного интерфейса к LLM, которая превращает большие объемы текста в структурированные данные.
Каждая извлеченная сущность, будь то имя, дата или дозировка лекарства, привязывается к точным символьным смещениям в исходном тексте. Это дает полную прослеживаемость и верифицируемость результата, просто подсветив найденные данные в оригинальном документе. Больше никаких «откуда модель это взяла?».
Вы определяете желаемый формат вывода с помощью специального представления данных и даете модели несколько примеров . Используя эти примеры, LangExtract следует заданной схеме, задействуя механизм контролируемой генерации, который поддерживается в моделях Gemini. Это гарантирует, что на выходе вы всегда будете получать данные в консистентном, предсказуемом формате.
Библиотека умеет бить текст на чанки, которые обрабатываются параллельно в несколько проходов, каждый из которых фокусируется на более узком контексте.
Для наглядности библиотека умеет генерировать интерактивную и полностью автономную HTML-визуализацию. Это позволяет за считаные минуты перейти от сырого текста к визуальному представлению, где можно исследовать тысячи извлеченных аннотаций.
При этом LangExtract не замыкается на экосистеме Google: он поддерживает гибкую смену LLM-бэкендов, позволяя работать как с облачными моделями, так и с опенсорсными решениями, развернутыми локально.
Информация может быть как явной (извлеченной из текста), так и основанной на внутренних знаниях модели. Разумеется, точность таких выведенных данных сильно зависит от возможностей конкретной LLM и качества предоставленных примеров в промпте.
Изначально идеи, заложенные в LangExtract, были применены для извлечения информации из медицинских текстов. Библиотека отлично справляется с идентификацией лекарств, их дозировок и других атрибутов в клинических записях.
Чтобы продемонстрировать возможности инструмента в узкоспециализированной области, Google создал на Hugging Face интерактивное демо RadExtract. В нем показано, как LangExtract может обработать радиологический отчет, написанный свободным текстом, и автоматически преобразовать его ключевые выводы в структурированный формат, подсвечивая важные находки.
@ai_machinelearning_big_data
#AI #ML #LangExtract #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍68🔥25❤12👨💻1
Новая компактная модель из семейства Qwen3-Coder — сочетание высокой производительности и эффективности:
✨ Apache 2.0
💬 Chat: https://chat.qwen.ai
🤗 Hugging Face: https://hf.co/Qwen/Qwen3-Coder-30B-A3B-Instruct
🤖 ModelScope: https://modelscope.cn/models/Qwen/Qwen3-Coder-30B-A3B-Instruct
🔧 Код: https://github.com/QwenLM/qwen-code
@ai_machinelearning_big_data
#AI #ML #qwen #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
❤71🔥29👍18❤🔥3👨💻1
Media is too big
VIEW IN TELEGRAM
Perplexity начал развертывание функции Comet Shortcuts. Она превращет текстовые промпты в многоразовые команды для автоматизации сложных веб-запросов и других рутинных задач. Инструмент вызывается нажатием клавиши «/». В будущем компания планирует добавить возможность делиться созданными шорткатами и монетизировать их.
Новая возможность является частью закрытого бета-тестирования Comet, который позиционируется как следующее поколение ИИ-поиска. Perplexity уже разослала новую волну приглашений и обещает расширять доступ, предлагая подписчикам тарифов Max и Pro более быстрое включение в программу. Также в разработке находятся магазин агентов, менеджер задач и корпоративные функции.
Aravind Srinivas (CEO Perplexity) в сети X
OpenAI в партнерстве с норвежской компанией Nscale (подразделение Aker ASA) анонсировала строительство ИИ-ЦОД «Stargate Norway» в городе Нарвик. Это будет первый европейский объект в рамках глобальной программы Stargate, запущенной OpenAI.
Планируется, что к концу 2026 года ЦОД сможет вместить около 100 000 графических ускорителей NVIDIA, с последующим наращиванием мощностей. Комплекс будет полностью работать на возобновляемой гидроэнергии и использовать холодный климат региона для повышения энергоэффективности. Размещение мощной вычислительной инфраструктуры в Европе позволит OpenAI снизить задержки для региональных клиентов и удовлетворить растущий спрос на свои сервисы.
bloomberg.com
Официальное десктопное GUI-приложение упрощает взаимодействие с моделями, позволяя скачивать и запускать их без сложной настройки через командную строку.
Приложение получило drag-and-drop для текстовых и PDF-файлов и поддержку мультимодальности (например, с моделью Gemma 3). Для обработки больших документов предусмотрена возможность увеличения длины контекста. Также реализованы функции для работы с кодом, помогающие в его анализе и генерации. Приложение для Windows или MacOS можно скачать на сайте Ollama.
ollama.com
Лаборатория Black Forest Labs в сотрудничестве с Krea AI выпустила FLUX1.1 Krea Dev - новую text-to-image модель с открытыми весами. Модель, как заверяют разработчики, обладает "самобытной эстетикой", которая решает проблему перенасыщенных текстур и узнаваемого пластикового вида, характерного для многих генеративных систем.
По результатам тестов, в оценках по пользовательским предпочтениям модель не уступает закрытым аналогам. Она совместима с экосистемой FLUX и позиционируется как гибкая основа для дальнейшей кастомизации. Веса модели уже доступны в репозитории на HuggingFace. Для коммерческого использования предусмотрены лицензии, а партнеры предоставляют доступ через API.
bfl.ai
OpenRouter незаметно выпустил LLM Horizon Alpha, описав ее как "стелс-модель" и предложил пользователям бесплатное тестирование. Система сразу привлекла внимание своими характеристиками: контекстное окно в 256 тыс. токенов, это в 4 раза больше, чем у GPT-4o, и лидерство в бенчмарке EQ-Bench, оценивающем логику и качество текста.
Релиз немедленно породил слухи, что под названием Horizon Alpha скрывается GPT-5. Многие независимые разработчики указывают на ее исключительную производительность и творческие способности как на косвенные доказательства. Сама OpenAI пока не давала комментариев, а в документации OpenRouter нет официальной атрибуции.
OpenRouter в сети X
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤64👍47🔥14👏2👨💻1
Microsoft выросла до $4 трлн не за счёт Windows, а благодаря облакам и ИИ.
☁️ Azure строили 10 лет. Сегодня она:
— на втором месте после AWS
— обгоняет Google Cloud по выручке
— питает всё: от Office и Xbox до Copilot и генеративных моделей
Каждый продукт — это ещё один повод платить за облако. Всё работает на одной инфраструктуре.
🚀 Satya Nadella (генеральный директор (CEO) компании Microsoft уже выделил $80 млрд на новые дата-центры.
Ставка очевидна: весь Microsoft переезжает в облако.
@ai_machinelearning_big_data
#ai #ml #news #microsoft
Please open Telegram to view this post
VIEW IN TELEGRAM
❤72👍29🔥20🤔3👨💻1
🔥 Google DeepMind выпустили Gemini 2.5 Deep Think — для Ultra‑пользователей
🚀 Характеристики:
> 📏 Контекст — 1 миллион токенов
> 🧾 На выходе — до 192k токенов
📊 И результаты на бенчмарках сумасшедшие:
— HLE : 34.8%
— Live Code Bench: 86.6%
— AIME 2025: 99.2%
🤯 Пока все обсуждают выход GPT‑5, Google тихонько выкатили топ модель.
Бенчмарки — огонь. Я уже подумываю оформить подписку на Ultra.
🟠 Анонс
@ai_machinelearning_big_data
#ai #ml #Gemini #google
🚀 Характеристики:
> 📏 Контекст — 1 миллион токенов
> 🧾 На выходе — до 192k токенов
📊 И результаты на бенчмарках сумасшедшие:
— HLE : 34.8%
— Live Code Bench: 86.6%
— AIME 2025: 99.2%
Бенчмарки — огонь. Я уже подумываю оформить подписку на Ultra.
@ai_machinelearning_big_data
#ai #ml #Gemini #google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍87❤29🔥26😁3🥰1👨💻1
Media is too big
VIEW IN TELEGRAM
ByteDance показала экспериментальную языковую модель Seed Diffusion Preview, основанную на дискретной диффузии, которая работает в 5.4 раза быстрее аналогов того же размера, достигая скорости 2146 токенов в секунду. При этом качество генерации кода на ключевых бенчмарках остается сопоставимым.
Для достижения такого результата команда применила двухэтапное обучение и оптимизированный параллельный декодинг. В задачах редактирования кода, диффузионный подход показал явное преимущество над авторегрессионными моделями. ByteDance рассматривает эту технологию как возможную основу для языковых моделей нового поколения. Модель уже доступна для тестирования.
seed.bytedance.com
Manus добавил новую функцию Wide Research, которая позволяет одним кликом задействовать до сотни ИИ-агентов для параллельного выполнения сложных исследовательских задач. Система автоматически определяет, когда требуется расширенный поиск, и запускает множество копий Manus, каждая из которых работает над своей частью задачи в отдельной виртуальной машине.
Архитектура Wide Research вдохновлена парадигмой MapReduce от Google. В отличие от традиционных мультиагентных систем с ролевым разделением, здесь каждый суб-агент является полной копией Manus.
Функция уже доступна для Pro-пользователей, Plus и Basic подписчики получат доступ позже .
Ji Yichao (Co-founder of Manus) в сети Х.
Nvidia анонсировала дебют своей новой модели Queen для создания и стриминга объемного видео. Презентация состоится на конференции по компьютерной графике SIGGRAPH 2025 в Лос-Анджелесе. Демонстрации будут проходить на стенде Dell, где покажут, как Queen в связке с профессиональными видеокартами Nvidia RTX обеспечивает работу телеприсутствия в расширенной реальности и решает другие задачи по созданию контента.
Кроме того, 12 августа Nvidia проведет мероприятие «RTX Rendering Day». На нем исследователи компании расскажут о последних достижениях в области нейронного рендеринга, генерации синтетических данных и интеллектуального создания контента. Посетить сессии смогут все участники конференции.
research.nvidia.com
Command A Vision предназначена для анализа изображений, диаграмм, PDF-файлов и других визуальных данных. По заявлению разработчиков, на стандартных бенчмарках для компьютерного зрения она превосходит GPT-4.1, Llama 4 и Mistral Medium 3.
Модель способна не только считывать текст с документов, но и понимать их структуру, выдавая результат в формате JSON. Кроме того, Command A Vision может анализировать и реальные изображения, например, для выявления потенциальных рисков на промышленных объектах.
Модель уже доступна на платформе Cohere и в репозитории Hugging Face для исследовательских целей. Для запуска понадобятся 2 GPU A100 или один H100 под квантованную 4-битную версию.
cohere.com
В Anthropic обнаружили специфические паттерны нейронной активности - "векторы персоны", которые отвечают за устойчивые черты поведения LLM: склонность к лести, галлюцинациям или откровенно злому поведению.
Выделив эти нейронные сигнатуры, ученые научились предсказывать появление проблемных личностей и, что более важно, "вакцинировать" модели от них. В ходе обучения они намеренно активируют нежелательный вектор, а затем удаляют его перед развертыванием. Это позволяет сохранить общую производительность модели, но при этом значительно снизить риск токсичных или ложных ответов.
Исследование легло в основу новой инициативы Anthropic по так называемой "ИИ-психиатрии", цель которой - мониторинг и управление поведением моделей в больших масштабах. Хотя эксперименты проводились на небольших системах, в Anthropic считают, что эта техника поможет коммерческим чат-ботам избегать непредсказуемых изменений личности.
anthropic.com
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍63❤30🔥12😁3🤔3🥰1👨💻1
X-Omni - методика обучения T2I моделей, которая наглядно доказывает, что RL может вдохнуть новую жизнь в авторегрессионный подход и вывести такие модели на SOTA-уровень.
X-Omni построена на гибридной, но при этом унифицированной архитектуре. Схематично она выглядит так:
Семантический токенизатор изображений SigLIP-VQ с фиксированным словарем на 16 384 токена кодирует картинку в дискретные токены. Эти визуальные токены вместе с текстовыми подаются в единую авторегрессионную модель на базе Qwen2.5-7B. Наконец, в финальном рендеринге используется диффузионный декодер на основе FLUX.1-dev.
Вместо одного критерия, модель оценивается сразу по нескольким направлениям. За эстетику и соответствие предпочтениям человека отвечает HPSv2 и модель Unified Reward. За семантическую связь между промптом и изображением — VLM-модель Qwen2.5-VL-32B. А за самое сложное, отрисовку текста внутри картинки, отвечает отдельная награда на основе OCR-систем GOT-OCR2.0 и PaddleOCR.
Тестовую модель X-Omni обучали на смеси из 200 млн. изображений, которые после токенизации превратились в 600 млрд мультимодальных токенов, а на этапе SFT использовал ещё 1.5 млрд. токенов.
Для RL-фазы был отобран микс из 180 тыс. промптов, состоящий как из творческие запросы, так и задач на рендеринг текста.
На бенче OneIG-Bench X-Omni показала результат 0.901 для английского языка, обойдя GPT-4o (0.857). А на собственном LongText-Bench, специально созданном для оценки рендеринга длинных надписей, модель буквально разгромила всех в китайском языке, набрав 0.814 балла против 0.619 у GPT-4o.
В задачах общей генерации по тексту X-Omni также на высоте. На DPG-Bench модель достигла SOTA-результата 87.65, опередив GPT-4o (86.23) и Show-o2 (86.14). На GenEval результат составил 0.83, чуть-чуть не дотянув до модели Mogao (0.89).
Даже в задачах на понимание изображений X-Omni показывает себя достойно: на OCRBench ее результат (704) превосходит другие унифицированные модели, например Emu3 (687).
Во-первых, X-Omni не нуждается в CFG. В отличие от Emu3 или Janus-Pro, качество которых резко падает при отключении CFG, X-Omni работает стабильно.
Во-вторых, что, пожалуй, самое важное, RL превосходит даже SFT с последующим сэмплингом best-of-N.
Этот вывод идет вразрез с устоявшимся мнением в области языкового моделирования и доказывает, что для изображений холистическая оптимизация через RL дает существенный прирост качества.
@ai_machinelearning_big_data
#AI #ML #T2I #RL #XOmni #Tencent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤44👍24🥰5🔥3❤🔥1😁1🤔1👨💻1