325K subscribers
4.68K photos
993 videos
17 files
5.12K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🌟 OpenJarvis: фреймворк все-в-одном для ИИ-агентов

Stanford SAIL замерили, насколько эффективно локальные языковые модели конвертируют электроэнергию в полезные вычисления и назвали этот показатель "intelligence per watt".

Они прогнали больше миллиона реальных запросов через 20+ моделей на 8 разных ускорителях и выяснили: с 2023 по 2025 год эффективность локального инференса выросла в 5,3 раза, а современные небольшие модели уже справляются с 88,7% обычных чат- и ризонинг-запросов. Железо и алгоритмы готовы, но не хватало софта.

Так появился OpenJarvis: открытый фреймворк, который превращает эти выводы в инфраструктуру для персональных ИИ-агентов, работающих на устройстве пользователя.

Авторы проводят параллель с PyTorch: OpenJarvis должен стать для локального ИИ тем, чем PyTorch стал для глубокого обучения - стандартной инфраструктурой, на которой строится все остальное.


Фреймворк структурирован вокруг 5 примитивов:

🟢Intelligence - слой языковых моделей с единым каталогом, где не нужно самому отслеживать релизы и считать память.

🟢Engine - бэкенд инференса: Ollama, vLLM, SGLang, llama.cpp, Apple Foundation Models и другие. Openjarvis сам определяет железо и рекомендует конфигурацию.

🟢Agents - слой поведения: роли оркестратора и исполнителя рутинных сценариев, адаптированные под ограниченный контекст и память на устройстве.

🟢Tools & Memory - интеграции через MCP и Google A2A, семантическая индексация локальных документов, подключение к iMessage, Telegram и т.д.

🟢Learning - механизм адаптации: локальные трейсы превращаются в обучающие данные через SFT, LoRA и GRPO. Система сама упаковывает этот процесс в рабочий флоу.

Отдельная фишка - подход к эффективности. OpenJarvis профилирует энергопотребление на NVIDIA, AMD и Apple Silicon с интервалом 50 мс.

Использовать можно через CLI, браузерный дашборд или десктопное приложение для macOS, Linux и Windows.

⚠️ Для полного функционала (безопасность, инструменты, агенты) потребуется Rust.

Помимо самого проекта, команда запустила конкурс-лидерборд экономии денег, энегрии и компьюта, в котором принять участие может любой желающий. В качестве приза самому экономному обещают Mac Mini.


📌Лицензирование: Apache 2.0 License.


🟡Статья
🟡Документация
🟡Сообщество в Discord
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #Framework #OpenJarvis #Stanford
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
157🤓41👍18🎉12👏6🔥5🤣4😍2🤨2🤷‍♂1💘1
Media is too big
VIEW IN TELEGRAM
✔️ Anthropic расширила контекстное окно до миллион токенов.

Claude Opus 4.6 и Sonnet 4.6 получили поддержку контекстного окна объемом в 1 миллион без наценок за объем. Обработка длинных запросов тарифицируется по стандартной ставке, а лимиты пропускной способности API остаются прежними на всей длине контекста.

Дополнительно лимит файлов в одном запросе увеличен в 6 раз: теперь Claude может за раз проанализировать до 600 изображений или страниц PDF. Обновление доступно в API Claude, а пользователи Claude Code на тарифах Max, Team и Enterprise при вызове Opus 4.6 по умолчанию будут автоматически использовать контекст 1M.
claude.com

✔️ Microsoft начинает масштабную ИИ-экспансию в Африке.

Корпорация запускает инициативу Microsoft Elevate, в рамках которой планирует до конца года бесплатно обучить ИИ-технологиям 3 млн. человек.

Цель программы - сдержать экспансию китайских ИИ-продуктов на самом молодом и быстрорастущем рынке мира. По внутренним оценкам Microsoft, DeepSeek уже занимает от 11% до 14% локального рынка чат-ботов, а в Эфиопии и Зимбабве его доля достигает 20% из-за активных вложений Пекина в цифровую инфраструктуру.

Чтобы вернуть инициативу, Microsoft делает ставку на развитие собственных вычислительных мощностей. До конца 2027 года компания инвестирует $330 млн. в расширение облачной и ИИ-инфраструктуры в ЮАР, а в Кении готовится строительство дата-центра, который будет полностью работать на геотермальной энергии. Ключевыми регионами для технологий и подготовки разработчиков также станут Нигерия и Марокко.
bloomberg.com

✔️ Илон Маск уволил еще 2-х сооснователей xAI.

В xAI прошла новая волна увольнений, вызванная недовольством CEO слабыми результатами. Компанию покинули еще 2 сооснователя: Цзыхан Дай и глава команды Imagine Годун Чжан, которого Маск обвинил в технических недоработках продукта. Таким образом, из 12 учредителей, запускавших xAI, в штате осталось всего 2 человека.

Кадровые чистки серьезно бьют по моральному духу команды. Источники сообщают, что инженеры массово уходят из-за выгорания, спровоцированного экстремально жесткими требованиями Маска к рабочему графику.

Пытаясь спасти проблемное направление и усилить экспертизу в разработке, xAI в конце недели переманила в свой штат Эндрю Милича и Джейсона Гинзберга из Cursor.
ft.com

✔️ Google представила крупнейшее обновление Maps.

Главным визуальным нововведением стал режим «Иммерсивной навигации». ИИ анализирует панорамы Street View и генерирует реалистичный маршрут с детализированными 3D-моделями зданий, точной разметкой полос и отображением светофоров.

Также сервис получил функцию Ask Maps на базе Gemini. Вместо поиска по ключевым словам теперь запросы на естественном языке - ИИ сопоставляет геоданные с личными предпочтениями, формирует персонализированные рекомендации и позволяет бронировать места в один клик.

Апдейт поэтапно развертывается в США. Вскоре новые инструменты появятся на платформах iOS и Android, а также в интерфейсах CarPlay и Android Auto.
blog.google

✔️ Amazon добавила в Alexa+ взрослый режим общения.

Голосовой ассистент получил новую опцию кастомизации - профиль Sassy для взрослой аудитории. Для его активации необходимо пройти дополнительную биометрическую аутентификацию. При работе профиля функция Amazon Kids автоматически блокируется.

В режиме Sassy ассистент выдает саркастичные ответы, жесткие шутки и использует мат, но на этом "взрослость" заканчивается: ИИ по-прежнему отказывается генерировать NSFW-контент, разжигать ненависть, переходить на личности или консультировать по незаконным действиям.

Взрослый режим стал частью крупной переработки Alexa+ (в прошлом месяце вышли стили Brief, Chill и Sweet).
techcrunch.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
103👀45🔥15🤔10🎉10👍8🥰4😁3🗿2
🌟 OLMo Hybrid: RNN плюс трансформер в одной модели.

Институт Аллена опубликовал OLMo Hybrid 7B - модель, которая построена на чередовании слоев Gated DeltaNet и стандартного внимания в соотношении 3:1. Такая архитектура решает больше подзадач из обучающих данных за меньшее число токенов, что напрямую снижает потребность в данных при обучении.

Gated DeltaNet - это RNN с расширением в виде отрицательных значений матрицы переходов. Это небольшое изменение в правиле обновления внутреннего состояния позволяет слоям Gated DeltaNet реализовывать динамику попарной перестановки элементов и за счет этого решать задачи отслеживания состояния, недоступные чистым трансформерам.


В OLMo Hybrid Ai2 показали, что гибридные модели выразительнее суммы своих частей. Существует класс задач (назовем их отслеживание состояния с обращением к памяти), которые не решают ни чистые трансформеры, ни чистые RNN, но гибрид справляется с ними уже при одинарном чередовании типов слоев.

Абляционные эксперименты от 60M до 1B параметров показали, что GDN стабильно лучше Mamba2 как в чистом, так и в гибридном варианте, равномерное чередование слоев лучше концентрации внимания в середине сети, а соотношение 3:1 - оптимальный баланс между качеством и вычислительной стоимостью на средних и крупных масштабах.

🟡Тесты

🟢На MMLU OLMo Hybrid достигает той же точности, что OLMo 3 7B, используя на 49% меньше токенов; на срезе Common Crawl - на 35% меньше.

🟢Коэффициент эффективности использования данных у гибрида равен 83,7 против 94,9 у трансформера.

🟢Экономия данных растет с размером модели: примерно в 1,3 раза на 1B параметров и в 1,9 раза на 70B.

После дообучения и адаптации к длинному контексту OLMo Hybrid обходит OLMo 3 во всех категориях оценки. На RULER при 64k токенах - 85,0 против 70,9 у базовой модели.


📌Лицензирование: Apache 2.0 License.


🟡Статья
🟡Набор моделей
🟡Техотчет


@ai_machinelearning_big_data

#AI #ML #LLM #OLMoHybrid #Ai2
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
184🤩37👍34🔥11💯6👏5🎉2
📌 Андрей Карпаты выложил новый проект - karpathy/jobs.

Он взял данные по 342 профессиям из статистики BLS (≈143 млн работников в США) и с помощью LLM оценил, насколько каждая из них подвержена влиянию AI по шкале 0–10.

Результат он визуализировал в виде treemap.

Средний показатель по всем профессиям: 5.3 / 10.

Примеры:

разработчики ПО: 8–9
кровельщики: 0–1
специалисты по расшифровке медицинских записей: 10 / 10 💀💀

Паттерн довольно простой.

Если вся работа происходит за экраном, риск автоматизации высокий.

Если она требует физического труда и непредсказуемой среды, вы гораздо безопаснее.

По оценке Карпати, около 57 млн работников в США - почти 40% всей рабочей силы - находятся в зоне высокого риска изменений из-за AI.

https://karpathy.ai/jobs/

@ai_machinelearning_big_data

#ai #ml #future #jobs #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍89🤔6732🙈25😭7🤓7🔥4🤬1👻1🗿1
Media is too big
VIEW IN TELEGRAM
✔️ NVIDIA GTC 2026: Ключевые анонсы.

В понедельник в Сан-Хосе открылась NVIDIA GTC 2026 - ежегодная конференция компании по GPU-технологиям и искусственному интеллекту.

Дженсен Хуанг открыл конференцию с тезиса, что компания видит заказы на оборудование на сумму не менее $1 трлн. до конца 2027 года - вдвое больше, чем год назад.

По его словам, индустрия достигла переломного момента: обучать модели уже умеют, теперь нужно дешево и быстро их запускать.

🟡Vera Rubin

Главный анонс конференции - полноценный запуск платформы Vera Rubin. GPU построен на 3-нм процессе TSMC, содержит 336 млрд. транзисторов и 288 ГБ памяти HBM4.

Стойка NVL72 дает 260 ТБ/с совокупной пропускной способности по NVLink 6. Глава NVIDIA посчитал, что это превышает суммарную пропускную способность всего интернета. Производительность инференса выросла в 5 раз по сравнению с Blackwell за счет формата NVFP4.

Vera Rubin не просто GPU. Вместе с ним NVIDIA анонсировала собственный CPU Vera, разработанный для оркестрации и управления памятью в крупных агентных системах.

Эволюция CPU Vera уже расписана на 3 поколения вперед: Vera Ultra появится во второй половине 2027 года, следующая архитектура Feynman - в 2028-м.

🟡NemoClaw

NemoClaw - собственная open-source платформа NVIDIA для создания и деплоя корпоративных ИИ-агентов. Она разворачивается локально на оборудовании NVIDIA, без зависимости от облака, и позволяет задавать агентам имя, личность и набор инструментов. Это прямой ответ на OpenClaw и попытка NVIDIA закрепиться не только в железе, но и в программном слое ИИ-стека.

🟡N1X

N1X - ARM-процессор для ПК, разработанный совместно с MediaTek. Чип содержит 20 кастомных ARM-ядер и встроенный GPU с производительностью уровня RTX 5070. Целевой рынок - Windows-ноутбуки и рабочие станции с локальным инференсом.

🟡DLSS 5

DLSS 5, которую NVIDIA называет главным прорывом в компьютерной графике со времен дебюта ray tracing в 2018 году - это технология, основанная на новой модели нейронного рендеринга в реальном времени, которая насыщает пиксели фотореалистичным освещением и материалами.

Выход технологии запланирован на осень 2026 года. В числе партнеров уже Ubisoft, Bethesda, Capcom, Tencent и Warner Bros. Games.

🟡Крупнейшая партнерская сделка

Как мы писали ранее, NVIDIA заключила многолетнее стратегическое партнерство с Thinking Machines Lab: компания развернет не менее 1 гВт систем Vera Rubin для обучения ИИ-моделей. Это первое развертывание новой платформы в таком масштабе.

GTC продолжится до 19 марта. Впереди порядка 1000+ сессий по Robotics, Physical AI и открытым моделям.


🔜 Посмотреть запись трансляции на Youtube

@ai_machinelearning_big_data

🎯Полезные Мл-ресурсы 🚀 Max

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍157🔥2826🎉7👏3😁2😍2💯1
Media is too big
VIEW IN TELEGRAM
✔️ Anthropic запустила сертификацию для инженеров.

Anthropic открыла программу Claude Certified Architect, технический экзамен для разработчиков и архитекторов решений, работающих с Claude API, Claude Code, Agent SDK и MCP.

Экзамен состоит из 60 вопросов с выбором ответа, на которые отводится 2 часа. Пересдача и внешние материалы не допускаются. Результаты приходят в течение двух рабочих дней с разбивкой по 5 направлениям: агентная архитектура, настройка Claude Code, промпт-инжиниринг, интеграция с MCP и управление контекстом.

Пока сертификация доступна только сотрудникам компаний из партнерской сети Anthropic. Первые 5 тыс. участников сдадут экзамен бесплатно, затем стоимость составит $99 за попытку. Прошедшие получают цифровой бейдж для профессиональных платформ.
anthropic.skilljar.com

✔️ NVIDIA собрала коалицию для разработки открытых моделей.

NVIDIA объявила о создании Nemotron Coalition, альянса компаний, которые будут совместно разрабатывать открытые модели. В коалицию вошли Mistral AI, Black Forest Labs, Cursor, LangChain, Perplexity, Reflection AI, Sarvam и Thinking Machines Lab.

Идея альянса в том, чтобы компании вложились в общий фундамент, а затем дообучали модель под свои задачи: отраслевую специфику, язык, регион. Участники сохранят независимость и продолжают развивать собственные продукты.

Первым проектом запланирована базовая модель, которую разработают NVIDIA и Mistral AI. Остальные участники предоставят данные, экспертизу и системы оценки. Модель обучат на NVIDIA DGX Cloud, после чего передадут в открытый доступ, она ляжет в основу семейства NVIDIA Nemotron 4.
nvidianews.nvidia.com

✔️ Mistral выпустила открытый агент для доказательств на Lean 4.

Leanstral - первый open-source агент для работы с системой формальных доказательств Lean 4. Модель содержит 119B общих параметров при 6B активных. За счет разреженной архитектуры она работает быстро и дешево.

Агент обучен не на олимпиадных задачах, а на реальных репозиториях с формальными доказательствами. На бенчмарке FLTEval модель набирает 26,3 балла при двух попытках, это на 2,6 балла выше Claude Sonnet при стоимости $36 против $549. Claude Opus остается сильнее (39,6 балла), но обходится в $1650 (в 46 раз дороже).

Модель доступна через Mistral Vibe, API и на HuggingFace под лицензией Apache 2.0.
mistral.ai

✔️ Alibaba объединила ИИ-разработку в единую структуру.

Alibaba создала новое подразделение Alibaba Token Hub и поставила во главе него CEO Эдди Ву. Под одну крышу собрали команду Qwen, потребительские приложения, корпоративный мессенджер DingTalk и устройства Quark.

Цель реструктуризации - ускорить путь от исследований до продукта и выстроить монетизацию ИИ по всей компании. На этой неделе Alibaba планирует представить ИИ-агента для корпоративных клиентов на базе Qwen, его планируют интегрировать с Taobao и Alipay.
bloomberg.com

✔️ Britannica подала в суд на OpenAI.

Энциклопедия и Merriam-Webster обратились в суд Манхэттена. По версии истцов, компания обучала свои модели на 100 тыс. энциклопедических статей и словарных определений, не получив согласия правообладателей. В иске утверждается, что GPT-4 запомнил значительные фрагменты контента Britannica и воспроизводит их почти дословно по запросу.

Помимо нарушения авторских прав, Britannica обвиняет OpenAI в нарушении товарных знаков: ChatGPT якобы создает ложное впечатление, что издание одобрило использование своих материалов, и ссылается на него в недостоверных ответах. Компания требует компенсацию и запрет на использование контента.
reuters.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍7623🔥19🤔12👏9🎉5😁4😍3👨‍💻2🍓1
⚡️ OpenAI выпустили GPT-5.4 mini - новый быстрый и компактный вариант GPT-5.4.

Модель уже доступна в:
• ChatGPT
• Codex
• OpenAI API

🚀 в 2 раза быстрее GPT-5 mini

По словам OpenAI, это самая мощная mini-модель компании, которая почти догоняет полноценный GPT-5.4 по возможностям, но работает быстрее и дешевле.

Также представлена версия GPT-5.4 nano - самая маленькая и дешёвая модель для задач вроде:
- классификации
- извлечения данных
- ranking
- coding-агентов

https://openai.com/index/introducing-gpt-5-4-mini-and-nano/

@ai_machinelearning_big_data

#openai #ai #ml #chatgpt
4743🔥20👏14👍13🎉5🤩4🥱3🤗1
Media is too big
VIEW IN TELEGRAM
✔️ Американские сенаторы потребовали от ByteDance закрыть видеогенератор Seedance.

Сенаторы Конгресса США направили письмо CEO ByteDance с требованием немедленно остановить работу Seedance 2.0. По их словам, это наиболее очевидный случай нарушения авторских прав среди продуктов ByteDance: приложение генерирует видео с реальными людьми и персонажами без разрешения правообладателей.

В письме сенаторы привели примеры: ролики с Томом Крузом, Брэдом Питтом и персонажами сериала «Очень странные дела». ByteDance ответил стандартно: компания уважает интеллектуальную собственность и уже принимает меры для усиления защиты.

Ситуация отражает нарастающее давление Конгресса на ИИ-компании, особенно китайские. При этом законодательного регулирования отрасли в США до сих пор нет.
cnbc.com

✔️ Mistral AI запускает корпоративную платформу обучения ИИ-моделей полного цикла.

Новое решение, Forge, позволяет компаниям разрабатывать и улучшать модели на собственных закрытых данных. Платформа поддерживает весь ML-пайплайн от претрейна до SFT, DPO и тонкой настройки через RL. Инструментарий работает как с классическими плотными моделями, так и с архитектурой MoE, включая мультимодальный ввод.

Развернуть тренировочные сессии можно на мощностях Mistral или на локальных GPU-кластерах. В последнем случае компания платит только за лицензию на софт, а Mistral не имеет никакого доступа к обучающей выборке. В Forge также встроены конвейеры для сбора и генерации синтетических данных.

Платформа спроектирована по принципу «agent-first». Forge предоставляет программные интерфейсы, с помощью которых автономные ИИ-агенты (встроенный Mistral Vibe) могут самостоятельно планировать задачи, запускать обучающие эксперименты и подбирать оптимальные гиперпараметры без прямого участия инженеров.
mistral.ai

✔️ Google AI Studio обновил тарифы Gemini API и добавил лимиты расходов.

В Google AI Studio появились Project Spend Caps. Теперь можно задать жесткий месячный бюджет на Gemini API для каждого конкретного проекта. Поставили лимит - он работает, пока сами его не поменяете.

Систему тарифов тоже поменяли. Апгрейд до следующего уровня теперь происходит автоматом. Больше пользуетесь API, платите без задержек - получаете больше квот. Заодно Google снизил минимальные требования расходов для перехода на высокие уровни.

Из других обновлений: настройка биллинга теперь доступна прямо в Google AI Studio без переключения между вкладками, появились дашборды для мониторинга rate limits (RPM, TPM, RPD), суточной разбивки расходов по проектам и моделям, а также детальной статистики по токенам и ошибкам.
Google AI Studio в сети Х

✔️ Manus сделал десктопное приложение My Computer.

Вслед за Perlpexity, Manus анонсировал ИИ-агента, который работает напрямую с файлами и приложениями на ПК. Агент выполняет команды в терминале: сортирует файлы, переименовывает документы, запускает приложения, пишет код и умеет использовать локальный GPU для обучения моделей или инференса.

Manus интегрирован с Gmail и Google Calendar — это позволяет строить сценарии, где агент берёт файл с локального диска и сразу отправляет его по почте. Каждая команда требует подтверждения пользователя: можно разрешить выполнение один раз или добавить задачу в список доверенных. Приложение доступно для macOS и Windows.
manus.im

✔️ Rakuten релизнула японскую модель и сразу попала в скандал.

Компания опубликовала Rakuten AI 3.0 - языковую модель для японского языка. В пресс-релизе заявлено, что модель превосходит GPT-4 в ряде бенчмарков: знание японской культуры, истории и следование инструкциям. В основе - открытые модели сообщества и собственные данные Rakuten. Однако, пользователи в X нашли в конфигурационном файле на Hugging Face строку, явно указывающую на Deepseek. Помимо этого, в ответах на чувствительные вопросы модель демонстрирует скорее прокитайскую, чем прояпонскую позицию.

Это вызвало волну критики: действительно ли модель является японской разработкой, если в ее основе лежит DeepSeek. Rakuten пока не дала официальных пояснений.
rakuten.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍71🤔5022🤬20😁12😐9🔥8🎅1
Распознай, кто говорит, и выиграй 600 тысяч рублей! 💙

ИТ-компания «Криптонит» приглашает на дататон «Криптонит.Тембр»!


❗️Задача — разработать модель распознавания по голосу, устойчивую к искажениям аудиосигнала.

Тебе предстоит обучить Speaker Recognition модель, устойчивую к искажениям аудио, возникающим в реальных сценариях эксплуатации речевых интерфейсов и систем обработки звука:
🔹искажения, вносимые акустической средой;
🔹посторонние шумы;
🔹реверберация;
🔹большое расстояние до микрофона;
🔹искажения каналов связи.

Участвуй, и ты сможешь:
🟦получить шанс разделить призовой фонд в 600 000 рублей;
🟦разработать решения в области Audio/Speech ML;
🟦прокачать скиллы в Speaker Recognition и Deep Learning.

👆 Регистрируйтесь до 10 апреля включительно!

Подписывайтесь на телеграм-канал «Криптонит. Разработка, наука, шифрование» — там много всего интересного.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍94👏21🤩16🤣138🎉5👨‍💻3🔥1😁1🌚1🤗1
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ Dispatch в Claude Cowork: управление Claude на ПК со смартфона.

Dispatch позволяет отправить задание на Mac или Windows в приложение Claude Cowork через мобильное приложение.

В мобильном приложении появляется лента обновлений в реальном времени: Claude сообщает о завершенных этапах и запрашивает подтверждение на критичные действия. Данные остаются на устройстве пользователя и не передаются на серверы Anthropic.

Типичные сценарии для Dispatch: собрать отчет из документов в папке, разобрать «Загрузки» по типам и датам, сконвертировать скриншоты чеков в таблицу Excel или сделать выжимку по нескольким статьям в одном документе.

Функция пока доступна подписчикам плана Claude Max. Для работы на компьютере должно быть установлено и запущено приложение Claude Desktop, привязанное к мобильному устройству через настройки. Расширение на план Pro анонсировано, сроки не уточняются.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15241🔥24👏5🤔54😁3🤗1
Открыта регистрация на главную конференцию этой весны по технологиям ИИ и анализу данных — Data Fusion* 2026! 💙

Шестая ежегодная конференция Data Fusion пройдет 8–9 апреля в Москве в инновационном кластере «Ломоносов».

60+ актуальных сессий, докладов, примеров, дискуссий по теме анализа данных/ науки о данных/ машинного обучения. Среди тем – ИИ-агенты, «обучение с подкреплением», компьютерное зрение, обработка естественного языка, открытый исходный код, воплощенный ИИ и робототехника, рекомендательные системы, применение ИИ в кибербезопасности, ИИ+ естественные науки, AgentOps и многое другое! Всю программу ищите на сайте.

Конференция объединит лидеров команд по машинному обучению, специалистов по обработке данных, молодых ученых, инженеров, аналитиков и руководителей, принимающих решения о внедрении технологий в бизнес и государственные сервисы.

Среди спикеров конференции: Суржко Денис (ВТБ), Оселедец Иван (AIRI), Райгородский Андрей (МФТИ), Бурнаев Евгений (Сколтех,AIRI), Саркисов Тигран (Х5), Крайнов Александр (Яндекс), Зима Андрей (Ростелеком) и другие эксперты из науки и индустрии.

Все мы любим конференции не только ради знаний, но и, конечно, ради живого общения и новых знакомств, а это важная часть Data Fusion!

Не пропустите, регистрируйтесь.

*Интеграция данных
Информация о рекламодателе
Please open Telegram to view this post
VIEW IN TELEGRAM
👍48👏21🔥104😁2🥱2👾2😍1🏆1👀1
⚡️ Mistral выпустила Small 4.

Mistral Small 4 - это мультимодальный комбайн, который закрывает сразу три задачи: ризонинг, агентный кодинг и работу с изображениями. Раньше под каждую из них была отдельная модель: Magistral, Devstral и Pixtral. Теперь один чекпоинт,

🟡Архитектура

MoE с 128 экспертами, из которых на каждый токен активируются 4. Всего 119B параметров, активных - 6B на токен. Контекстное окно - 256 тыс. токенов.

По сравнению с Mistral Small 3 в новой версии задержка сократилась на 40%, пропускная способность выросла в 3 раза.

Ключевая фича - параметр reasoning_effort. Если поставить none будет быстрый чат-режим, как в Small 3.2, а с ключом high модель начнет разворачивать цепочку рассуждений, сопоставимую с Magistral. Переключение в рантайме, без смены модели.

🟡Тесты

Small 4 с включенным reasoning обходит GPT-OSS 120B на LiveCodeBench и генерирует при этом на 20% меньше токенов.

На AA LCR набирает 0.72 при длине ответа 1.6K символов. Для сравнения, модели Qwen для тех же результатов нужно от 5.8K до 6.1K.

Для self-hosted деплоя минимальный стенд - 4× NVIDIA HGX H100, 2× HGX H200 или 1× DGX B200.


Попробовать бесплатно можно на build.nvidia.com, через Mistral API или AI Studio.


📌 Лицензирование: Apache 2.0 License.


🟡Статья
🟡Набор моделей


@ai_machinelearning_big_data

#AI #ML #LLM #MistralSmall4 #MistralAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
10👍135👏23🤩1311🔥9🤣5👨‍💻5🥰3🎉3❤‍🔥1💯1