315K subscribers
4.79K photos
1.05K videos
17 files
5.21K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
✔️ MoonshotAI готовит модель Kimi K2.6 к релизу

Китайские тестеры раннего доступа Kimi Code получили сообщение, которое говорит о скором релизе модели Kimi K2.6.

Перевод скрина:

KIMI Code

Программа раннего доступа завершена
Спасибо за ваше участие и обратную связь

Привет, x

Спасибо, что приняли участие в тестировании программы раннего доступа Kimi Code! Каждый ваш отзыв помог нам сделать продукт лучше, и это очень важно для нас. Программа раннего доступа на этот период завершена, и мы надеемся увидеться с вами снова при запуске следующего этапа.

Сейчас мы занимаемся финальной настройкой и доработкой продукта на основе отзывов, полученных в ходе этого тестирования. Новая модель K2.6-code-preview, которую вы опробовали, скоро будет запущена для всех пользователей. Еще раз спасибо за вашу поддержку и доверие как одного из первых участников.

Команда Kimi Code
2026 Kimi



@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍121👏2618🎉14🔥8💯7🦄2❤‍🔥1🥰1
Media is too big
VIEW IN TELEGRAM
✔️ Cloudflare и OpenAI запустили платформу Agent Cloud

Agent Cloud позволяет бизнесу встраивать ИИ-агентов в рабочие процессы - от общения с пользователями до обновления баз данных и генерации отчетов.
Технический фундамент - инфраструктура Cloudflare Workers AI. Модели запускаются на периферийных серверах, что обеспечивает минимальную задержку и высокую скорость отклика.

Cloudflare также расширяет инструменты для разработчиков: среда Codex теперь работает в изолированных песочницах Cloudflare Sandboxes, а вскоре её интегрируют прямо в Workers AI.
openai.com

✔️ Марк Цукерберг разрабатывает своего цифрового аватара

Глава технологической империи лично участвует в создании интерактивной 3D-копии себя. Подразделение Superintelligence Labs нацелено на создание виртуального аватара, который сможет общаться с сотрудниками вместо Марка и давать им обратную связь в реальном времени. Модель обучают на фото, голосе, мимике и публичных выступлениях Цукерберга.

Источники отмечают необычную вовлеченность CEO: он тратит 5–10 часов в неделю на код и технические ревью. Если эксперимент удастся, компания планирует предложить технологию блогерам и создателям контента.
theverge.com

✔️ Ведущие ИИ-инженеры массово возвращаются из Кремниевой долины в Китай

За последний год Пекин, Ханчжоу и Шэньчжэнь приняли беспрецедентный поток кадров из США: по данным рекрутеров, в КНР вернулись более 30 топовых ИИ-исследователей. Годом ранее такие переходы были единичными. Тон задают звезды индустрии. У Юнхуэй ушёл из Google DeepMind в ByteDance, Яо Шуньюй покинул OpenAI ради Tencent.

Причин две. Китай дает огромный полигон для внедрения ИИ в реальную экономику, Шэньчжэнь стал мировым центром робототехники. Плюс реальная покупательная способность зарплат инженеров в КНР уже превышает уровень Долины.

С другой стороны, специалистов выталкивают сами США: геополитика и бюрократия делают Штаты менее привлекательными для китайских талантов. Аналитики фиксируют смену технологического баланса: Китай перестаёт быть фабрикой или потребителем западных инноваций и сам становится магнитом для лучших разработчиков.
ft.com

✔️ Overworld обновила модель для генерации интерактивных 3D-миров

Главное в Waypoint-1.5 - локальный запуск на Windows и macOS. Модель работает в 2-х режимах: на мощных системах она генерирует 720p при 60 кадрах в секунду, а облегченная версия - 360p и рассчитана на ПК с NVIDIA RTX (под Apple Silicon обещают позже).

Waypoint-1.5 вдвое компактнее предыдущей версии, но дает заметно лучшую графику и производительность. Развернуть ее можно локально через среду Biome или запустить в браузере через облачный Overworld.stream.
over.world

✔️ Anthropic привлекла христианских лидеров для формирования моральных принципов Claude

В конце марта создатели Claude провели закрытый саммит с пятнадцатью представителями католической и протестантской церквей, академической среды и бизнеса. Цель - найти ориентиры для этических и духовных реакций модели.

Участники разбирали практические сценарии: как бот должен общаться со скорбящими или людьми в глубоком психологическом кризисе. Дискуссия затронула и теологию - вплоть до того, можно ли считать ИИ «божьим созданием». Эксперты отметили искренность Anthropic, ищущих гуманитарную экспертизу извне.

В отличие от конкурентов, Anthropic не считает ИИ просто утилитарным кодом: ее руководство обсуждает философские аспекты технологий и допускает, что у больших языковых моделей могут появиться зачатки сознания несмотря на скепсис большей части индустрии.
washingtonpost.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4515🤣15🤔8🔥21💯1
ИИ не только в темах ИТ-конференций

Он уже в продуктах, процессах и вакансиях. Только на hh.ru больше тысячи открытых позиций для тех, кто создаёт и обучает нейросети.

На курсе Нетологии «Специалист по искусственному интеллекту» можно получить нужные навыки:
🔸 научиться использовать промпт-инжиниринг,
🔸 работать с большими языковыми моделями,
🔸 создавать RAG-системы* и ИИ-агентов,
🔸 управлять рисками при внедрении ИИ-сервисов.

На выбор две программы обучения: с нуля — 11 месяцев, и для тех, кто уже в ИТ, — 5 месяцев. В обоих случаях получаете сотни часов практики, портфолио из реальных проектов и год карьерной поддержки.

👉 Сейчас на курс действует скидка 50%, а с промокодом NETONEW10 цена станет ещё на 10% ниже. Плюсом идут 4 курса по нейросетям и подарки от партнёров Нетологии в честь её 15-летия.
Узнать подробнее и записаться: ссылка

* RAG — архитектурный подход к генеративным моделям, сочетающий навыки поиска информации с генеративными возможностями больших языковых моделей

Реклама. ООО “Нетология” ОГРН 1207700135884 Erid: 2VSb5wYoT38
🎉26🤣13👍125👏3❤‍🔥2🥱2
🌟 DreamLite: генерация и редактирование картинок на мобильных устройствах

Bytedance опубликовала инфу о проекте DreamLite - компактной диффузионки на 390 млн. параметров, которая сможет работать локально на телефоне.

Под капотом - сильно сжатая версия U-Net (от SDXL), автоэнкодер TinyVAE и текстовый Qwen3-VL-2B.

Для трейна используется схема прогрессивного совместного обучения для стабильности генерации и дистилляция DMD2, которая сокращает инференс до 4 шагов.

В описании заявляют, что на iPhone17 Pro картинка размером 1024х1024 генерится около 3 секунд, а в техотчете - что на Xiaomi 14 создание или редактирование изображение тем же размером займет менее 1 секунды.

На синтетике DreamLite выбивает 0.72 (генерация, GenEval) и 4.11 (редактирование, ImgEdit)

Пока опубликованы только техотчет, репозиторий пустой. Сроки релиза обещают традиционно - coming soon.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍76🤔3014👏10🔥9🤗3🫡1
⚡️Банковские рекламные платформы задействуют ML-алгоритмы для подбора аудитории и генерации креатива в реальном времени.

Технический директор «Т-Рекламы» Василий Разумных объяснил, чем такой подход отличается от классических решений. По его словам, в рекламной платформе Т-Банка ML-модели не только предсказывают кликабельность, но и направляют логику принятия решений.

«В отличие от классического подхода, где реклама существует отдельно от продуктового опыта, мы интегрируем ее в пользовательский сценарий. Поэтому система учитывает не только ставку рекламодателя, но и уместность предложения для конкретного человека в определенный момент», — рассказал технический директор рекламной платформы.

При поступлении запроса система отбирает подходящие объявления и ранжирует их с помощью скоринговой модели. Она учитывает ряд факторов: экономическую эффективность для платформы, прогнозируемую вероятность целевого действия, качество креатива и репутацию рекламодателя.

✔️По мнению эксперта, если приоритет отдается исключительно цене, качество выдачи для пользователя может ухудшиться. Поэтому в компании используется многокритериальная оптимизация, то есть учитываются прогноз вовлеченности и качество креатива. Также активно внедряются автостратегии. С их помощью рекламодатели могут ставить бизнес-цели, а алгоритмы – искать путь их достижения.

Вместо ручной настройки на платформе работает ML-таргетинг. Данные о поведении пользователей агрегируются в финансовых и лайфстайл-сервисах приложения и других точках контакта – это позволяет сформировать целостный портрет пользователя, а не просто набор разрозненных идентификаторов.

✔️СТО отметил, что генеративный ИИ помогает варьировать тексты и изображения, но все варианты строго фильтруются, чтобы сохранять соответствие гайдлайнам бренда.

При этом запросы бизнеса становятся все более прагматичными и ориентированными на результат. Рекламодателям важно не только видеть охваты и узнаваемость, но и держать фокус на измеримых действиях, с чем помогают перфоманс-инструменты.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓26👍229👌6🤬5🔥4👏3🤣32🌭1🙊1
🌟 HY-Embodied-0.5: компактная модель для роботов на Mixture-of-Transformers.

Tencent Robotics X и Hunyuan Vision выложили веса HY-Embodied-0.5 MoT-2B — младшей модели нового семейства HY-Embodied-0.5 для воплощённого интеллекта.

Семейство позиционируется как когнитивное ядро для VLA-пайплайнов: модель должна выполнять роль «мозга», который принимает кадры с камер робота, рассуждает о трехмерной сцене и выдает план действий исполнительному модулю.

Формально MoT-2B содержит 4 млрд параметров, но на инференсе активируется только 2,2 млрд, что дает скорость плотной 2B-модели при качестве восприятия, сопоставимом с тяжёлыми VLM.

В основе лежит архитектура Mixture-of-Transformers с латентными токенами и модально-специфичными вычислениями для зрительного тракта.

Суть MoT: перед мультимодальным обучением Tencent дублирует FFN- и QKV-блоки языковой модели и инициализирует копию её же весами - визуальные токены прогоняются через визуальную ветку, текстовые через языковую.

Помимо разделения FFN и QKV, разведены и механизмы внимания: для визуальных токенов используется двунаправленное полное внимание, для языковых - causal-внимание.

Связующим звеном служат обучаемые visual latent tokens, которые приписываются в конец каждого визуального элемента (кадра или изображения) и переносят визуальную семантику в языковой контекст.


В семействе будет старший вариант - HY-Embodied-0.5 MoE-A32B на 32 млрд активных параметров. Он построен уже на MoE и, по словам создателей, выходит на уровень Gemini 3.0 Pro.

Веса флагмана не опубликованы, но именно эта модель выступает учителем в дистилляции, передавая навыки рассуждения младшей MoT-2B.

🟡Результаты на бенчмарках

🟢MoT-2B обходит Qwen3-VL 2B/4B, RoboBrain 2.5 4B и MiMo-Embodied 7B в большинстве из 22 тестов на визуальное восприятие и пространственное мышление: 89,2 на CV-Bench, 92,3 на DA-2K, 54,5 на ERQA и 66,3 на MindCube, где ближайший конкурент отстаёт почти вдвое.

🟠На задачах планирования (RoboBench-Planning, Ego-Plan2, RefSpatial-Bench) лидерство остаётся за RoboBrain и MiMo-Embodied, здесь Tencent пока догоняет.

Для инференса рекомендуется GPU с минимум 16 ГБ VRAM.

В планах - интеграция с vLLM и Gradio-демо.


📌Лицензирование: Tencent HY Community License


🟡Модель
🟡Arxiv
🟡Техотчет
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #Embodied #Robotics #Tencent #Hunyuan
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓36👍259👏9🔥6🤔5👀2❤‍🔥1😁1
📌Anthropic объяснил регрессию Claude Code и предложил обходные пути.

Инженер из AMD опубликовал на GitHub подробный разбор деградации Claude Code на сложных задачах, начавшейся в феврале. Автор сгенерировал отчет силами Opus 4.6, проанализировав 17 тыс. блоков размышлений и 234 тыс. вызовов инструментов в 6 852 локальных сессиях.

Главная метрика - отношение чтений файлов к правкам упала с 6,6 до 2,0. Иначе говоря, модель почти перестала изучать код перед его модификацией: доля правок без предварительного чтения выросла с 6,2% до 33,7%.

Параллельно был зафиксировал рост зацикливаний (с 8,2 до 21,0 на тысячу вызовов), удвоение использования полной перезаписи файлов вместо точечных правок и вспышку поведенческих симптомов (уклонение от ответственности, преждевременные остановки и склонность к простейшему решению).

Специальный stop-hook, ловящий такие фразы, сработал 173 раза за 17 дней после 8 марта, против нуля за весь предыдущий период.

Автор связал регрессию с заголовком redact-thinking-2026-02-12, после появление которого содержимое thinking-блоков перестало приходить клиенту.

Борис Черный, глава команды Claude Code ответил на Hacker News:

Заголовок убирает саммари размышлений из интерфейса, чтобы не гонять их по сети ради снижения латентности, но не трогает ни сам ризонинг, ни бюджеты на него.


Локальный анализ транскриптов поэтому и видит пустые блоки и делает неверный вывод об отсутствии мышления. Если надо, то вернуть отображение можно опцией showThinkingSummaries:true в settings.json.

🟡Реальных изменений, влияющих на глубину рассуждений, было два:

9 февраля вместе с Opus 4.6 включили adaptive thinking - модель сама выбирает длину размышлений вместо фиксированного бюджета.

3 марта дефолтный уровень усилий для Opus 4.6 подняли до medium (effort=85) как компромисс между интеллектом, латентностью и стоимостью.


В ответ на гипотезу о том, что виноват свежий 1M-контекст и работа без /compact после 200k токенов, Борис предложил решения, которыми можно вернуть прежнее поведение:

🟢 /effort high или /effort max - поднять максимальный бюджет thinking-токенов на задачу;

🟢CLAUDE_CODE_AUTO_COMPACT_WINDOW=400000 - принудительно укоротить рабочее окно контекста.

🟢CLAUDE_CODE_SIMPLE=1 - упрощенный режим для проверки гипотезы об интерференции системного промпта.

Дополнительно есть CLAUDE_CODE_DISABLE_ADAPTIVE_THINKING=1 , он отключает адаптивный режим и возвращает фиксированный бюджет рассуждений.

🟡Расследование бага продолжается командой Claude Code.

Борис также заверил, что Anthropic протестирует включение high effort по умолчанию для тарифов Teams и Enterprise.

Это приведет к большему расходу токенов и росту латентности, но даст гарантированную глубину рассуждений.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
75🤔72👍44👏13😁13🔥9🤷‍♂7🤬1
В Claude Code добавили Routines - способ превратить разовые команды в повторяемые сценарии.

Теперь вместо ручного управления ты задаёшь поведение:
Claude сам выполняет цепочки действий под задачу.

По сути это не промпты, а воспроизводимые workflow внутри Claude Code

Что это даёт:

- автоматизация типовых задач
- меньше ручного контроля
- стабильный результат от запуска к запуску
- экономия времени на рутине

Ты один раз описываешь, как работать.
дальше Claude просто повторяет это как систему.

code.claude.com/docs/en/routines

🎯Полезные Мл-ресурсы 🚀 Max

@data_analysis_ml
👍5225👨‍💻24👏6😁6🤓4🔥3🆒3