Mythos, закрытая модель Anthropic, заточенная под поиск уязвимостей, утекла за пределы круга избранных.
По данным Bloomberg, неизвестная группа получила к ней регулярный доступ через стороннего подрядчика и даже прислала журналистам скриншоты и живую демонстрацию работы.
Самое ироничное, что Mythos создавалась в рамках Project Glasswing, идея которого как раз в ограниченной дистрибуции: пусть модель видят только проверенные команды, и тогда её мощь не обернётся против индустрии.
План красивый, реальность жёстче. Ядро Anthropic никто не ломал. Ломать не пришлось. Хватило одного партнёра с дырявым контролем доступа.
И вот здесь начинается настоящий сюжет. Модель, которая ищет уязвимости быстрее людей, сама оказалась уязвима через самое слабое звено периметра. Подрядчик, чужой ноутбук, забытый токен, предсказуемое имя сервиса, и всё, твой закрытый оружейный ИИ гуляет в чужих руках.
Вывод неприятный, но его придётся принять всем, кто работает с фронтирными моделями. Секретность ИИ заканчивается там, где начинается цепочка поставок. Можно сколько угодно прятать веса, фильтровать доступ и подписывать NDA, но если у вендора слабый пароль, вся архитектура доверия рушится за одну ночь.
Mythos не первый такой случай и точно не последний. Вопрос уже не в том, утекают ли мощные модели. Вопрос в том, кто и когда поймает следующую.
techcrunch.com/2026/04/21/unauthorized-group-has-gained-access-to-anthropics-exclusive-cyber-tool-mythos-report-claims/
По данным Bloomberg, неизвестная группа получила к ней регулярный доступ через стороннего подрядчика и даже прислала журналистам скриншоты и живую демонстрацию работы.
Самое ироничное, что Mythos создавалась в рамках Project Glasswing, идея которого как раз в ограниченной дистрибуции: пусть модель видят только проверенные команды, и тогда её мощь не обернётся против индустрии.
План красивый, реальность жёстче. Ядро Anthropic никто не ломал. Ломать не пришлось. Хватило одного партнёра с дырявым контролем доступа.
И вот здесь начинается настоящий сюжет. Модель, которая ищет уязвимости быстрее людей, сама оказалась уязвима через самое слабое звено периметра. Подрядчик, чужой ноутбук, забытый токен, предсказуемое имя сервиса, и всё, твой закрытый оружейный ИИ гуляет в чужих руках.
Вывод неприятный, но его придётся принять всем, кто работает с фронтирными моделями. Секретность ИИ заканчивается там, где начинается цепочка поставок. Можно сколько угодно прятать веса, фильтровать доступ и подписывать NDA, но если у вендора слабый пароль, вся архитектура доверия рушится за одну ночь.
Mythos не первый такой случай и точно не последний. Вопрос уже не в том, утекают ли мощные модели. Вопрос в том, кто и когда поймает следующую.
techcrunch.com/2026/04/21/unauthorized-group-has-gained-access-to-anthropics-exclusive-cyber-tool-mythos-report-claims/
❤18🔥6🤣6👍5👨💻3
🚀 50+ команд Claude Code, которые реально ускоряют разработку
Если ты используешь Claude Code как обычный чат - ты теряешь 80% его мощности.
Это не просто AI. Это полноценная система разработки внутри терминала.
Вот как его правильно использовать:
База, без которой никуда:
-
-
-
-
Работа с кодом:
-
-
-
-
Контроль процесса:
-
-
-
Продвинутые фичи:
-
-
-
-
Модели и режимы:
-
-
-
Что важно знать:
- Claude Code = не чат, а инженер внутри проекта
- память (CLAUDE.md) решает больше, чем промпты
- агенты дают x2-x5 ускорение на сложных задачах
Если ты используешь Claude Code как обычный чат - ты теряешь 80% его мощности.
Это не просто AI. Это полноценная система разработки внутри терминала.
Вот как его правильно использовать:
База, без которой никуда:
-
/init - создаёт CLAUDE.md и память проекта -
/memory - открывает контекст проекта -
/add-dir - подключает новые директории -
/compact - чистит контекст и экономит токены Работа с кодом:
-
/diff - показывает изменения -
/review - ревью кода -
/simplify - 3 агента анализируют код -
/debug - системный дебаг Контроль процесса:
-
/plan - сначала думает, потом пишет код -
/permissions - контроль действий -
--dangerously-skip-permissions - полный автопилот Продвинутые фичи:
-
/agents - параллельные агенты -
/loop - повтор задач -
/bash - выполнение команд -
/remote-control - управление через браузер Модели и режимы:
-
/model - переключение моделей -
/effort - глубина мышления -
/fast - быстрый режим Что важно знать:
- Claude Code = не чат, а инженер внутри проекта
- память (CLAUDE.md) решает больше, чем промпты
- агенты дают x2-x5 ускорение на сложных задачах
❤10👍9🔥6🥱1🌭1
Forwarded from Machinelearning
🚀 OpenAI представила GPT-5.5
Она заметно сильнее в самом главном: код, ресёрч, аналитика и работа с документами.
GPT 5.5 хороша в многоступенчатых задачах.
И почти во всём обходит конкурентов - например, на Terminal-Bench выбивает 82,7% против 69% у свежей Claude.
GPT-5.5 уже доступна пользователям Plus, Pro, Business и Enterprise - в ChatGPT и Codex.
Модель стала дороже: ~$5 / $30 за млн токенов.
Уже раскатывают на всех платных подписчиков.
Тестим! 🔥
https://openai.com/index/introducing-gpt-5-5/
Она заметно сильнее в самом главном: код, ресёрч, аналитика и работа с документами.
GPT 5.5 хороша в многоступенчатых задачах.
И почти во всём обходит конкурентов - например, на Terminal-Bench выбивает 82,7% против 69% у свежей Claude.
GPT-5.5 уже доступна пользователям Plus, Pro, Business и Enterprise - в ChatGPT и Codex.
Модель стала дороже: ~$5 / $30 за млн токенов.
Уже раскатывают на всех платных подписчиков.
Тестим! 🔥
https://openai.com/index/introducing-gpt-5-5/
❤8🔥5🦄3👍2
Anthropic признали, что Claude Code действительно тупил, и раздали всем компенсацию
Целый месяц разработчики жаловались: Claude Code стал хуже писать код, тормозит, ломает то, что раньше делал с закрытыми глазами. Anthropic сначала отмалчивались, как это обычно и бывает у больших лабораторий.
Но вчера вечером команда ClaudeDevs выкатила пост-мортем и признала: да, проблема была, мы её нашли, мы её починили.
Интересно, что дело оказалось не в самой модели. По словам Anthropic, регрессии в Claude не было, API тоже работал штатно. Сломались три вещи внутри обвязки Claude Code и Agent SDK, на котором ещё сидит Cowork, поэтому ему тоже прилетело. Конкретные баги спрятаны в пост-мортеме на сайте Anthropic, но суть в том, что пользователи месяц страдали из-за харнесса, а не из-за мозгов модели.
Фикс раскатали в версии 2.1.116 и выше, лимиты использования обнулили всем подписчикам, то есть по сути подарили ещё один цикл квоты. Плюс пообещали изменить внутренние процессы: больше догфудинга с теми же конфигами, что у реальных юзеров, и расширенный набор эвалов, которые будут гонять против каждого изменения системного промпта отдельно.
А вот под постом народ не в восторге. Самый показательный комментарий собрал тихую волну лайков: «Могли бы просто сказать, что вас поймали на троттлинге». Кто-то жалуется, что лимиты и так должны были сброситься сегодня, так что никакой это не жест доброй воли.
Другие напоминают, что проблема видна не только в Claude Code, но и через сторонние обвязки к API, значит, три бага это явно не всё. Есть и те, кто благодарит за честность: мол, другие команды в такой ситуации уходят в тишину или валят всё на «оптимизацию», а тут хотя бы признали вину и починили.
Отдельно упомянули параллель с OpenAI: осенью 2023 года пользователи GPT-4 месяцами кричали про деградацию, а OpenAI отвечали сухим «мы модель не тупили» и никакого пост-мортема так и не выпустили. На этом фоне Anthropic выглядят прилично, хотя осадочек у коммьюнити всё равно остался, и многие уже поглядывают в сторону выходящего сегодня Codex.
Если вы последний месяц материли Claude Code и думали, что сходите с ума, вы не сходили. Обновляйтесь до 2.1.116 и забирайте сброшенные лимиты, пока дают.
https://x.com/ClaudeDevs/status/2047371123185287223
Целый месяц разработчики жаловались: Claude Code стал хуже писать код, тормозит, ломает то, что раньше делал с закрытыми глазами. Anthropic сначала отмалчивались, как это обычно и бывает у больших лабораторий.
Но вчера вечером команда ClaudeDevs выкатила пост-мортем и признала: да, проблема была, мы её нашли, мы её починили.
Интересно, что дело оказалось не в самой модели. По словам Anthropic, регрессии в Claude не было, API тоже работал штатно. Сломались три вещи внутри обвязки Claude Code и Agent SDK, на котором ещё сидит Cowork, поэтому ему тоже прилетело. Конкретные баги спрятаны в пост-мортеме на сайте Anthropic, но суть в том, что пользователи месяц страдали из-за харнесса, а не из-за мозгов модели.
Фикс раскатали в версии 2.1.116 и выше, лимиты использования обнулили всем подписчикам, то есть по сути подарили ещё один цикл квоты. Плюс пообещали изменить внутренние процессы: больше догфудинга с теми же конфигами, что у реальных юзеров, и расширенный набор эвалов, которые будут гонять против каждого изменения системного промпта отдельно.
А вот под постом народ не в восторге. Самый показательный комментарий собрал тихую волну лайков: «Могли бы просто сказать, что вас поймали на троттлинге». Кто-то жалуется, что лимиты и так должны были сброситься сегодня, так что никакой это не жест доброй воли.
Другие напоминают, что проблема видна не только в Claude Code, но и через сторонние обвязки к API, значит, три бага это явно не всё. Есть и те, кто благодарит за честность: мол, другие команды в такой ситуации уходят в тишину или валят всё на «оптимизацию», а тут хотя бы признали вину и починили.
Отдельно упомянули параллель с OpenAI: осенью 2023 года пользователи GPT-4 месяцами кричали про деградацию, а OpenAI отвечали сухим «мы модель не тупили» и никакого пост-мортема так и не выпустили. На этом фоне Anthropic выглядят прилично, хотя осадочек у коммьюнити всё равно остался, и многие уже поглядывают в сторону выходящего сегодня Codex.
Если вы последний месяц материли Claude Code и думали, что сходите с ума, вы не сходили. Обновляйтесь до 2.1.116 и забирайте сброшенные лимиты, пока дают.
https://x.com/ClaudeDevs/status/2047371123185287223
❤8👍7🥴4🔥2😍2🫡2🎉1
Forwarded from Machinelearning
🚀 DeepSeek выкатили V4 и сделали то, к чему все шли последние два года.
Длинный контекст больше не фича для демо. Теперь это базовый уровень.
Пока Запад празднует релизы с пафосными стримами, китайцы из DeepSeek сегодня утром просто выложили в Hugging Face две открытые модели и пошли пить чай. А теперь весь твиттер пытается осознать, что произошло. V4-Pro на 1.6 триллиона параметров с 49 миллиардами активных и V4-Flash на 284 миллиарда с 13 активными. Обе открытые, обе с миллионом контекста по дефолту, обе уже доступны через API и на chat.deepseek.com.
Главная фишка даже не в размере, а в том, что DeepSeek пересобрали внимание. Они запихнули в модель токенную компрессию и свою DeepSeek Sparse Attention, за счёт чего длинный контекст стал буквально дешёвым.
Не «технически возможным за пять долларов за запрос», как у конкурентов, а реально дешёвым. 1М теперь стандарт во всех официальных сервисах, а не премиум-опция за отдельную плату.
По цифрам V4-Pro претендует на открытый SOTA в агентном кодинге, тащит математику и STEM и в общих знаниях уступает только Gemini 3.1 Pro. Flash-версия идёт следом почти вплотную по ризонингу и ровно держит планку Pro на простых агентных задачах, но с меньшей задержкой и смешным прайсом.
Отдельно интересно, что API теперь поддерживает и формат OpenAI ChatCompletions, и Anthropic, с переключением между Thinking и Non-Thinking режимами. Старые deepseek-chat и deepseek-reasoner отключат 24 июля 2026, так что у команд есть три месяца на миграцию.
И конечно, DeepSeek не забыли ткнуть Anthropic в бок: в треде прямо написано, что V4 «бесшовно интегрируется с Claude Code, OpenClaw и OpenCode». То есть пока у Anthropic вчера был пост-мортем про сломанный харнесс, DeepSeek сегодня предлагает подменить им модель и сэкономить.
Закрытые лаборатории будут делать вид, что ничего не случилось, но стоимость миллиона токенов контекста только что стала публичной ценой, и от неё уже не отмотаешь.
📄 Tech Report: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
🤗 Open Weights: https://huggingface.co/collections/deepseek-ai/deepseek-v4
@ai_machinelearning_big_data
#DeepSeek
Длинный контекст больше не фича для демо. Теперь это базовый уровень.
Пока Запад празднует релизы с пафосными стримами, китайцы из DeepSeek сегодня утром просто выложили в Hugging Face две открытые модели и пошли пить чай. А теперь весь твиттер пытается осознать, что произошло. V4-Pro на 1.6 триллиона параметров с 49 миллиардами активных и V4-Flash на 284 миллиарда с 13 активными. Обе открытые, обе с миллионом контекста по дефолту, обе уже доступны через API и на chat.deepseek.com.
Главная фишка даже не в размере, а в том, что DeepSeek пересобрали внимание. Они запихнули в модель токенную компрессию и свою DeepSeek Sparse Attention, за счёт чего длинный контекст стал буквально дешёвым.
Не «технически возможным за пять долларов за запрос», как у конкурентов, а реально дешёвым. 1М теперь стандарт во всех официальных сервисах, а не премиум-опция за отдельную плату.
По цифрам V4-Pro претендует на открытый SOTA в агентном кодинге, тащит математику и STEM и в общих знаниях уступает только Gemini 3.1 Pro. Flash-версия идёт следом почти вплотную по ризонингу и ровно держит планку Pro на простых агентных задачах, но с меньшей задержкой и смешным прайсом.
Отдельно интересно, что API теперь поддерживает и формат OpenAI ChatCompletions, и Anthropic, с переключением между Thinking и Non-Thinking режимами. Старые deepseek-chat и deepseek-reasoner отключат 24 июля 2026, так что у команд есть три месяца на миграцию.
И конечно, DeepSeek не забыли ткнуть Anthropic в бок: в треде прямо написано, что V4 «бесшовно интегрируется с Claude Code, OpenClaw и OpenCode». То есть пока у Anthropic вчера был пост-мортем про сломанный харнесс, DeepSeek сегодня предлагает подменить им модель и сэкономить.
Закрытые лаборатории будут делать вид, что ничего не случилось, но стоимость миллиона токенов контекста только что стала публичной ценой, и от неё уже не отмотаешь.
📄 Tech Report: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
🤗 Open Weights: https://huggingface.co/collections/deepseek-ai/deepseek-v4
@ai_machinelearning_big_data
#DeepSeek
🔥27❤7👍3😍2😁1
Представьте: через три месяца вы открываете чужой Rust-код и читаете его как книгу.
Arc<Mutex<T>> не вызывает панику. impl Future не пугает. Вы точно знаете, почему компилятор ругается и как это починить за 10 секунд.
Это не фантазия. Это результат 50 уроков, в которых каждая концепция объясняется через код и закрепляется практикой.
Ownership, traits, generics, async, unsafe - всё, что казалось магией, станет рабочим инструментом.А бонусом - портфолио проектов: от CLI-утилит до REST API и WebAssembly.
Вы и так знаете, что Rust - ваш следующий язык. Этот курс просто сделает это реальностью.
Сегодня - 55% процентов от цены, торопись: https://stepik.org/a/269250/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍4🔥1🤣1👀1
✨ Поддержка с волшебной палочкой! ✨
GoodClaude — это приложение, которое позволяет отправлять слова поддержки с помощью волшебной палочки. Оно создано на основе BadClaude, но вместо наказаний предлагает только добрые слова.
🚀 Основные моменты:
- Визуализация волшебной палочки с блестками
- Звуковые эффекты при отправке сообщений поддержки
- Список вдохновляющих фраз для Claude
- Возможность кастомизации сообщений в будущем
📌 GitHub: https://github.com/ashley-ha/goodclaude
#javascript
GoodClaude — это приложение, которое позволяет отправлять слова поддержки с помощью волшебной палочки. Оно создано на основе BadClaude, но вместо наказаний предлагает только добрые слова.
🚀 Основные моменты:
- Визуализация волшебной палочки с блестками
- Звуковые эффекты при отправке сообщений поддержки
- Список вдохновляющих фраз для Claude
- Возможность кастомизации сообщений в будущем
📌 GitHub: https://github.com/ashley-ha/goodclaude
#javascript
😁9❤5👍2🔥2💯2🎉1
Claude 101:
http://claude101.com
→ Уровень 1 - 24 минуты: база
Claude для новичков:
https://ruben.substack.com/p/claude-for-dummies
Настройка Claude:
http://how-to-claude.ai
→ Уровень 2 - 1 час: реальные workflows
Claude Cowork:
http://claude-co.work
Claude для команд:
http://how-claude.team
Claude Design:
http://claudedesign.free
Cowork + Projects:
https://ruben.substack.com/p/claude-cowork-project
Claude для слайдов:
http://how-to-gamma.ai
Claude Skills:
http://claude-skills.free
→ Уровень 3 - 3,5 часа: pro-приемы
Как избегать подхалимства модели:
https://ruben.substack.com/p/i-love-to-be-right
Claude Code:
http://claudecode.free
Claude 101:
https://anthropic.skilljar.com/claude-101
Как не упираться в лимиты Claude:
https://ruben.substack.com/p/how-to-stop-hitting-claude-usage
Хватит просто промптить:
https://ruben.substack.com/p/stop-prompting-claude
→ Уровень 4 - 8 часов: экспертный режим
Claude Computer:
https://ruben.substack.com/p/claude-computer
Разработка с Claude API:
https://anthropic.skilljar.com/claude-with-the-anthropic-api
Please open Telegram to view this post
VIEW IN TELEGRAM
😁10👍8❤6🔥6🐳2
🤖 Everything Claude Code: AI Agent Optimization System
Мощная система оптимизации для AI-агентов, победитель хакатона Anthropic. Включает навыки, память, безопасность и непрерывное обучение, обеспечивая готовых к производству агентов и конфигурации. Поддерживает Claude Code, Codex и другие.
🚀 Основные моменты:
- Полная система для AI-агентов
- Оптимизация памяти и навыков
- Безопасность и сканирование уязвимостей
- Поддержка нескольких языков программирования
- Интенсивно использовалась для реальных продуктов
📌 GitHub: https://github.com/affaan-m/everything-claude-code
Мощная система оптимизации для AI-агентов, победитель хакатона Anthropic. Включает навыки, память, безопасность и непрерывное обучение, обеспечивая готовых к производству агентов и конфигурации. Поддерживает Claude Code, Codex и другие.
🚀 Основные моменты:
- Полная система для AI-агентов
- Оптимизация памяти и навыков
- Безопасность и сканирование уязвимостей
- Поддержка нескольких языков программирования
- Интенсивно использовалась для реальных продуктов
📌 GitHub: https://github.com/affaan-m/everything-claude-code
🔥8👍4❤2🥰2
Запустить ИИ-пилот без закупки железа? Так можно было!
Selectel сделали услугу аренды сервера с размещением прямо на вашей площадке.
Это способ быстро запустить ИИ-пилот, не замораживая бюджет в оборудовании:
✅серверы с топовыми видеокартами NVIDIA B300, H200, H100, RTX6000PRO,
✅полный контроль над данными,
✅оплата по подписке — ежемесячно или раз в год.
Подходит для инференса и дообучения моделей, пакетной обработки данных. Если проект не получится — можно вернуть сервер в любой момент без штрафов, а если взлетит — выкупить по специальной цене.
👉Выбирайте конфигурацию и условия аренды: https://slc.tl/14ihb
Реклама. АО "Селектел". erid:2W5zFGpCJRf
Selectel сделали услугу аренды сервера с размещением прямо на вашей площадке.
Это способ быстро запустить ИИ-пилот, не замораживая бюджет в оборудовании:
✅серверы с топовыми видеокартами NVIDIA B300, H200, H100, RTX6000PRO,
✅полный контроль над данными,
✅оплата по подписке — ежемесячно или раз в год.
Подходит для инференса и дообучения моделей, пакетной обработки данных. Если проект не получится — можно вернуть сервер в любой момент без штрафов, а если взлетит — выкупить по специальной цене.
👉Выбирайте конфигурацию и условия аренды: https://slc.tl/14ihb
Реклама. АО "Селектел". erid:2W5zFGpCJRf
👍2🥰2❤1
🧩 Meta-Harness: Оптимизация моделей для конкретных задач
Meta-Harness — это фреймворк для автоматизированного поиска по моделям, который управляет хранением и отображением данных во время работы модели. Репозиторий включает в себя сам фреймворк и два примера из статьи.
🚀Основные моменты:
- Удобный фреймворк для применения к новым доменам.
- Два примера: текстовая классификация и Terminal-Bench 2.
- Оптимизация работы моделей с помощью адаптивных решений.
📌 GitHub: https://github.com/stanford-iris-lab/meta-harness
#python
Meta-Harness — это фреймворк для автоматизированного поиска по моделям, который управляет хранением и отображением данных во время работы модели. Репозиторий включает в себя сам фреймворк и два примера из статьи.
🚀Основные моменты:
- Удобный фреймворк для применения к новым доменам.
- Два примера: текстовая классификация и Terminal-Bench 2.
- Оптимизация работы моделей с помощью адаптивных решений.
📌 GitHub: https://github.com/stanford-iris-lab/meta-harness
#python
❤7
Яндекс Практикум продолжает прием заявок на премию «Сделано с ИИ» - редкий случай, когда можно показать свои рабочие кейсы, собранные с нейросетями.
Формально все выглядит как классическая индустриальная премия: участвовать могут специалисты с опытом до 5 лет, есть две номинации — техно-продуктовая и креативная. В первой смотрят на прикладной эффект: где ИИ реально ускорил процессы, снизил затраты или повлиял на метрики. Во второй — на идеи и то, как нейросеть встроена в саму концепцию решения. Также есть отдельный спецприз для ребят с опытом до двух лет — выберут по одному джуну из каждой категории.
Но важный момент в том, как будут оценивать. Смотрят не только на итоговый результат, но и на саму реализацию: почему выбраны определенные инструменты, как ИИ встроен в продукт или процесс и насколько все это стабильно работает в реальных условиях.
Вот как сформулировал идею конкурса член жюри премии Дима Втулкин (Марком Greencosmetic, кофаундер Креативной лаборатории mads): «Участие в премии позволяет сравнить свой опыт использования нейросетей, с тем, как их применяют в индустрии. Так ты видишь лучшие практики и понимаешь, что всё делаешь правильно. В этой сфере многое держится на личных находках, поэтому важно выходить из кокона смотреть по сторонам».
Заявки принимают до 15 мая. Победители получат деньги, гранты от Yandex AI Studio и возможность обменяться опытом с единомышленниками.
Ознакомиться подробнее и подать заявку
Формально все выглядит как классическая индустриальная премия: участвовать могут специалисты с опытом до 5 лет, есть две номинации — техно-продуктовая и креативная. В первой смотрят на прикладной эффект: где ИИ реально ускорил процессы, снизил затраты или повлиял на метрики. Во второй — на идеи и то, как нейросеть встроена в саму концепцию решения. Также есть отдельный спецприз для ребят с опытом до двух лет — выберут по одному джуну из каждой категории.
Но важный момент в том, как будут оценивать. Смотрят не только на итоговый результат, но и на саму реализацию: почему выбраны определенные инструменты, как ИИ встроен в продукт или процесс и насколько все это стабильно работает в реальных условиях.
Вот как сформулировал идею конкурса член жюри премии Дима Втулкин (Марком Greencosmetic, кофаундер Креативной лаборатории mads): «Участие в премии позволяет сравнить свой опыт использования нейросетей, с тем, как их применяют в индустрии. Так ты видишь лучшие практики и понимаешь, что всё делаешь правильно. В этой сфере многое держится на личных находках, поэтому важно выходить из кокона смотреть по сторонам».
Заявки принимают до 15 мая. Победители получат деньги, гранты от Yandex AI Studio и возможность обменяться опытом с единомышленниками.
Ознакомиться подробнее и подать заявку
👍2🔥2🤔2❤1
Huihui4-8B-A4B-v2 - это легкая MoE-модель для диалогов, оптимизированная на базе архитектуры Google gemma-4-26B-A4B-it.
Разработчики уменьшили модель через pruning экспертов и дообучили ее на качественных диалоговых данных. Датасет использует thinking mode в формате GLM-5.1, поэтому в режиме рассуждения модель лучше имитирует стиль мышления GLM-5.1.
Главная идея - снизить вычислительные затраты, но сохранить базовые способности к reasoning и нормальному диалогу.
Модель рассчитана на запуск на обычном пользовательском железе и особенно ориентирована на code-related conversational tasks.
https://huggingface.co/huihui-ai/Huihui4-8B-A4B-v2
Разработчики уменьшили модель через pruning экспертов и дообучили ее на качественных диалоговых данных. Датасет использует thinking mode в формате GLM-5.1, поэтому в режиме рассуждения модель лучше имитирует стиль мышления GLM-5.1.
Главная идея - снизить вычислительные затраты, но сохранить базовые способности к reasoning и нормальному диалогу.
Модель рассчитана на запуск на обычном пользовательском железе и особенно ориентирована на code-related conversational tasks.
https://huggingface.co/huihui-ai/Huihui4-8B-A4B-v2
😁39🔥5❤4🌭3
🚀 Оптимизированные GPU ядра для LLM
TileKernels предлагает высокопроизводительные GPU ядра, разработанные с использованием TileLang. Проект фокусируется на эффективных операциях для больших языковых моделей, включая маршрутизацию экспертов и квантование, что позволяет достигать максимальной производительности оборудования.
🚀 Основные моменты:
- Высокая производительность для операций LLM
- Поддержка маршрутизации Mixture of Experts
- Квантование с различными форматами
- Удобные высокоуровневые обертки для PyTorch
- Активное улучшение качества кода и документации
📌 GitHub: https://github.com/deepseek-ai/TileKernels
#python
TileKernels предлагает высокопроизводительные GPU ядра, разработанные с использованием TileLang. Проект фокусируется на эффективных операциях для больших языковых моделей, включая маршрутизацию экспертов и квантование, что позволяет достигать максимальной производительности оборудования.
🚀 Основные моменты:
- Высокая производительность для операций LLM
- Поддержка маршрутизации Mixture of Experts
- Квантование с различными форматами
- Удобные высокоуровневые обертки для PyTorch
- Активное улучшение качества кода и документации
📌 GitHub: https://github.com/deepseek-ai/TileKernels
#python
GitHub
GitHub - deepseek-ai/TileKernels: A kernel library written in tilelang
A kernel library written in tilelang. Contribute to deepseek-ai/TileKernels development by creating an account on GitHub.
👍8
This media is not supported in your browser
VIEW IN TELEGRAM
Вайбкодер жгет токены, чтобы запилить калькулятор
😁50❤14🔥5💯4👍1