This media is not supported in your browser
VIEW IN TELEGRAM
Главная проблема Claude Code
По умолчанию у Claude нет долгосрочной памяти:
- каждый запуск - "с чистого листа"
- весь контекст нужно передавать заново
- растут токены
- быстро достигаются лимиты
- агент забывает структуру проекта, решения и предыдущие шаги
Это делает длительную работу с кодом дорогой и неэффективной.
Что делает Claude-Mem
Claude-Mem добавляет слой persistent memory:
- сохраняет важный контекст между сессиями
- восстанавливает знания при следующем запуске
- отправляет в модель только релевантную информацию
По сути, это внешний long-term memory для агента.
Результаты
По заявлению разраьотчиков:
- до 95% меньше токенов на повторных запусках
- до 20x больше tool calls до достижения лимитов
- быстрее старт новых сессий
- меньше повторных объяснений модели
https://github.com/thedotmack/claude-mem
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12👍7🥴6🔥4
⚡️ ChatGPT-5.4 - что уже «утекло»
- 2M токенов контекста + persistent memory
Это уже не просто «длинная история чата», а полноценная работа с огромными кодовыми базами, документами и агентными пайплайнами без постоянного перепромптинга.
- Полноразмерная обработка изображений
Модель якобы умеет работать с PNG, JPEG и WebP без понижения качества.
Это критично для:
- архитектурных чертежей
- плотных UI-скриншотов
- схем и графиков с мелким текстом
- сложной технической документации
Сохранение исходных байтов изображения = меньше потерь информации при анализе.
- Новый speed-priority tier
Отдельный класс скорости. Вероятно - для продакшена, агентов и real-time задач.
Интересный момент - GPT-5.4 «засветился» в pull request’ах публичного репозитория Codex на GitHub.
Упоминания быстро удалили force-push’ами, но скриншоты уже разлетелись.
Prediction markets:
- 55% шанс релиза до апреля 2026
- 74% шанс до июня 2026
Конкуренция давит:
- OpenAI не может замедляться.
- Claude Opus 4.6 вышел с агентными командами и 1M контекстом.
- Anthropic через Claude Code уже доминирует в кодинге.
- DeepSeek V4 тренируется на Huawei-железе вне NVIDIA-экосистемы.
Если 2M контекст подтвердится - это уже другой класс систем:
- полноценные автономные код-агенты
- большие финансовые и юридические пайплайны
- enterprise-документооборот
- сложные multimodal workflow
- 2M токенов контекста + persistent memory
Это уже не просто «длинная история чата», а полноценная работа с огромными кодовыми базами, документами и агентными пайплайнами без постоянного перепромптинга.
- Полноразмерная обработка изображений
Модель якобы умеет работать с PNG, JPEG и WebP без понижения качества.
Это критично для:
- архитектурных чертежей
- плотных UI-скриншотов
- схем и графиков с мелким текстом
- сложной технической документации
Сохранение исходных байтов изображения = меньше потерь информации при анализе.
- Новый speed-priority tier
Отдельный класс скорости. Вероятно - для продакшена, агентов и real-time задач.
Интересный момент - GPT-5.4 «засветился» в pull request’ах публичного репозитория Codex на GitHub.
Упоминания быстро удалили force-push’ами, но скриншоты уже разлетелись.
Prediction markets:
- 55% шанс релиза до апреля 2026
- 74% шанс до июня 2026
Конкуренция давит:
- OpenAI не может замедляться.
- Claude Opus 4.6 вышел с агентными командами и 1M контекстом.
- Anthropic через Claude Code уже доминирует в кодинге.
- DeepSeek V4 тренируется на Huawei-железе вне NVIDIA-экосистемы.
Если 2M контекст подтвердится - это уже другой класс систем:
- полноценные автономные код-агенты
- большие финансовые и юридические пайплайны
- enterprise-документооборот
- сложные multimodal workflow
1🔥29❤11👍9
🔥 Легендарный математик - Дональд Кнут начал свою новую научную работу словами: “Shock! Shock!”
Почему?
Потому что Claude Opus 4.6 решил открытую задачу, над которой Кнут работал несколько недель.
Речь о гипотезе разложения графов из легендарной книги The Art of Computer Programming.
Кнут даже назвал статью в честь ИИ:
“Claude’s Cycles”
Что произошло:
- Claude провёл 31 исследование
- на это ушло примерно 1 час
- Кнут изучил результат
- оформил формальное математическое доказательство
И закончил работу фразой:
> *«Похоже, мне придётся пересмотреть своё мнение о генеративном ИИ.»*
Это сказал человек, который написал библию компьютерных наук.
И назвал научную работу в честь ИИ.
Почитать саму работу можно здесь:
https://cs.stanford.edu/~knuth/papers/claude-cycles.pdf
Почему?
Потому что Claude Opus 4.6 решил открытую задачу, над которой Кнут работал несколько недель.
Речь о гипотезе разложения графов из легендарной книги The Art of Computer Programming.
Кнут даже назвал статью в честь ИИ:
“Claude’s Cycles”
Что произошло:
- Claude провёл 31 исследование
- на это ушло примерно 1 час
- Кнут изучил результат
- оформил формальное математическое доказательство
И закончил работу фразой:
> *«Похоже, мне придётся пересмотреть своё мнение о генеративном ИИ.»*
Это сказал человек, который написал библию компьютерных наук.
И назвал научную работу в честь ИИ.
Почитать саму работу можно здесь:
https://cs.stanford.edu/~knuth/papers/claude-cycles.pdf
1❤35👍14🔥12🤣7💔2🤨2
Бесплатный мастер-класс по практическому ML от karpov.courses × AI Talent Hub
5 марта в 19:00 мск, онлайн
Разберем реальный кейс и соберем бота для расшифровки аудиосообщений.
Всего за час ты:
Спикеры:
→ Эмиль Каюмов
Руководитель ML-команды , экс-руководитель машинного обучения и платформы экспериментов в Яндекс.Еда
→ Юлия Лим
Product Manager программ ДПО AI Talent Hub, ИТМО
➡️ Участие бесплатное, но места ограничены — успей зарегистрироваться до 5 марта
@aitalenthubnews
Реклама. Университет ИТМО ИНН:7813045547
5 марта в 19:00 мск, онлайн
Разберем реальный кейс и соберем бота для расшифровки аудиосообщений.
Всего за час ты:
→ соберешь бота для расшифровки аудиосообщений и увидишь, как из такой задачи вырастает ML-проект
→ решишь задачу классификации и проверки аудиосообщения на спам на основе текста
→ поймешь, в каких случаях в подобных проектах требуется обучение модели
→ разберешься, какие ML-навыки нужны для реализации таких проектов
Спикеры:
→ Эмиль Каюмов
Руководитель ML-команды , экс-руководитель машинного обучения и платформы экспериментов в Яндекс.Еда
→ Юлия Лим
Product Manager программ ДПО AI Talent Hub, ИТМО
➡️ Участие бесплатное, но места ограничены — успей зарегистрироваться до 5 марта
@aitalenthubnews
Реклама. Университет ИТМО ИНН:7813045547
👍3🔥2❤1
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Оптимизация контекста для Claude Code
Context Mode — это сервер MCP, который значительно уменьшает объем данных, поступающих в контекстный буфер Claude Code. Он обрабатывает выводы инструментов, сокращая их размер с 315 КБ до 5.4 КБ, что позволяет сохранить больше информации для взаимодействия.
🚀Основные моменты:
- Сокращение данных на 98% для инструментов.
- Поддержка множества языков программирования.
- Интеграция с существующими инструментами через слэш-команды.
- Эффективная работа с логами и API-ответами.
- Умный поиск по индексированному контенту.
📌 GitHub: https://github.com/mksglu/claude-context-mode
Context Mode — это сервер MCP, который значительно уменьшает объем данных, поступающих в контекстный буфер Claude Code. Он обрабатывает выводы инструментов, сокращая их размер с 315 КБ до 5.4 КБ, что позволяет сохранить больше информации для взаимодействия.
🚀Основные моменты:
- Сокращение данных на 98% для инструментов.
- Поддержка множества языков программирования.
- Интеграция с существующими инструментами через слэш-команды.
- Эффективная работа с логами и API-ответами.
- Умный поиск по индексированному контенту.
📌 GitHub: https://github.com/mksglu/claude-context-mode
❤7🔥4👍3
BullshitBench v2, созданный Питером Гостевым, - это бенчмарк, который проверяет, способны ли модели ИИ распознавать бессмысленные запросы и отказываться на них отвечать, вместо того чтобы уверенно продолжать и «придумывать» ответ.
Только модели Claude от Anthropic и Qwen 3.5 от Alibaba показывают результат выше 60% по распознаванию бессмыслицы.
А модели OpenAI и Google? Застряли на месте и почти не улучшаются.
Еще более неожиданно: модели с усиленным рассуждением (reasoning), которые «думают дольше», на самом деле показывают худшие результаты. Они используют дополнительное вычисление не для того, чтобы отвергнуть бессмысленный запрос, а чтобы рационализировать и оправдать этот абсурд.
🎯Полезные Мл-ресурсы 🚀 Max
https://x.com/petergostev/status/2028492838082666780
Только модели Claude от Anthropic и Qwen 3.5 от Alibaba показывают результат выше 60% по распознаванию бессмыслицы.
А модели OpenAI и Google? Застряли на месте и почти не улучшаются.
Еще более неожиданно: модели с усиленным рассуждением (reasoning), которые «думают дольше», на самом деле показывают худшие результаты. Они используют дополнительное вычисление не для того, чтобы отвергнуть бессмысленный запрос, а чтобы рационализировать и оправдать этот абсурд.
🎯Полезные Мл-ресурсы 🚀 Max
https://x.com/petergostev/status/2028492838082666780
👍12❤9🥰3🔥2
Как DS/ML за 9 месяцев вырасти на 30% в зарплате и выйти на еще более интересные проекты?
Освойте Deep Learning. Голосовые помощники, распознавание лиц, рекомендации в приложениях, медицинская диагностика — нейросети используются уже во всех сферах бизнеса. Компании ищут DL-специалистов, чтобы точнее обучать и настраивать нейросети под свои запросы.
За 9 месяцев вы изучите все актуальные модели последних лет и получите крепкую базу в DL, углубившись в каждое направление.
Что вы освоите:
🕖 Старт обучения — 12 марта, количество мест на поток ограничено
Бронируйте место на курсе прямо сейчас и получите скидку 30%
😶 ПОЛУЧИТЬ СКИДКУ НА КУРС
Освойте Deep Learning. Голосовые помощники, распознавание лиц, рекомендации в приложениях, медицинская диагностика — нейросети используются уже во всех сферах бизнеса. Компании ищут DL-специалистов, чтобы точнее обучать и настраивать нейросети под свои запросы.
За 9 месяцев вы изучите все актуальные модели последних лет и получите крепкую базу в DL, углубившись в каждое направление.
Что вы освоите:
🟠 Создание и обучение нейросетей с нуля🟠 Компьютерное зрение (Computer Vision)🟠 NLP (обработка текста)🟠 Генеративные модели🟠 MLOps и продакшн-подход
🕖 Старт обучения — 12 марта, количество мест на поток ограничено
Бронируйте место на курсе прямо сейчас и получите скидку 30%
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍2😁2🤣2🔥1
Anthropic сейчас приближается к $20 млрд годовой выручки (run rate) - ещё несколько недель назад этот показатель вырос сразу на $5 млрд.
Компания уже выходит на $20 млрд годового дохода, более чем удвоив показатель с $9 млрд в конце 2025 года. Рост обеспечен массовым распространением её AI-моделей и инструментов вроде Claude Code.
Anthropic, оценка которой сейчас составляет около $380 млрд, стремительно набирает популярность: интерес к продуктам компании стал вирусным, а её приложения даже возглавляют чарты загрузок в App Store, обгоняя многие крупные приложения Apple.
https://www.bloomberg.com/news/articles/2026-03-03/anthropic-nears-20-billion-revenue-run-rate-amid-pentagon-feud
Компания уже выходит на $20 млрд годового дохода, более чем удвоив показатель с $9 млрд в конце 2025 года. Рост обеспечен массовым распространением её AI-моделей и инструментов вроде Claude Code.
Anthropic, оценка которой сейчас составляет около $380 млрд, стремительно набирает популярность: интерес к продуктам компании стал вирусным, а её приложения даже возглавляют чарты загрузок в App Store, обгоняя многие крупные приложения Apple.
https://www.bloomberg.com/news/articles/2026-03-03/anthropic-nears-20-billion-revenue-run-rate-amid-pentagon-feud
❤10🔥9❤🔥2👍2🤣2
Когда провайдеры запускают «агентов», пользователи видят красивый интерфейс.
Инженеры видят ад.
Потому что агентские сценарии — это не «запрос-ответ». Это:
- длинные диалоги с историей
- вызов внешних инструментов (поиск, интерпретация кода, внешние приложения)
- гигабайты промежуточных данных между шагами
Если просто «поднять контейнер на GPU» — TTFT (время до первого токена) поплывёт, TBT (время между токенами) просядет, и агент будет тормозить на ровном месте.
Что с этим делают
Yandex AI Studio, например, на днях запустила инференс DeepSeek V3.2 и при этом полностью пересобрала инфраструктуру.
Внедрили разделение prefill/decode:
- prefill-ноды — быстрый прогон длинных контекстов
- decode-ноды — стабильная генерация с низкой задержкой
Это потребовало научиться передавать KV-кэши между серверами в реальном времени. Помимо прочего сбалансировали запросы с учётом «сессионности» и выстроить иерархию KV-кэшей от HBM GPU до распределённой памяти и/или NVMe.
Безопасность и тарификация
- Управляемые правила модерации ответов модели
- Доступ к моделям через частные эндпоинты по выделенному сетевому каналу для работы без выхода в публичный интернет
Новая тарификация:
- токены инструментов и кэширования — в 4 раза дешевле обычных входящих
- чем длиннее сессия, тем выгоднее
Потому что платить стоит не за факт обращения к модели, а за новую вычисленную информацию.
Всё остальное можно и нужно кэшировать.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4❤3🥰2🤣2👍1