Главная боль от параллельного использования нескольких AI
У многих сейчас в использовании сразу несколько независимых AI инструментов. Например, у меня для личного пользования ChatGPT. Для ведения канала — OpenClaw. Для работы — Claude Code. А для серфинга в интернете — AI браузер Comet.Да, мне уже самому страшно, сколько AI я использую, но не об этом…
Главная боль — все эти AI агенты в душе ничего не знают друг о друге и уж тем более никак не обмениваются знаниями. А это значит, чтобы в браузере Comet, например, «обсудить» что-то с AI ассистентом по тематике моего канала, когда я наткнулся на интересный сервис или новость, — мне нужно либо вручную закинуть в Comet необходимый контекст из OpenClaw! Либо, наоборот, скопировать нужную ссылку из Comet и закинуть ее в OpenClaw, и продолжить там.
В общем, нифига не бесшовно получается🫠
Но есть решение*
Memdex — это локальный агрегатор памяти из разных AI агентов.
Работает просто.
- Устанавливаете расширение в браузер на базе chromium
- Memdex впитывает память из разных агентов
- В следующий раз когда вы пишете что-то в любом из AI — Memdex оценивает, что из его уже агрегированной памяти относится к этому запросу и обогащает его налету
- AI получает вместе с вашим запросом нужный контекст и отвечает так, как будто вы раньше уже обсуждали с ним эту тему
* Есть один существенный минус
Работает это все только через браузер🫣 То есть вам нужно пользоваться всеми AI именно через браузер. И хотя я знаю людей, которые итак пользуются всем AI только через браузеры — по мне так это существенный барьер.
Так что вот вам идея для стартапа — сделайте так же, но с интеграцией в приложения и заберите мои деньги💸
Заместители
У многих сейчас в использовании сразу несколько независимых AI инструментов. Например, у меня для личного пользования ChatGPT. Для ведения канала — OpenClaw. Для работы — Claude Code. А для серфинга в интернете — AI браузер Comet.
Главная боль — все эти AI агенты в душе ничего не знают друг о друге и уж тем более никак не обмениваются знаниями. А это значит, чтобы в браузере Comet, например, «обсудить» что-то с AI ассистентом по тематике моего канала, когда я наткнулся на интересный сервис или новость, — мне нужно либо вручную закинуть в Comet необходимый контекст из OpenClaw! Либо, наоборот, скопировать нужную ссылку из Comet и закинуть ее в OpenClaw, и продолжить там.
В общем, нифига не бесшовно получается
Но есть решение*
Memdex — это локальный агрегатор памяти из разных AI агентов.
Работает просто.
- Устанавливаете расширение в браузер на базе chromium
- Memdex впитывает память из разных агентов
- В следующий раз когда вы пишете что-то в любом из AI — Memdex оценивает, что из его уже агрегированной памяти относится к этому запросу и обогащает его налету
- AI получает вместе с вашим запросом нужный контекст и отвечает так, как будто вы раньше уже обсуждали с ним эту тему
* Есть один существенный минус
Работает это все только через браузер
Так что вот вам идея для стартапа — сделайте так же, но с интеграцией в приложения и заберите мои деньги
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1 8❤7👍6🔥1 1 1
Игры AI разума: Claude Opus 4.6 узнала, что ее тестируют и схитрила
Anthropic прогоняли модель через BrowseComp — бенчмарк по поиску труднонаходимой информации в сети. Моделька долго искала информацию, прямо ооочень долго, прямо все перерыла... изадолбалась у нее закончились гипотезы по поиску.
Недолго думая, она решила сменить тактику и предположила, что она проходит какой-то тест:
С первого раза не угадала с бенчмарком, но потом пошла просто методом перебора. И одной из гипотез был BrowseComp.
В процессе она наткнулась на проблему — ответы на тестовые вопросы хранятся в сети в закодированном виде. Но модельку это не остановило:
• она пошла на гитхаб с исходным кодом бенчмарка, где нашла скрипт для декодирования
• потом пошла на HuggingFace — нашла нужный датасет в более удобном для чтения формате (JSON вместо бинарника)
• декодировала все вопросы и ответы и достала нужный ответ.
Впечатляет😈
И вызывает два философских размышления:
1. Это наглядный пример, как далеко готовы пойти современные ИИ агенты, чтобы выполнить поставленную задачу. Они могут прибегать к нетривиальным подходам и не сдаются даже после ооочень долгого поиска ответа, когда кажется, что задача нерешаемая. И это круто! Это значит, что модели будут "думать" нешаблонно, помогать нам двигать науку вперед там, где мы могли попасть в тупик. Однако обратная сторона медали — пути достижения поставленных целей могут потенциально нарушать законы, правила, нормы морали и тд. Ведь это может оказаться наиболее эффективным и коротким способом.
2. Модели становится все сложнее тестировать. Как только у них появляется доступ к тулам и интернету — появляется вероятность, что модель найдет такие вот читкоды. Больше того модель начинает "понимать", что ее тестируют. Она узнает паттерны, которые используются в тестовых вопросов (например, нет персональных данных, сложная многоуровневая структура вопроса и тд). И тогда активнее начинает пытаться "взломать" этот тест.
Пока что это просто интересные находки разработчиков Claude. Но через них мы подглядываем в будущее. LLM будут дальше тренироваться именно на достижение целей, будут становится больше, будут иметь больше тулов. И тогда они будут еще более автономными и изобретательными. Куда это нас приведет?
Думаю, ответ сформулировал Андрей Карпатый в предисловии к своему новому репозиторию, где он сделал агента, который занимается авторисерчем по обучению и улучшению LLM:
Заместители
Anthropic прогоняли модель через BrowseComp — бенчмарк по поиску труднонаходимой информации в сети. Моделька долго искала информацию, прямо ооочень долго, прямо все перерыла... и
Недолго думая, она решила сменить тактику и предположила, что она проходит какой-то тест:
Let me try a completely new approach — maybe this is a question from the GAIA benchmark dataset, which is designed to test AI agents.
С первого раза не угадала с бенчмарком, но потом пошла просто методом перебора. И одной из гипотез был BrowseComp.
В процессе она наткнулась на проблему — ответы на тестовые вопросы хранятся в сети в закодированном виде. Но модельку это не остановило:
• она пошла на гитхаб с исходным кодом бенчмарка, где нашла скрипт для декодирования
• потом пошла на HuggingFace — нашла нужный датасет в более удобном для чтения формате (JSON вместо бинарника)
• декодировала все вопросы и ответы и достала нужный ответ.
Впечатляет
И вызывает два философских размышления:
1. Это наглядный пример, как далеко готовы пойти современные ИИ агенты, чтобы выполнить поставленную задачу. Они могут прибегать к нетривиальным подходам и не сдаются даже после ооочень долгого поиска ответа, когда кажется, что задача нерешаемая. И это круто! Это значит, что модели будут "думать" нешаблонно, помогать нам двигать науку вперед там, где мы могли попасть в тупик. Однако обратная сторона медали — пути достижения поставленных целей могут потенциально нарушать законы, правила, нормы морали и тд. Ведь это может оказаться наиболее эффективным и коротким способом.
2. Модели становится все сложнее тестировать. Как только у них появляется доступ к тулам и интернету — появляется вероятность, что модель найдет такие вот читкоды. Больше того модель начинает "понимать", что ее тестируют. Она узнает паттерны, которые используются в тестовых вопросов (например, нет персональных данных, сложная многоуровневая структура вопроса и тд). И тогда активнее начинает пытаться "взломать" этот тест.
Пока что это просто интересные находки разработчиков Claude. Но через них мы подглядываем в будущее. LLM будут дальше тренироваться именно на достижение целей, будут становится больше, будут иметь больше тулов. И тогда они будут еще более автономными и изобретательными. Куда это нас приведет?
Думаю, ответ сформулировал Андрей Карпатый в предисловии к своему новому репозиторию, где он сделал агента, который занимается авторисерчем по обучению и улучшению LLM:
Однажды передовые исследования ИИ выполнялись «мясными компьютерами» — между приёмами пищи, сном, другими развлечениями и редкой синхронизацией через звуковой интерфейс в ритуале под названием «групповая встреча». Та эпоха давно прошла...
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤12🔥9😱5👍1 1 1
This media is not supported in your browser
VIEW IN TELEGRAM
Perplexity Personal Computer — почти AI операционная система
Perplexity анонсировали Personal Computer, наследника Perplexity Computer. И выглядит это очень круто!
Информации пока мало, но вот, что известно☀️
• Perplexity Computer устанавливается локально на стационарный Mac. Устанавливается именно приложенька, которая нативно пробрасывает интеграции между Perplexity Computer в облаке с вашей локальной ОС. Все вычисления происходят все еще в облаке.
• Установленная приложенька дает агенту доступ к локальным файлам, приложениям и в целом управлению вашим Mac.
• Управлять приложением с агентом можно откуда угодно, даже с телефона. А выполняться действия будут у вас на Маке.
• UX явно будет на высоте, приложенька будет выглядеть как естественное продолжение MacOS.
• Все, что уже было круто в Perplexity Computer остается: мультимодельность, более 400 коннектеров, голосовое управление, параллельное асинхронное выполнение нескольких задач.
• Есть красная кнопка (kill switch), которая экстренно вырубает агента, если он начал творить неконтролируемую дичь.
На выходе — это агент, который еще на шажок ближе к Джарвис на яву (полноценной AI OS). Посмотрим, насколько будет глубокая интеграция с MacOS. Пока что это немного лучше Claude Code/Cowork или OpenClaw. Но если агент переплексити сольется в экстазе с Маком, и на выходе мы получим тот самый умный Мак, который нам давное обещает Apple, только лучше — это будет победа!
Ведь сам по себе Мак — это не просто локальный сервак, а еще и коннектор с внешним физическим миром (флешки, принтеры, умный дом, другие устройства Apple). Огромная дыра в безопасности, но и огромный потенциал для использования агентов!😏
Ну что, записываемся в waitlist и все-таки заказываем Mac mini?🍷
Заместители
Perplexity анонсировали Personal Computer, наследника Perplexity Computer. И выглядит это очень круто!
Информации пока мало, но вот, что известно
• Perplexity Computer устанавливается локально на стационарный Mac. Устанавливается именно приложенька, которая нативно пробрасывает интеграции между Perplexity Computer в облаке с вашей локальной ОС. Все вычисления происходят все еще в облаке.
• Установленная приложенька дает агенту доступ к локальным файлам, приложениям и в целом управлению вашим Mac.
• Управлять приложением с агентом можно откуда угодно, даже с телефона. А выполняться действия будут у вас на Маке.
• UX явно будет на высоте, приложенька будет выглядеть как естественное продолжение MacOS.
• Все, что уже было круто в Perplexity Computer остается: мультимодельность, более 400 коннектеров, голосовое управление, параллельное асинхронное выполнение нескольких задач.
• Есть красная кнопка (kill switch), которая экстренно вырубает агента, если он начал творить неконтролируемую дичь.
На выходе — это агент, который еще на шажок ближе к Джарвис на яву (полноценной AI OS). Посмотрим, насколько будет глубокая интеграция с MacOS. Пока что это немного лучше Claude Code/Cowork или OpenClaw. Но если агент переплексити сольется в экстазе с Маком, и на выходе мы получим тот самый умный Мак, который нам давное обещает Apple, только лучше — это будет победа!
Ведь сам по себе Мак — это не просто локальный сервак, а еще и коннектор с внешним физическим миром (флешки, принтеры, умный дом, другие устройства Apple). Огромная дыра в безопасности, но и огромный потенциал для использования агентов!
Ну что, записываемся в waitlist и все-таки заказываем Mac mini?
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9☃2❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Claude-duet — так выглядит крепкая мужская дружба 😈
Claude Code принято считать персональным ассистентом. Но иногда хочется потыкать клод вместе со своим бро. Представьте ситуацию, что вы работаете над амбициозным проектом вместе со своим партнером, кофаундером, коллегой или просто хотите научить свого бро пользоваться Claude Code.
Обычный гитхаб не решает эту задачу — туда попадает уже написанный и проверенный код / документы. То есть ваш товарищ будет видеть все результаты уже постфактум. А как разделить управление клодом?
Выход есть
Claude Duet — опенсорсный проект, который позволяет двум разработчикам разделить самое сокральное — сессию Claude Code. Ваш терминал превращается в чат на троих: два разраба и клод. Переписка между кожанными происходит как в мессенджере, а тег @claude задает промпт для клода.
Запускается все супер просто
1. Во-первых, у вас должен быть установлен и оплачен клод код.
2. Дальше вы запускаете сессию у себя:
3. Клод дует оправляет вам комманду для присоединения в сессию — скидываете ее товарищу.
4. Он запускает команду у себя — вуаля! Он подключается к вашей сессии.
5. Вуаля! Теперь вы вместе наставляете клод код в терминале и видите все промежуточные результаты выполнения задач😎
При этом хост сессии может контролировать промпты от второго юзера в свой клод (все-таки кто клод оплачивает — тот его и танцует).
Весч не необходимая, но иногда может быть весьма полезной. К тому же бесплатная — такое мы одобряем❤️
Заместители
Claude Code принято считать персональным ассистентом. Но иногда хочется потыкать клод вместе со своим бро. Представьте ситуацию, что вы работаете над амбициозным проектом вместе со своим партнером, кофаундером, коллегой или просто хотите научить свого бро пользоваться Claude Code.
Обычный гитхаб не решает эту задачу — туда попадает уже написанный и проверенный код / документы. То есть ваш товарищ будет видеть все результаты уже постфактум. А как разделить управление клодом?
Выход есть
Claude Duet — опенсорсный проект, который позволяет двум разработчикам разделить самое сокральное — сессию Claude Code. Ваш терминал превращается в чат на троих: два разраба и клод. Переписка между кожанными происходит как в мессенджере, а тег @claude задает промпт для клода.
Запускается все супер просто
1. Во-первых, у вас должен быть установлен и оплачен клод код.
2. Дальше вы запускаете сессию у себя:
npx claude-duet host3. Клод дует оправляет вам комманду для присоединения в сессию — скидываете ее товарищу.
4. Он запускает команду у себя — вуаля! Он подключается к вашей сессии.
5. Вуаля! Теперь вы вместе наставляете клод код в терминале и видите все промежуточные результаты выполнения задач
При этом хост сессии может контролировать промпты от второго юзера в свой клод (все-таки кто клод оплачивает — тот его и танцует).
Весч не необходимая, но иногда может быть весьма полезной. К тому же бесплатная — такое мы одобряем
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥6 6❤5 3 1
Media is too big
VIEW IN TELEGRAM
AI помог создать вакцину от рака для собаки
Вот за это я и люблю технологии и AI, в частности! Это тот самый случай, после которого не остается вопросов, зачем мы тут все мучаемся со всякими алгоритмами и нейросетками!
Собакену по имени Рози в 2019 году из приюта Сиднея в Австралии забрал техно предприниматель Пол Конингхам (Paul Conyngham). Вместе они прошли долгий путь, но в возрасте 8 лет собачка заболела раком. Зараза быстро прогрессировала и не поддавалась классическому лечению — химия и хирургия только замедляли рак. Классическая медицина была беспомощна, но хозяин Рози не сдался!
Он набрейнштормил вместе с ChatGPT идею сделать вакцину специфичную против рака, которым болеет Рози.
И вот что он сделал дальше:
1. Он отвел собачку на взятие образцов опухоли и крови.
2. Отправил оба образца на секвенирование генома в Ramaciotti Centre for Genomics at the University of NSW. Это широко доступная, хоть и недешевая процедура, которая, по сути возвращает набор буквоцифр, обозначающих конкретную генетическую последовательность. Самое сложное потом расшифровать полученную последовательность.
3. Пол с помощью разных алгоритмов сравнил две последовательности: опухоль vs здоровая кровь. Разница между ними — это и был мутировавший ген, отвечающий за развитие рака.
4. Дальше Пол воспользовался проектом AlphaFold от Google DeepMind. Это лучшая из существующих нейросеток для анализа протеинов. Она бесплатна и открыта для всех. Поэтому доступ был и у Пола в том числе. С помощью этой сетки он нашел, какие протеины были ответственны за мутацию у Рози, и сопоставил их с нужным лекарством.
5. С полученным «кодом» нужного лекарства — он снова пришел в UNSW, где ему помогли сделать мРНК вакцину (это молекула, которая «инструктирует» клетки создавать специфические протеины, которые борются с конкретным раком) для Рози.
6. Наконец собачку вакцинировали. Потом ещё раз и ещё раз. Было проведено несколько вакцинаций, чтобы усилить эффект.
И чудо случилось! Спустя 6 недель собакена уже снова была в игривом настроении, а опухоли уменьшились вдвое! К сожалению, собачка выздоровела не полностью — одна опухоль не отреагировала на первую вакцину. Но Пол уже занимается второй вакциной против нее.
Пока я читал эту статью — переживал за Рози, как за свою собаку❤️ Надеюсь, со второй вакциной все получится!
Но что дальше?
Во-первых, Пол протянул руку помощи всем собакенам, кто болеет раком. Любой желающий может заполнить гугл форму, чтобы попробовать поучаствовать в программе со своим питомцем.
Во-вторых, это взбучка для всего мира — если вакцину смог сделать простой айтишник из Австралии, почему это не могут делать все? Это демократизация создания персонализированных вакцин!
В-третьих, а если так можно для собак — что мешает повторить это с людьми?🥤
Мы живем с вами в поистине потрясающее время!
Заместители
Вот за это я и люблю технологии и AI, в частности! Это тот самый случай, после которого не остается вопросов, зачем мы тут все мучаемся со всякими алгоритмами и нейросетками!
Собакену по имени Рози в 2019 году из приюта Сиднея в Австралии забрал техно предприниматель Пол Конингхам (Paul Conyngham). Вместе они прошли долгий путь, но в возрасте 8 лет собачка заболела раком. Зараза быстро прогрессировала и не поддавалась классическому лечению — химия и хирургия только замедляли рак. Классическая медицина была беспомощна, но хозяин Рози не сдался!
Он набрейнштормил вместе с ChatGPT идею сделать вакцину специфичную против рака, которым болеет Рози.
И вот что он сделал дальше:
1. Он отвел собачку на взятие образцов опухоли и крови.
2. Отправил оба образца на секвенирование генома в Ramaciotti Centre for Genomics at the University of NSW. Это широко доступная, хоть и недешевая процедура, которая, по сути возвращает набор буквоцифр, обозначающих конкретную генетическую последовательность. Самое сложное потом расшифровать полученную последовательность.
3. Пол с помощью разных алгоритмов сравнил две последовательности: опухоль vs здоровая кровь. Разница между ними — это и был мутировавший ген, отвечающий за развитие рака.
4. Дальше Пол воспользовался проектом AlphaFold от Google DeepMind. Это лучшая из существующих нейросеток для анализа протеинов. Она бесплатна и открыта для всех. Поэтому доступ был и у Пола в том числе. С помощью этой сетки он нашел, какие протеины были ответственны за мутацию у Рози, и сопоставил их с нужным лекарством.
5. С полученным «кодом» нужного лекарства — он снова пришел в UNSW, где ему помогли сделать мРНК вакцину (это молекула, которая «инструктирует» клетки создавать специфические протеины, которые борются с конкретным раком) для Рози.
6. Наконец собачку вакцинировали. Потом ещё раз и ещё раз. Было проведено несколько вакцинаций, чтобы усилить эффект.
И чудо случилось! Спустя 6 недель собакена уже снова была в игривом настроении, а опухоли уменьшились вдвое! К сожалению, собачка выздоровела не полностью — одна опухоль не отреагировала на первую вакцину. Но Пол уже занимается второй вакциной против нее.
Пока я читал эту статью — переживал за Рози, как за свою собаку
Но что дальше?
Во-первых, Пол протянул руку помощи всем собакенам, кто болеет раком. Любой желающий может заполнить гугл форму, чтобы попробовать поучаствовать в программе со своим питомцем.
Во-вторых, это взбучка для всего мира — если вакцину смог сделать простой айтишник из Австралии, почему это не могут делать все? Это демократизация создания персонализированных вакцин!
В-третьих, а если так можно для собак — что мешает повторить это с людьми?
Мы живем с вами в поистине потрясающее время!
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
11❤23🔥8 4🥰1 1
Кейс из личной практики: Claude Code + Chrome = 🚀
Продолжаю удивляться тому, на что способен Claude Code. Уже никого не удивишь тем, что он может накодить приложение или сайт с нуля. Но как насчет "реверс-инжиниринга" через Chrome?
Кейс
Есть корпоративная CRM система. В ней куча данных, которые показываются в преднастроенных отчетах. Очень монструозная и негибкая штука.
Заказчик резко начинает хотеть с ней "говорить" на естественном языке, да ещё и смешивать данные из разных отчетов. Система кастомная и совершенно под это не заточена. А за счет своего размера — адаптировать ее заняло бы месяцы. Что делать?
Правильный путь — спроектировать консистентные датамарты, сделать семантический слой с описанием всех данных, написать MCP сервер поверх этой системы на основе ее API.
Реальность — времени на это нет. Нужно навайбкодить proof of concept!
Ok, это заняло 3 часа😎
1. Устанавливаем Claude расширение в браузер Chrome и настраиваем коннектор с Chrome в Claude Code.
2. Даем ссылку на UI нашей CRMки клоду и просим его внимательно изучить архитектуру, API запросы под капотом и на основе этого спроектировать MCP сервер. Причем никаких пояснений к системе не требуется, даже на swagger ссылка не нужна.
3. 20 минут Opus тыкает интерфейс, читает запросы и внимательно изучает метрики, настройки, фильтры и группировки и тд. Результат записывает в MD файл. Туда же он пишет предлагаемую архитектуру MCP.
4. Далее просим Claude написать MCP сервер по полученному файлу и локально его задеплоить.
5. Профит! Спустя пару часов получаем рабочий MCP сервер поверх системы, которая для этого никогда не строилась.
6. Дальше Claude прописывает себе этот MCP как тул. И вот уже из дефолтного приложения Claude мы можем естественным языком задавать вопросы к данным в CRMке. А тк это делает клод — то поверх этих данных есть возможность строить графики, интерактивные визуализации, дашборды и отчеты. Бесконечная гибкость.
Все это без привлечения разработчиков и написания единой строчки кода руками.
В общем, с расширением в Chrome, Claude — просто машина💪
Заместители
Продолжаю удивляться тому, на что способен Claude Code. Уже никого не удивишь тем, что он может накодить приложение или сайт с нуля. Но как насчет "реверс-инжиниринга" через Chrome?
Кейс
Есть корпоративная CRM система. В ней куча данных, которые показываются в преднастроенных отчетах. Очень монструозная и негибкая штука.
Заказчик резко начинает хотеть с ней "говорить" на естественном языке, да ещё и смешивать данные из разных отчетов. Система кастомная и совершенно под это не заточена. А за счет своего размера — адаптировать ее заняло бы месяцы. Что делать?
Правильный путь — спроектировать консистентные датамарты, сделать семантический слой с описанием всех данных, написать MCP сервер поверх этой системы на основе ее API.
Реальность — времени на это нет. Нужно навайбкодить proof of concept!
Ok, это заняло 3 часа
1. Устанавливаем Claude расширение в браузер Chrome и настраиваем коннектор с Chrome в Claude Code.
2. Даем ссылку на UI нашей CRMки клоду и просим его внимательно изучить архитектуру, API запросы под капотом и на основе этого спроектировать MCP сервер. Причем никаких пояснений к системе не требуется, даже на swagger ссылка не нужна.
3. 20 минут Opus тыкает интерфейс, читает запросы и внимательно изучает метрики, настройки, фильтры и группировки и тд. Результат записывает в MD файл. Туда же он пишет предлагаемую архитектуру MCP.
4. Далее просим Claude написать MCP сервер по полученному файлу и локально его задеплоить.
5. Профит! Спустя пару часов получаем рабочий MCP сервер поверх системы, которая для этого никогда не строилась.
6. Дальше Claude прописывает себе этот MCP как тул. И вот уже из дефолтного приложения Claude мы можем естественным языком задавать вопросы к данным в CRMке. А тк это делает клод — то поверх этих данных есть возможность строить графики, интерактивные визуализации, дашборды и отчеты. Бесконечная гибкость.
Все это без привлечения разработчиков и написания единой строчки кода руками.
В общем, с расширением в Chrome, Claude — просто машина
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥34 6 3❤2 2👍1
Kaggle запустил бесплатную площадку для проведения хакатонов
Теперь любой желающий может провести свой Community Hackathon прямо на привычной для всех уважающих себя датасаентистов платформе!
Для тех, кто не знаком с концепцией хакатона в мире AI — это соревнование между AI разработчиками — кто сделает модельку круче и выбьет самые высокие метрики на закрытом тестовом датасете.
Kaggle дает готовую инфраструктуру для запуска хакатона:
• Хакатон можно сделать публичным или частным.
• Можно назначить приз до $10,000, мерч или провести без приза.
• Платформа дает загрузить необходимый датасет и модели.
• Можно пригласить судей.
• Ну и механика лидербордов и форум для обсуждения тоже предоставляется Кэглом.
• Все это бесплатно☀️
Вот сходу несколько идей, зачем вам проводить хакатон, когда это стало так просто сделать:
• Хакатон для школьников или студентов вместо экзаменов! Настоящее обучение через практику.
• Корпоративный хакатон, чтобы мотивировать попробовать новые SOTA подходы внутри компании.
• Хакатон как способ отбора кандидатов на DS позиции и для развития HR бренда.
Я был судьей на парочке хакатонов в РФ, и хочу сказать, что площадка для проведения — это всегда больное место. Вечно вопрос где взять площадку, а когда площадка находится — возникают технические косяки. А хакатон вообще без нормальной онлайн площадки (когда деняк на нее нет) всегда выглядит позорненько. Мол, хотите чтобы участники тут самые передовые подходы пробовали, а сами — для загрузки результата яндекс-форму даете и лидерборд в эксель табличке вывешиваете👀
Поэтому это по-настоящему щедрый подгон от Kaggle. Пользуем!
Заместители
Теперь любой желающий может провести свой Community Hackathon прямо на привычной для всех уважающих себя датасаентистов платформе!
Для тех, кто не знаком с концепцией хакатона в мире AI — это соревнование между AI разработчиками — кто сделает модельку круче и выбьет самые высокие метрики на закрытом тестовом датасете.
Kaggle дает готовую инфраструктуру для запуска хакатона:
• Хакатон можно сделать публичным или частным.
• Можно назначить приз до $10,000, мерч или провести без приза.
• Платформа дает загрузить необходимый датасет и модели.
• Можно пригласить судей.
• Ну и механика лидербордов и форум для обсуждения тоже предоставляется Кэглом.
• Все это бесплатно
Вот сходу несколько идей, зачем вам проводить хакатон, когда это стало так просто сделать:
• Хакатон для школьников или студентов вместо экзаменов! Настоящее обучение через практику.
• Корпоративный хакатон, чтобы мотивировать попробовать новые SOTA подходы внутри компании.
• Хакатон как способ отбора кандидатов на DS позиции и для развития HR бренда.
Я был судьей на парочке хакатонов в РФ, и хочу сказать, что площадка для проведения — это всегда больное место. Вечно вопрос где взять площадку, а когда площадка находится — возникают технические косяки. А хакатон вообще без нормальной онлайн площадки (когда деняк на нее нет) всегда выглядит позорненько. Мол, хотите чтобы участники тут самые передовые подходы пробовали, а сами — для загрузки результата яндекс-форму даете и лидерборд в эксель табличке вывешиваете
Поэтому это по-настоящему щедрый подгон от Kaggle. Пользуем!
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
5🔥5 3👍1 1 1
Компания переклеила шильдик у китайской технологии и продала как свою…
И это точно не та компания, о которой вы подумали — это сделали разработчики Cursor…
Cursor на днях выкатили новую модель Composer 2. Делали сравнения с GPT и Opus, пиарили как свою модель. А потом один юзер перехватил вызов из Cursor к этой модели, а там
😂
То есть ребята просто дообучили опенсорсную китайскую модельку от Moonshot AI и позорненько это попытались спрятать (хотя лицензия Kimi требует в явном виде указывать использование их модели).
Вот круг и замкнулся: китайские модели (DeepSeek) дистиллируются из ChatGPT, а американские модели обучаются на опенсорсных китайских моделях.
Международные лучшие практики🤡
Заместители
И это точно не та компания, о которой вы подумали — это сделали разработчики Cursor…
Cursor на днях выкатили новую модель Composer 2. Делали сравнения с GPT и Opus, пиарили как свою модель. А потом один юзер перехватил вызов из Cursor к этой модели, а там
accounts/anysphere/models/kimi-k2p5-rl-0317-s515-fast То есть ребята просто дообучили опенсорсную китайскую модельку от Moonshot AI и позорненько это попытались спрятать (хотя лицензия Kimi требует в явном виде указывать использование их модели).
Вот круг и замкнулся: китайские модели (DeepSeek) дистиллируются из ChatGPT, а американские модели обучаются на опенсорсных китайских моделях.
Международные лучшие практики
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
2🙈11 8🤡4❤3 3 1
NemoClaw от NVIDIA: ваш OpenClaw с энтерпрайз уровнем безопасности из коробки
Если вы думали, что хайп на OpenClaw уже сошел на нет — вы сильно заблуждаетесь. В Китае в самом разгаре мощнейший хайп на установку OpenClaw даже школьниками и пенсионерами. Поэтому крупные компании, типа NVIDIA продолжают делать ставку на развитие лобстера.
В связи с чем NVIDIA выпустила NemoClaw — свою сборку OpenClaw на NVIDIA OpenShell.😎
Я рассказывал раньше, как шустрые умные ребята пилят сервис nono.sh. Так вот NVIDIA тоже подошла к этой задаче со всей серьезностью.
И хотя nono местами остается даже более секьюрным решением (например, есть возможность инжектить API ключи в обход LLM, и возможность установить правила, которые нельзя расширить в рамках самого рантайма), они по факту очень похожи и оба имеют высокий уровень безопасности на уровня ядра. При этом NVIDIA умело берет своей "платформенностью".
Во-первых, и это самое важное, они собрали воедино безопасность и агента в контейнере. То есть сетап лобстера происходит сразу с правильными настройками безопасности в рамках контейнера. Это избавляет юзера от головной боли с настройками безопасности.
Во-вторых, такой сетап дает масштабируемость и портативность. Один агент = один контейнер. Хочешь — делаешь 10 контейнеров, в каждом свой агент. Хочешь — перемещаешь этого агента вместе с контейнером на новый сервер.
В-третьих, у вас глубокий контроль за секьюрностью. Она обеспечивается через NVIDIA OpenShell. Это выделенная песочница для AI агентов (sandbox), где доступы настраиваются через YAML файл, в котором в явном виде прописывается вайтлист (теперь очень знакомое всем слово...) команд, которые могут исполняться.
Наконец, из коробки предлагается запускать лобстера на одной из кучи моделек, которые дистрибутирует NVIDIA. Там есть много моделек в облаке с free tier доступом. Там конечно же есть Nemotron 3 Super 120B, есть Qwen, GLM и другие модели.
Почему всем этим занимается NVIDIA? Ответ простой: больше AI агентов онлайн — больше спрос на их видеокарты😈
А для нас — это еще один шажок в строну массового использования AI агентов. Так что нас все устраивает☀️
#заместители
Заместители
Если вы думали, что хайп на OpenClaw уже сошел на нет — вы сильно заблуждаетесь. В Китае в самом разгаре мощнейший хайп на установку OpenClaw даже школьниками и пенсионерами. Поэтому крупные компании, типа NVIDIA продолжают делать ставку на развитие лобстера.
В связи с чем NVIDIA выпустила NemoClaw — свою сборку OpenClaw на NVIDIA OpenShell.
Я рассказывал раньше, как шустрые умные ребята пилят сервис nono.sh. Так вот NVIDIA тоже подошла к этой задаче со всей серьезностью.
И хотя nono местами остается даже более секьюрным решением (например, есть возможность инжектить API ключи в обход LLM, и возможность установить правила, которые нельзя расширить в рамках самого рантайма), они по факту очень похожи и оба имеют высокий уровень безопасности на уровня ядра. При этом NVIDIA умело берет своей "платформенностью".
Во-первых, и это самое важное, они собрали воедино безопасность и агента в контейнере. То есть сетап лобстера происходит сразу с правильными настройками безопасности в рамках контейнера. Это избавляет юзера от головной боли с настройками безопасности.
Во-вторых, такой сетап дает масштабируемость и портативность. Один агент = один контейнер. Хочешь — делаешь 10 контейнеров, в каждом свой агент. Хочешь — перемещаешь этого агента вместе с контейнером на новый сервер.
В-третьих, у вас глубокий контроль за секьюрностью. Она обеспечивается через NVIDIA OpenShell. Это выделенная песочница для AI агентов (sandbox), где доступы настраиваются через YAML файл, в котором в явном виде прописывается вайтлист (теперь очень знакомое всем слово...) команд, которые могут исполняться.
Наконец, из коробки предлагается запускать лобстера на одной из кучи моделек, которые дистрибутирует NVIDIA. Там есть много моделек в облаке с free tier доступом. Там конечно же есть Nemotron 3 Super 120B, есть Qwen, GLM и другие модели.
Почему всем этим занимается NVIDIA? Ответ простой: больше AI агентов онлайн — больше спрос на их видеокарты
А для нас — это еще один шажок в строну массового использования AI агентов. Так что нас все устраивает
#заместители
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
2❤9🔥5👍2🌚1🍓1 1 1
Из личного опыта: 10 пунктов как реально меняется корпоративная жизнь с внедрением Claude
Давайте честно, по-человечески разберемся, как реально меняется работа и ощущения от нее с внедрением Claude Code / Cowork😎
Буду рассказывать из собственного опыта AI Product Owner.
1. Реально >50% рабочего времени я сижу в интерфейсе Claude Code или Cowork.
2. Накидать идею на слайдах — больше не канает. Перед тем как питчить идею руководству — я как продакт должен сам (или с помощью бизнес-аналитика!) на коленке собрать работающий proof of concept. Это делается в Claude Code, конечно. Это становится одной из моих основных задач.
3. Работа с Jira / Confluence ведется через Claude Cowork.
4. Работа разработчиков смещается из операционки в архитектурное планирование и рисерч. Большинство также >50% работы делают через Claude Code. Но не все, конечно. За Клодом нужно проверять, да и есть ограничения по секьюрности.
5. Скорости растут на порядок. Раньше доставить новую фичу в интерфейсе за месяц было ОК. Теперь за месяц ожидается доставка сложной комплексной логики, да еще и с AI моделями.
6. Узким местом остается продуктивизация. Легко набрасывать MVP. Сложно и долго их имплементировать в уже работающую большую систему в продакшене.
7. Работы стало больше. Claude зачастую все еще не имеет всей полноты контекста, чтобы забирать на себя процессы. Да и просто процессы не готовы к этому. Поэтому появилась нагрузка по подготовке процессов под автоматизацию с помощью того же Клода или других агентов. При этом не забываем, что скорости выросли -> фичей ждут больше и быстрее😐
8. Профессии смешиваются. Узкоспециализированные позиции уходят в небытие. Claude дает компетенции всем во всем по-немногу.
PMы сами анализируют данные, пилят прототипы фичей или дизайнов.
DSы становятся частично инженерами, частично дата аналитиками.
Аналитики становятся по существу тем же, что и PMы, только без бремени принятия решений.
9. Использование AI агентов в работе становится одним из Hard Skills, который универсально требуется всем сотрудникам компании.
10. Реально на обочину выбывают не те, кого AI «должен заменить», а тот, кто не умеет им пользоваться.
Ну и немного эмоционального
- Все в аджуях. Никто не был готов к такой скорости внедрения AI ассистентов. От стажеров до руководителей компаний.
- Всем стремновато за свои позиции (и сотрудники и компании боятся, что их заменит AI), поэтому несмотря на предыдущий пункт — все очень быстро бегут вперед. Даже если не очень понятно, куда.
- Многие столкнулись с выгоранием, потому что работа превращается в непрерывное изучение нового, адаптацию к хаосу из нейрослопа, принятие решений (а это одно из самых высасывающих энергию действий).
- Но при этом я вижу, как люди реально делают больше, лучше и быстрее. И им это нравится! Людям нравится быть продуктивными — и это двигает вперед😏
Что ж, мы все в одной лодке. Все сейчас чувствуют это давление. Уверен, даже всякие Сэмы Альтманы (возможны, они даже больше других). Так что держитесь!❤️
А что поменялось у вас с внедрением AI агентов в работу?
Заместители
Давайте честно, по-человечески разберемся, как реально меняется работа и ощущения от нее с внедрением Claude Code / Cowork
Буду рассказывать из собственного опыта AI Product Owner.
1. Реально >50% рабочего времени я сижу в интерфейсе Claude Code или Cowork.
2. Накидать идею на слайдах — больше не канает. Перед тем как питчить идею руководству — я как продакт должен сам (или с помощью бизнес-аналитика!) на коленке собрать работающий proof of concept. Это делается в Claude Code, конечно. Это становится одной из моих основных задач.
3. Работа с Jira / Confluence ведется через Claude Cowork.
4. Работа разработчиков смещается из операционки в архитектурное планирование и рисерч. Большинство также >50% работы делают через Claude Code. Но не все, конечно. За Клодом нужно проверять, да и есть ограничения по секьюрности.
5. Скорости растут на порядок. Раньше доставить новую фичу в интерфейсе за месяц было ОК. Теперь за месяц ожидается доставка сложной комплексной логики, да еще и с AI моделями.
6. Узким местом остается продуктивизация. Легко набрасывать MVP. Сложно и долго их имплементировать в уже работающую большую систему в продакшене.
7. Работы стало больше. Claude зачастую все еще не имеет всей полноты контекста, чтобы забирать на себя процессы. Да и просто процессы не готовы к этому. Поэтому появилась нагрузка по подготовке процессов под автоматизацию с помощью того же Клода или других агентов. При этом не забываем, что скорости выросли -> фичей ждут больше и быстрее
8. Профессии смешиваются. Узкоспециализированные позиции уходят в небытие. Claude дает компетенции всем во всем по-немногу.
PMы сами анализируют данные, пилят прототипы фичей или дизайнов.
DSы становятся частично инженерами, частично дата аналитиками.
Аналитики становятся по существу тем же, что и PMы, только без бремени принятия решений.
9. Использование AI агентов в работе становится одним из Hard Skills, который универсально требуется всем сотрудникам компании.
10. Реально на обочину выбывают не те, кого AI «должен заменить», а тот, кто не умеет им пользоваться.
Ну и немного эмоционального
- Все в аджуях. Никто не был готов к такой скорости внедрения AI ассистентов. От стажеров до руководителей компаний.
- Всем стремновато за свои позиции (и сотрудники и компании боятся, что их заменит AI), поэтому несмотря на предыдущий пункт — все очень быстро бегут вперед. Даже если не очень понятно, куда.
- Многие столкнулись с выгоранием, потому что работа превращается в непрерывное изучение нового, адаптацию к хаосу из нейрослопа, принятие решений (а это одно из самых высасывающих энергию действий).
- Но при этом я вижу, как люди реально делают больше, лучше и быстрее. И им это нравится! Людям нравится быть продуктивными — и это двигает вперед
Что ж, мы все в одной лодке. Все сейчас чувствуют это давление. Уверен, даже всякие Сэмы Альтманы (возможны, они даже больше других). Так что держитесь!
А что поменялось у вас с внедрением AI агентов в работу?
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
5 16❤7 5😁4🌚3🔥1
Персональный новостной дайджест с помощью OpenClaw
Продолжаю развивать своего лобстера🦀 . В этот раз достаточно простая автоматизация, которая экономит время и внимание.
Я каждый день читаю целую кучу новостей из мира AI. Это нужно мне как для того, чтобы держать вас в курсе самого важного, так и для того, чтобы оперативно внедрять в работу новые технологии и подходы. Такова доля AI продакта в современном сумасшедшем мире. Ментальной энергии это съедает немало.
Решение — я собрал свой дайджест с помощью OpenClaw. Он приходит мне каждый день, настроен под избранные источники новостей, в нужной мне структуре и формате. Теперь вместо чтения новостей собранных для абстрактного читателя в разных новостных лентах — у меня персонализированная подборка.
Вы можете собрать дайджест и сами
Я сделал это в три шага:
1. Собрал список из нескольких примеров сайтов, откуда я бы хотел узнавать новости (достаточно просто ссылки на нужный раздел интересующего сайта). Дальше попросил лобстера подобрать мне источники для максимального покрытия медиа пространства новостей про AI. В несколько итераций мы с ним зафиналили список источников.
2. Дальше мы отточили сборку дайджеста: принцип отбора новостей из источников, стиль написания, форматирование, ссылки на источники и тд.
3. Все это упаковал в SKILL.md. Скилл запускается раз в день по расписанию.
Вы, кстати, можете это повторить и в ChatGPT и в Claude.
Что дальше?
В этом канале я пишу только самое важное на мой взгляд без инфошума. Но я все равно отсеиваю очень много новостей просто в силу нехватки времени.
Поэтому есть идея собрать для вас краткий ежедневный AI-дайджест в отдельном канале / группе. Он будет публиковаться моим лобстером, но курироваться мной и улучшаться по мере вашего фидбека. То есть без нейрослопа — качество дайджеста главный приоритет.
Пример первой версии в комментарии к этому посту. Там же кстати узнаете последние новости📰
Читали бы такой дайджест в отдельном канале / группе?
Если делаем - ставьте 💯
#red
Заместители
Продолжаю развивать своего лобстера
Я каждый день читаю целую кучу новостей из мира AI. Это нужно мне как для того, чтобы держать вас в курсе самого важного, так и для того, чтобы оперативно внедрять в работу новые технологии и подходы. Такова доля AI продакта в современном сумасшедшем мире. Ментальной энергии это съедает немало.
Решение — я собрал свой дайджест с помощью OpenClaw. Он приходит мне каждый день, настроен под избранные источники новостей, в нужной мне структуре и формате. Теперь вместо чтения новостей собранных для абстрактного читателя в разных новостных лентах — у меня персонализированная подборка.
Вы можете собрать дайджест и сами
Я сделал это в три шага:
1. Собрал список из нескольких примеров сайтов, откуда я бы хотел узнавать новости (достаточно просто ссылки на нужный раздел интересующего сайта). Дальше попросил лобстера подобрать мне источники для максимального покрытия медиа пространства новостей про AI. В несколько итераций мы с ним зафиналили список источников.
2. Дальше мы отточили сборку дайджеста: принцип отбора новостей из источников, стиль написания, форматирование, ссылки на источники и тд.
3. Все это упаковал в SKILL.md. Скилл запускается раз в день по расписанию.
Вы, кстати, можете это повторить и в ChatGPT и в Claude.
Что дальше?
В этом канале я пишу только самое важное на мой взгляд без инфошума. Но я все равно отсеиваю очень много новостей просто в силу нехватки времени.
Поэтому есть идея собрать для вас краткий ежедневный AI-дайджест в отдельном канале / группе. Он будет публиковаться моим лобстером, но курироваться мной и улучшаться по мере вашего фидбека. То есть без нейрослопа — качество дайджеста главный приоритет.
Пример первой версии в комментарии к этому посту. Там же кстати узнаете последние новости
Читали бы такой дайджест в отдельном канале / группе?
Если делаем - ставьте 💯
#red
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
2💯72❤6 1
everything-claude-code: используем правильно имбовый сетап для AI агентов
По сети разлетелся репозиторий с сетапом для AI агентов. Он собрал больше 115к звездочек (ооочень много). Все потому что его автор выиграл Хакатон Anthropic и опенсорснул весь свой сетап по использованию Claude Code. Сейчас он уже адаптирован под любого AI агента.
Что внутри
- Три гайда о том, как пользоваться Claude Code. И это самая недооцененная часть. Там практические советы и лайфхаки не только по этому репозиторию, но и по агентному кодингу в целом. Сделаю по ним прямо отдельный разбор — слишком хороши😎
- Базовые настройки для оптимизации работы практически любого AI агента (будь то Claude, Codex, OpenCode и тд). То есть сами файлы типа CLAUDE.md и AGENTS.md. А также перечень правил с лучшими практиками кодинга для агентов (с точки зрения автора репы).
- 135 скиллов — и они постоянно пополняются. В основном для кодинга, но есть и для рисерча, написания статей, и даже редактирования видео!
- 30 сабагентов — это по сути тоже md файлики с определением агентов для отдельных независимых процессов, которые можно запустить параллельно, например, планировщик, архитектор и другие.
- 60 команд — это удобно упакованные вызовы скилов и тулов, чтобы вызывать их из интерфейса вашего ИИ агента в одну слеш-команду.
- Настроенные вызовы 14 MCP серверов — это тулы для этих скиллов и команд.
Главное — грамотно управлять контекстным окном
В сети была гора комментариев а-ля «я установил, у меня после 2х вызовов заполнено контекстное окно и перфоманс гг».😳 Оно и понятно, внутри сотни тулов — все это падает в контекстное окно!
Поэтому:
- Устанавливайте только то, что вам нужно. Если кодите на Python, JS — выкиньте от греха оттуда php и другие языки.
- И даже после установки, включайте только то, что вам нужно для конкретной задачи. Ненужные тулы и плагины можно выключать в настройках.
Например сам автор репы рекомендует держать включенными только 4-5 плагинов / MCP, или не больше 80 тулов (в одном MCP могут быть десятки тулов).
Помимо непосредственной установки всего репозитория, можно к нему относиться как к библиотеки скиллов и настроек. Выбираем, закидываем своему агенту и адаптируем под себя.
И наоборот — проект можно использовать как каркас / фреймворк. В него можно легко добавлять свои скиллы, плагины, тулы и развивать под себя.
Заместители
По сети разлетелся репозиторий с сетапом для AI агентов. Он собрал больше 115к звездочек (ооочень много). Все потому что его автор выиграл Хакатон Anthropic и опенсорснул весь свой сетап по использованию Claude Code. Сейчас он уже адаптирован под любого AI агента.
Что внутри
- Три гайда о том, как пользоваться Claude Code. И это самая недооцененная часть. Там практические советы и лайфхаки не только по этому репозиторию, но и по агентному кодингу в целом. Сделаю по ним прямо отдельный разбор — слишком хороши
- Базовые настройки для оптимизации работы практически любого AI агента (будь то Claude, Codex, OpenCode и тд). То есть сами файлы типа CLAUDE.md и AGENTS.md. А также перечень правил с лучшими практиками кодинга для агентов (с точки зрения автора репы).
- 135 скиллов — и они постоянно пополняются. В основном для кодинга, но есть и для рисерча, написания статей, и даже редактирования видео!
- 30 сабагентов — это по сути тоже md файлики с определением агентов для отдельных независимых процессов, которые можно запустить параллельно, например, планировщик, архитектор и другие.
- 60 команд — это удобно упакованные вызовы скилов и тулов, чтобы вызывать их из интерфейса вашего ИИ агента в одну слеш-команду.
- Настроенные вызовы 14 MCP серверов — это тулы для этих скиллов и команд.
Главное — грамотно управлять контекстным окном
В сети была гора комментариев а-ля «я установил, у меня после 2х вызовов заполнено контекстное окно и перфоманс гг».
Поэтому:
- Устанавливайте только то, что вам нужно. Если кодите на Python, JS — выкиньте от греха оттуда php и другие языки.
- И даже после установки, включайте только то, что вам нужно для конкретной задачи. Ненужные тулы и плагины можно выключать в настройках.
Например сам автор репы рекомендует держать включенными только 4-5 плагинов / MCP, или не больше 80 тулов (в одном MCP могут быть десятки тулов).
Помимо непосредственной установки всего репозитория, можно к нему относиться как к библиотеки скиллов и настроек. Выбираем, закидываем своему агенту и адаптируем под себя.
И наоборот — проект можно использовать как каркас / фреймворк. В него можно легко добавлять свои скиллы, плагины, тулы и развивать под себя.
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥23👍5❤2 1 1
Вкусность от OpenAI: плагин Codex для Claude Code
Вы наверняка сталкивались с лимитами в Клоде — вечная проблема. А вот в Codex с этой проблемой сталкиваешься гораздо реже. Так вот ребята в OpenAI почуяли наживу (и некислую конкуренцию со стороны Anthropic) и выкатили плагин, который позволяет прямо из Claude Code делегировать задачки в Codex😈
Теперь, чтобы ваш Max план за 200 баксов в Claude Code заканчивался медленнее — подключаете Codex за 20 баксов и отгружаете туда рутинные задачи или наоборот комплексные задачи, где нужно второе мнение.
Хитрый ход от OpenAI, чтобы показать юзерам, что вообще-то Codex могет. А часть потом и переманить своим большимлимитом .
Что ж, попробуем! Вот свеженький официальный репозиторий📈
Заместители
Вы наверняка сталкивались с лимитами в Клоде — вечная проблема. А вот в Codex с этой проблемой сталкиваешься гораздо реже. Так вот ребята в OpenAI почуяли наживу (и некислую конкуренцию со стороны Anthropic) и выкатили плагин, который позволяет прямо из Claude Code делегировать задачки в Codex
Теперь, чтобы ваш Max план за 200 баксов в Claude Code заканчивался медленнее — подключаете Codex за 20 баксов и отгружаете туда рутинные задачи или наоборот комплексные задачи, где нужно второе мнение.
Хитрый ход от OpenAI, чтобы показать юзерам, что вообще-то Codex могет. А часть потом и переманить своим большим
Что ж, попробуем! Вот свеженький официальный репозиторий
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
2 11❤5🔥1 1 1
Развод на первое апреля или слив исходного кода Claude Code?
Похоже все-таки второе…
Сегодня некий Chaofan Shou обнаружил утечку .map файла в билде Claude Code и выложил всю эту красоту у себя на X.
Что не слилось?
- Юзерские данные
- Веса моделей
- Секреты
Так что нервно удалять Claude не нужно😁
Что слилось?
Вкратце, все остальное, чтобы было написано на TypeScript.
- Интереснее всего рассматривать запланированный функционал (например, KAIROS — проактивный always on агент, или buddy — тамогочи, который, позже, должен был официально быть представлен на следующей неделе).
- К тому же слиты все системные промпты, команды, скиллы, плагины, MCP, хуки и тд.
- Отдельно интересно смотреть как устроен Claude Code архитектурно, например как работает мультиагентная система Клод кода под капотом.
Что это значит?
В сети уже появляются десятки пиратских форков Claude Code. Секретный соус Клод кода, который собственно отличал его от Codex и других подобных решений — подчистую слит.
Не скачивая, можно поковыряться, например, тут. Люди быстренько выложили код в паблик.
Такие репозитории будут исчезать и меняться, тк с юридической точки зрения — вся утекшая кодовая база это интеллектуальная собственность Антропика. Поэтому копировать 1 к 1 нельзя. Но «вдохновленные» этим кодом решения уже фиг запретишь (и отловишь).
Все китайцы и OpenAI ну просто в восторге😊
А сколько сейчас иронии в треде под этим постом X про безопасность Claude, про заявления что Claude сам себя пишет и про лучшие практики написания кода в больших компаниях.
На самом деле жалко Антропиков. Но в этом конкурентном мире клювом не щелкают. Будем надеятся, что это их замотивирует сделать ещё лучше.
Заместители
Похоже все-таки второе…
Сегодня некий Chaofan Shou обнаружил утечку .map файла в билде Claude Code и выложил всю эту красоту у себя на X.
Что не слилось?
- Юзерские данные
- Веса моделей
- Секреты
Так что нервно удалять Claude не нужно
Что слилось?
Вкратце, все остальное, чтобы было написано на TypeScript.
- Интереснее всего рассматривать запланированный функционал (например, KAIROS — проактивный always on агент, или buddy — тамогочи, который, позже, должен был официально быть представлен на следующей неделе).
- К тому же слиты все системные промпты, команды, скиллы, плагины, MCP, хуки и тд.
- Отдельно интересно смотреть как устроен Claude Code архитектурно, например как работает мультиагентная система Клод кода под капотом.
Что это значит?
В сети уже появляются десятки пиратских форков Claude Code. Секретный соус Клод кода, который собственно отличал его от Codex и других подобных решений — подчистую слит.
Не скачивая, можно поковыряться, например, тут. Люди быстренько выложили код в паблик.
Такие репозитории будут исчезать и меняться, тк с юридической точки зрения — вся утекшая кодовая база это интеллектуальная собственность Антропика. Поэтому копировать 1 к 1 нельзя. Но «вдохновленные» этим кодом решения уже фиг запретишь (и отловишь).
Все китайцы и OpenAI ну просто в восторге
А сколько сейчас иронии в треде под этим постом X про безопасность Claude, про заявления что Claude сам себя пишет и про лучшие практики написания кода в больших компаниях.
На самом деле жалко Антропиков. Но в этом конкурентном мире клювом не щелкают. Будем надеятся, что это их замотивирует сделать ещё лучше.
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
2🤯10👍6👨💻2❤1 1 1
Смотрим "под правильным углом": развитие локальных LLM и еще один скачок качества топовых LLM
За последние 2 недели произошло сразу два интересных анонса: TurboQuant от Google и Bonsai от PrismML. Они бьют в самую больную точку современных LLM: дефицит железа.
GPU больше не главная проблема
Последние несколько лет все боялись, что закончатся GPU. Проклятые майнеры и ИИ лишили порядочных геймеров видеокарт. Но теперь ситуация дополнилась еще и дефицитом оперативы и даже обычной SSD памяти!
В части ИИ на то есть две основные причины:
1. Сами модели стали огромными и их веса занимают сотни гигабайт.
2. Растет контекстное окно моделей — а это напрямую влияет на объем кеширования Key-Values внутри "механизма внимания" (лучше всех, что это такое, объяснили HF).
Например, смотрим на Qwen3.5-397B-A17B, которая сравнима с GPT 5.2 и Gemini 3 Pro по бенчмаркам. Так вот эта скотина жрет 810 GB RAM+VRAM (оперативная память).
Ну и представьте, сколько инстансов моделей запущено в датацентрах, чтобы обслуживать весь мир всем разнообразием моделей👀
Ситуация усложняется тем, что закон масштабирования моделей все еще продолжает работать — больше параметров в LLM — лучше ее перфоманс.
Корпорации начали решать эти проблемы
Делать это начали уже давно через квантование. Простыми словами любое квантование — это сжатие вектора (вектора — это главный строительный кирпичик, из которого строится и которым оперирует любая LLM). Меньше длина чисел вектора = меньше памяти требуется для хранения и запуска модели. Проблема в том, что это несет за собой потери качества.
Собственно об этом и были новости за последние 2 недели.
Во-первых, Caltech и PrismML разработали подход по сжатию самого веса модели (чекпоинтов) — Bonsai. Они сжали Qwen3-8B весом в 16.38 GB в 14 раз, до 1.15 GB. Точность модели в среднем по бенчмаркам упала при этом всего на 11%. То есть невероятно выгодный трейдофф!
Как? 1-битное представление всех весов модели вместо оригинального 16-битного. Но как именно они сохраняют такую точность при таком сжатии — технологию не раскрывают. Кстати, вы можете сами потестить эту модель прямо на вашем айфоне в Locally AI.
Во-вторых, TurboQuant от Google. Гуглойды придумали как сжимать KV кеш. Так они решают вторую проблему с растущим контекстным окном. Процесс состоит из 2х этапов:
1. PolarQuant — трансформация длинных векторов координат в комбинацию радиус + угол. Это старый математический трюк. Но они его дополнили другим старым трюком: добавили рандомный поворот вектора. Не вдаваясь в детали это нужно для того, чтобы сгладить всплески в данных и избежать неверных округлений. Именно неверные округления в данном подходе раньше приводили к серьезной деградации качества — теперь нет.
2. QJL (Quantized Johnson Lindenstrauss) трансформация направлена на исправление остаточных ошибок первого этапа. Тут чисто линейная алгебра, простыми словами уже фиг объяснишь🤙 Читайте источник, если хотите загрузиться.
На выходе — при квантизации до 3.5 битов — снижение кеша в 6 раз и нулевые потери качества на бенчмарках по работе с длинным контекстом.
Решали большую проблему, а решат еще и "маленькую"
Понятно, что главным образом корпорации хотят снизить потребление железа на вычисления. Вдогонку хотят еще и делать модельки типа новой Gemma 4, которые будут ставиться в edge устройства.
Но побочный неизбежный эффект — в обозримом будущем мы увидим у себя на ПК локальные "маленькие" модели с качеством не сильно хуже текущих топовых моделей. Если уже сейчас вес моделей можно снижать в 14 раз, а размер кеша в 6 раз, то это значит что на Макбук можно уже поставить модельку, которая в оригинале имеет примерно 80-100B параметров.
При этом передовые LLM, похоже, сделают очередной скачок в качестве. Потому что "освободившуюся" память от квантования корпорации используют не на горизонтальное масштабирование текущих моделей, а на то, чтобы выдавить еще мощи из закона масштабирования LLM. То есть обучат модели в 10 раз больше, квантизируют их без потери качества и запустят на текущем железе в погоне за AGI.
#ИИстатья
Заместители
За последние 2 недели произошло сразу два интересных анонса: TurboQuant от Google и Bonsai от PrismML. Они бьют в самую больную точку современных LLM: дефицит железа.
GPU больше не главная проблема
Последние несколько лет все боялись, что закончатся GPU. Проклятые майнеры и ИИ лишили порядочных геймеров видеокарт. Но теперь ситуация дополнилась еще и дефицитом оперативы и даже обычной SSD памяти!
В части ИИ на то есть две основные причины:
1. Сами модели стали огромными и их веса занимают сотни гигабайт.
2. Растет контекстное окно моделей — а это напрямую влияет на объем кеширования Key-Values внутри "механизма внимания" (лучше всех, что это такое, объяснили HF).
Например, смотрим на Qwen3.5-397B-A17B, которая сравнима с GPT 5.2 и Gemini 3 Pro по бенчмаркам. Так вот эта скотина жрет 810 GB RAM+VRAM (оперативная память).
Ну и представьте, сколько инстансов моделей запущено в датацентрах, чтобы обслуживать весь мир всем разнообразием моделей
Ситуация усложняется тем, что закон масштабирования моделей все еще продолжает работать — больше параметров в LLM — лучше ее перфоманс.
Корпорации начали решать эти проблемы
Делать это начали уже давно через квантование. Простыми словами любое квантование — это сжатие вектора (вектора — это главный строительный кирпичик, из которого строится и которым оперирует любая LLM). Меньше длина чисел вектора = меньше памяти требуется для хранения и запуска модели. Проблема в том, что это несет за собой потери качества.
Собственно об этом и были новости за последние 2 недели.
Во-первых, Caltech и PrismML разработали подход по сжатию самого веса модели (чекпоинтов) — Bonsai. Они сжали Qwen3-8B весом в 16.38 GB в 14 раз, до 1.15 GB. Точность модели в среднем по бенчмаркам упала при этом всего на 11%. То есть невероятно выгодный трейдофф!
Как? 1-битное представление всех весов модели вместо оригинального 16-битного. Но как именно они сохраняют такую точность при таком сжатии — технологию не раскрывают. Кстати, вы можете сами потестить эту модель прямо на вашем айфоне в Locally AI.
Во-вторых, TurboQuant от Google. Гуглойды придумали как сжимать KV кеш. Так они решают вторую проблему с растущим контекстным окном. Процесс состоит из 2х этапов:
1. PolarQuant — трансформация длинных векторов координат в комбинацию радиус + угол. Это старый математический трюк. Но они его дополнили другим старым трюком: добавили рандомный поворот вектора. Не вдаваясь в детали это нужно для того, чтобы сгладить всплески в данных и избежать неверных округлений. Именно неверные округления в данном подходе раньше приводили к серьезной деградации качества — теперь нет.
2. QJL (Quantized Johnson Lindenstrauss) трансформация направлена на исправление остаточных ошибок первого этапа. Тут чисто линейная алгебра, простыми словами уже фиг объяснишь
На выходе — при квантизации до 3.5 битов — снижение кеша в 6 раз и нулевые потери качества на бенчмарках по работе с длинным контекстом.
Решали большую проблему, а решат еще и "маленькую"
Понятно, что главным образом корпорации хотят снизить потребление железа на вычисления. Вдогонку хотят еще и делать модельки типа новой Gemma 4, которые будут ставиться в edge устройства.
Но побочный неизбежный эффект — в обозримом будущем мы увидим у себя на ПК локальные "маленькие" модели с качеством не сильно хуже текущих топовых моделей. Если уже сейчас вес моделей можно снижать в 14 раз, а размер кеша в 6 раз, то это значит что на Макбук можно уже поставить модельку, которая в оригинале имеет примерно 80-100B параметров.
При этом передовые LLM, похоже, сделают очередной скачок в качестве. Потому что "освободившуюся" память от квантования корпорации используют не на горизонтальное масштабирование текущих моделей, а на то, чтобы выдавить еще мощи из закона масштабирования LLM. То есть обучат модели в 10 раз больше, квантизируют их без потери качества и запустят на текущем железе в погоне за AGI.
#ИИстатья
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
5❤13🔥10🙈3 3 1 1
Бесконечная память для вашего агента: LLM Wiki
На днях Андрей наш выдумщик Карпатый выкатил на гите по сути большой TRD файлик, который помогает вашем агенту структурировать собственную память как локальную википедию.
Идея простая: RAG устарел. LLM отлично справляется с работой с индексами и файловой системой. Поэтому Карпатый предлагает выстраивать собственно память вашего AI агента как википедию.
Другими словами, если:
• у вас ооочень большой контекст, например, вся ваша рабочая деятельность
• вы не хотите каждый раз вручную задавать агенту конкретный контекст типа "Вот файлы 1, 2, 3. Они относятся к проекту Х. Вот саммари звонка, который мы провели. В обсуждении участвовал Вася Пупкин - он наш директор и тд".
• при этом вы не хотите разворачивать локальное векторное хранилище и делать эмбеддинг всего контекста (звучит как место, где можно было бы закрыть пост для нетехнического юзера🤯 )
• но, вы хотите, чтобы ваш агент всегда был в контексте всех ваших проектов/задач/контактов/событий и тд, не пытаясь засунуть все это сразу в контекстное окно
То этот сетап решает эти проблемы.
Разворачиваем и настраиваем
Все что нужно сделать — скопировать отсюда TRD (по сути промпт) от Карпатого. Там описана концепция локального wiki. И закинуть его в Claude Cowork (или кто там ваш агент).
Но нужно добавить секретный соус: добавьте в промпт требование, чтобы в сетапе не использовался внешний API для LLM — агент должен адаптировать сетап так, чтобы он сам управлял памятью. Готово🧑🍳 Так вы избавили себя от необходимости отдельно настраивать API для этого управления этим Wiki.
Еще один лайфхак — сразу настройте по расписанию задачу актуализировать ваш Wiki каждый день вечером, анализируя подключенные источники (Jira, Confluence, Slack и тд). Так утром вас будет ждать агент со всей актуальной инфой.
В итоге получаем динамическую локальную Wiki-память
Вы получаете в обычной файловой системе набор папок и MD файлов, с индексом. Теперь агент будет по индексу искать нужные кусочки контекста без перегруза контекстного окна. А после очередной рабочей сессии — wiki страницы будут обновляться, что поможет агенту иметь актуальные знания о большом куске вашей жизни.
Дальше самое интересно — у вашего агента появилась большая память. Да вот только она пуста. Как ее наполнить? Я вопрос решил так: "Claude, сходи в Jira проанализируй все эпики, которы на мне висят и заполни нашу Wiki".
В итоге буквально через 20 мин настройки без единой строчки кода получаем Wiki😎
Бонусом всей это историей становится просмотр накопленной памяти бесплатно через Obsidian в виде графа.
Для OpenClaw, который крутится в на ВМке, однако, такой стеап Wiki не получится посмотреть в Obsidian (если только не купить платную подписку для синка). Поэтому я рекомендую соединить этот подход с тем, что я описывал ранее — и использовать Notion как визуальный интерфейс, через который вы можете взаимодействовать с памятью бесплатно.
#ИИстатья #red #заместители
Заместители
На днях Андрей наш выдумщик Карпатый выкатил на гите по сути большой TRD файлик, который помогает вашем агенту структурировать собственную память как локальную википедию.
Идея простая: RAG устарел. LLM отлично справляется с работой с индексами и файловой системой. Поэтому Карпатый предлагает выстраивать собственно память вашего AI агента как википедию.
Другими словами, если:
• у вас ооочень большой контекст, например, вся ваша рабочая деятельность
• вы не хотите каждый раз вручную задавать агенту конкретный контекст типа "Вот файлы 1, 2, 3. Они относятся к проекту Х. Вот саммари звонка, который мы провели. В обсуждении участвовал Вася Пупкин - он наш директор и тд".
• при этом вы не хотите разворачивать локальное векторное хранилище и делать эмбеддинг всего контекста (звучит как место, где можно было бы закрыть пост для нетехнического юзера
• но, вы хотите, чтобы ваш агент всегда был в контексте всех ваших проектов/задач/контактов/событий и тд, не пытаясь засунуть все это сразу в контекстное окно
То этот сетап решает эти проблемы.
Разворачиваем и настраиваем
Все что нужно сделать — скопировать отсюда TRD (по сути промпт) от Карпатого. Там описана концепция локального wiki. И закинуть его в Claude Cowork (или кто там ваш агент).
Но нужно добавить секретный соус: добавьте в промпт требование, чтобы в сетапе не использовался внешний API для LLM — агент должен адаптировать сетап так, чтобы он сам управлял памятью. Готово
Еще один лайфхак — сразу настройте по расписанию задачу актуализировать ваш Wiki каждый день вечером, анализируя подключенные источники (Jira, Confluence, Slack и тд). Так утром вас будет ждать агент со всей актуальной инфой.
В итоге получаем динамическую локальную Wiki-память
Вы получаете в обычной файловой системе набор папок и MD файлов, с индексом. Теперь агент будет по индексу искать нужные кусочки контекста без перегруза контекстного окна. А после очередной рабочей сессии — wiki страницы будут обновляться, что поможет агенту иметь актуальные знания о большом куске вашей жизни.
Дальше самое интересно — у вашего агента появилась большая память. Да вот только она пуста. Как ее наполнить? Я вопрос решил так: "Claude, сходи в Jira проанализируй все эпики, которы на мне висят и заполни нашу Wiki".
В итоге буквально через 20 мин настройки без единой строчки кода получаем Wiki
memory-wiki/
├── README.md
├── schema.md
├── search.sh
├── sources/
└── wiki/
├── index.md
├── log.md
└── 11 pages...
Бонусом всей это историей становится просмотр накопленной памяти бесплатно через Obsidian в виде графа.
Для OpenClaw, который крутится в на ВМке, однако, такой стеап Wiki не получится посмотреть в Obsidian (если только не купить платную подписку для синка). Поэтому я рекомендую соединить этот подход с тем, что я описывал ранее — и использовать Notion как визуальный интерфейс, через который вы можете взаимодействовать с памятью бесплатно.
#ИИстатья #red #заместители
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥15❤11👍4 3 1 1
Media is too big
VIEW IN TELEGRAM
World Models: риал-тайм AI гейминг не за горами
Только недавно геймеры горели от NVIDIA DLSS — AI дорисовки деталей поверх запущенных игр, которая вносила много кринжа в оригинальную эстетику игр. Но хоронить AI в играх не то что рано — все ровно наоборот — это только начало!
Сразу несколько компаний работают над AI генерацией игровых миров. То есть речь уже не о дорисовке деталей, а о генерации мира налету. И здесь есть несколько подходов, которые борются за жизнь.
Первый — тяжелый
Генерация 3D миров. Этим занимается, например, Worldlabs с их решением Marble — я о нем писал ранее. Главная проблема — подход очень тяжеловесный и пока что сырой. Это больше инструмент для разработчика игр, чтобы сократить цикл разработки. Да и про генерацию налету тут сложно говорить. Ибо вычислений требуется очень много.
Второй — нестабильный
Генерация картинки мира по мере движения камеры персонажа. То есть мир создаётся только там, куда смотрит в моменте юзер.
Но во втором подходе тоже не все гладко.
Во-первых, консистентность мира. В основе подхода лежит генерация видео. Поэтому как только камера юзера отворачивается от сцены — сцена навсегда перестает существовать. Когда юзер туда поворачивается в следующий раз — сцена генерируется с нуля. А значит она будет скорее всего существенно отличаться от своей первой версии.
Во-вторых, физика. Движение и действия персонажей в играх всегда сопряжены с реалистичной (а иногда не очень) физикой. Поэтому генерация игра требует от ИИ понимать как работает гравитация, тяжесть объектов, их изменение в динамике, отражения и тд.
В-третьих, все это нужно уметь генерить быстро и эффективно. В идеале — на устройстве юзера.
Так вот решением этих проблем занимаются генеративные world модели☀️
1. Фаворит в этой гонке сейчас — Google Genie 3. По качеству реализации топ. Но модель тяжеловесная и точно не для юзерского железа. Потестить ее могут только подписчики Ultra AI подписки гугла, находящиеся в США.
2. В конце прошлого года Runway представили GWM-1. Принцип тот же, что и у Genie. Отличается высокой реалистичностью миров. Но открытых демок потыкать вообще нет.
3. Примерно тогда же и Tencent выпустили HY World 1.5. И что примечательно, в лучших традициях, модельку сделали опенсорсной! Выглядит очень неплохо.
4. Еще один интересный проект — новая Waypoint 1.5 от Overworld. По визуальному качеству сильно хуже предыдущих ребят, но! Фишка в том, что это первая модель для локального использования прямо на ПК юзера. Да, пока нужна мощная видеокарта, но это уже карта бытового уровня! На видео к посту "геймплей" из анонса как раз этой модели. Скорее всего видос ускорен.
5. Немного особнячком стоит Oasis. Здесь ребята пошли не вширь, а вглубь. Они обучили модель чисто на Minecraft. Но она позволяет уже не просто ходить и прыгать. Там полноценно есть инвентарь. Можно строить объекты, копать текстуры и тд. То есть это уже настоящая игра! Все также генерируется в реальном времени!
Что дальше?
DLSS от NVIDIA — лишь первая искра применения риал тайм генераций в играх. Со временем мы получим достраивание элементов игрового мира находу. А потом и целые сгенерированные локации, уровни и даже миры!
Придет это к нам все сильно быстрее, чем кажется. Ведь за развитием технологии стоит далеко не только игровой бизнес. В технологии заинтересованы разрабы робототехники — в таких симулированных мирах они тренируют ИИ, который потом управляет реальными роботами в реальном мире. А значит в эту технологию вольют ооочень много денег. Ловите на слове.
Ну а мы с вами сможем испытать абсолютно новые эмоции от игр, где виртуальный мир будет подстраиваться под игроков налету.
Заместители
Только недавно геймеры горели от NVIDIA DLSS — AI дорисовки деталей поверх запущенных игр, которая вносила много кринжа в оригинальную эстетику игр. Но хоронить AI в играх не то что рано — все ровно наоборот — это только начало!
Сразу несколько компаний работают над AI генерацией игровых миров. То есть речь уже не о дорисовке деталей, а о генерации мира налету. И здесь есть несколько подходов, которые борются за жизнь.
Первый — тяжелый
Генерация 3D миров. Этим занимается, например, Worldlabs с их решением Marble — я о нем писал ранее. Главная проблема — подход очень тяжеловесный и пока что сырой. Это больше инструмент для разработчика игр, чтобы сократить цикл разработки. Да и про генерацию налету тут сложно говорить. Ибо вычислений требуется очень много.
Второй — нестабильный
Генерация картинки мира по мере движения камеры персонажа. То есть мир создаётся только там, куда смотрит в моменте юзер.
Но во втором подходе тоже не все гладко.
Во-первых, консистентность мира. В основе подхода лежит генерация видео. Поэтому как только камера юзера отворачивается от сцены — сцена навсегда перестает существовать. Когда юзер туда поворачивается в следующий раз — сцена генерируется с нуля. А значит она будет скорее всего существенно отличаться от своей первой версии.
Во-вторых, физика. Движение и действия персонажей в играх всегда сопряжены с реалистичной (а иногда не очень) физикой. Поэтому генерация игра требует от ИИ понимать как работает гравитация, тяжесть объектов, их изменение в динамике, отражения и тд.
В-третьих, все это нужно уметь генерить быстро и эффективно. В идеале — на устройстве юзера.
Так вот решением этих проблем занимаются генеративные world модели
1. Фаворит в этой гонке сейчас — Google Genie 3. По качеству реализации топ. Но модель тяжеловесная и точно не для юзерского железа. Потестить ее могут только подписчики Ultra AI подписки гугла, находящиеся в США.
2. В конце прошлого года Runway представили GWM-1. Принцип тот же, что и у Genie. Отличается высокой реалистичностью миров. Но открытых демок потыкать вообще нет.
3. Примерно тогда же и Tencent выпустили HY World 1.5. И что примечательно, в лучших традициях, модельку сделали опенсорсной! Выглядит очень неплохо.
4. Еще один интересный проект — новая Waypoint 1.5 от Overworld. По визуальному качеству сильно хуже предыдущих ребят, но! Фишка в том, что это первая модель для локального использования прямо на ПК юзера. Да, пока нужна мощная видеокарта, но это уже карта бытового уровня! На видео к посту "геймплей" из анонса как раз этой модели. Скорее всего видос ускорен.
5. Немного особнячком стоит Oasis. Здесь ребята пошли не вширь, а вглубь. Они обучили модель чисто на Minecraft. Но она позволяет уже не просто ходить и прыгать. Там полноценно есть инвентарь. Можно строить объекты, копать текстуры и тд. То есть это уже настоящая игра! Все также генерируется в реальном времени!
Что дальше?
DLSS от NVIDIA — лишь первая искра применения риал тайм генераций в играх. Со временем мы получим достраивание элементов игрового мира находу. А потом и целые сгенерированные локации, уровни и даже миры!
Придет это к нам все сильно быстрее, чем кажется. Ведь за развитием технологии стоит далеко не только игровой бизнес. В технологии заинтересованы разрабы робототехники — в таких симулированных мирах они тренируют ИИ, который потом управляет реальными роботами в реальном мире. А значит в эту технологию вольют ооочень много денег. Ловите на слове.
Ну а мы с вами сможем испытать абсолютно новые эмоции от игр, где виртуальный мир будет подстраиваться под игроков налету.
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
4🔥7❤🔥1 1 1 1
Claude Code уже не торт
Такие заголовки разлетаются по сети. Действительно ли модельки Claude сдают? Да, но не так как вы думаете😳
Клод коду выдвигают целый список обвинений по деградации перфоманса:
- существенно хуже следует инструкциям
- ломает работающий (написанный ранее «старым хорошим» Клодом) код
- ухудшился перфоманс в комплексных мультишаговых задачах.
И все это длиться якобы примерно с февраля/марта 2026.
Какие ваши доказательства?
Первое. Самое «фактурное» и похожее даже на мини исследование, что есть — вот этот тикет. Тикет завела Stellar Laurenzo, senior director of AI в AMD (тот самый АМД, который делает процессоры). Если верить тикету, то это анализ на основе ~6800 сессий с клод кодом. И опять же если ему верить, то цифры следующие:
- Количество символов, которые Клод в среднем тратил на «размышления» снизилось с ~2200 до ~600 (-73%)
- появилось регулярное (~10 раз в день) нарушение стоп-хуков. Это правила, которые выставляют сами юзеры и которые тормозят Клод код от нежелательных действий
- анализ ~18000 пользовательских промптов показал, что недовольство юзеров Клодом внутри промптов выросло с 5.8% до 9.8%
- Клод стал на 70% меньше изучать контекст перед внесением правок (раньше соотношение количества чтений файлов к внесению изменений в файл было 6.6, стало — 2.0)
- Клод стал чаще переписывать файлы с нуля, что проще, но ведет к большему количеству ошибок (раньше он дела так в 4.9% случаев, теперь — в 11.1%)
Второе. Это жалобы юзеров в соцсетях. Реддиторы массово подтверждают проблему.
А что Антропик?
За него ответил Борис Черный, руководитель Claude Code.
И знаете что? Он в общем то во многом подтвердил, что Клод коду подрезали крылья, чтобы экономить токены. Вот что он говорит:
Во-первых, 9 февраля массово запустили adaptive thinking для Opus 4.6. Модель сама выбирает, сколько тратить токенов на размышления (thinking budget).
Во-вторых, с 3 марта для Opus 4.6 выставили по дефолту effort=85. Назвали это «Medium effort».
Но! Вы можете исправить обе настройки в settings.json вашего Claude. Вот две строки для этого:
Так элодеи или нет?
В общем-то, если и можно обвинить Антропик в чем-то, так только в том, что коммуницировали они изменения не очень прозрачно.
Но теории типа «старые модели специально затупляют перед релизом новых, чтобы новые выглядели на их фоне лучше» — выглядят чистой конспирологией.
Антропик пытается снизить косты на инфраструктуру — прямой путь к этому снижать количество обрабатываемого контекста, то есть снижать thinking. А это абсолютно логично ведет к деградации перфоманса.
Кому нужен старый перфоманс — поставят себе максимальный effort у модели. Изменения нацелены на широкую аудиторию, чтобы порезать ситуации, когда юзер бездумно использует Opus 4.6 с настройками «полный фарш с extended thinking» для того, чтобы узнать погоду.
А для компаний это урок — LLM такой же софт как и любой другой. Нужно внимательно следить за изменениями и релизами, делать тесты после обновлений. Ведь, говоря о прозрачности, провайдеры LLM сейчас оставляют за собой ооочень большую свободу изменений «под капотом». Поэтому юзеры пользуются ими практически вслепую, на доверии. Не best practices как-то😐
Заместители
Такие заголовки разлетаются по сети. Действительно ли модельки Claude сдают? Да, но не так как вы думаете
Клод коду выдвигают целый список обвинений по деградации перфоманса:
- существенно хуже следует инструкциям
- ломает работающий (написанный ранее «старым хорошим» Клодом) код
- ухудшился перфоманс в комплексных мультишаговых задачах.
И все это длиться якобы примерно с февраля/марта 2026.
Какие ваши доказательства?
Первое. Самое «фактурное» и похожее даже на мини исследование, что есть — вот этот тикет. Тикет завела Stellar Laurenzo, senior director of AI в AMD (тот самый АМД, который делает процессоры). Если верить тикету, то это анализ на основе ~6800 сессий с клод кодом. И опять же если ему верить, то цифры следующие:
- Количество символов, которые Клод в среднем тратил на «размышления» снизилось с ~2200 до ~600 (-73%)
- появилось регулярное (~10 раз в день) нарушение стоп-хуков. Это правила, которые выставляют сами юзеры и которые тормозят Клод код от нежелательных действий
- анализ ~18000 пользовательских промптов показал, что недовольство юзеров Клодом внутри промптов выросло с 5.8% до 9.8%
- Клод стал на 70% меньше изучать контекст перед внесением правок (раньше соотношение количества чтений файлов к внесению изменений в файл было 6.6, стало — 2.0)
- Клод стал чаще переписывать файлы с нуля, что проще, но ведет к большему количеству ошибок (раньше он дела так в 4.9% случаев, теперь — в 11.1%)
Второе. Это жалобы юзеров в соцсетях. Реддиторы массово подтверждают проблему.
А что Антропик?
За него ответил Борис Черный, руководитель Claude Code.
И знаете что? Он в общем то во многом подтвердил, что Клод коду подрезали крылья, чтобы экономить токены. Вот что он говорит:
Во-первых, 9 февраля массово запустили adaptive thinking для Opus 4.6. Модель сама выбирает, сколько тратить токенов на размышления (thinking budget).
Во-вторых, с 3 марта для Opus 4.6 выставили по дефолту effort=85. Назвали это «Medium effort».
Но! Вы можете исправить обе настройки в settings.json вашего Claude. Вот две строки для этого:
CLAUDE_CODE_EFFORT_LEVEL=max
CLAUDE_CODE_DISABLE_ADAPTIVE_THINKING=1
Так элодеи или нет?
В общем-то, если и можно обвинить Антропик в чем-то, так только в том, что коммуницировали они изменения не очень прозрачно.
Но теории типа «старые модели специально затупляют перед релизом новых, чтобы новые выглядели на их фоне лучше» — выглядят чистой конспирологией.
Антропик пытается снизить косты на инфраструктуру — прямой путь к этому снижать количество обрабатываемого контекста, то есть снижать thinking. А это абсолютно логично ведет к деградации перфоманса.
Кому нужен старый перфоманс — поставят себе максимальный effort у модели. Изменения нацелены на широкую аудиторию, чтобы порезать ситуации, когда юзер бездумно использует Opus 4.6 с настройками «полный фарш с extended thinking» для того, чтобы узнать погоду.
А для компаний это урок — LLM такой же софт как и любой другой. Нужно внимательно следить за изменениями и релизами, делать тесты после обновлений. Ведь, говоря о прозрачности, провайдеры LLM сейчас оставляют за собой ооочень большую свободу изменений «под капотом». Поэтому юзеры пользуются ими практически вслепую, на доверии. Не best practices как-то
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥13❤4👍3 1 1 1
Вот вроде отдельного длинного поста не стоит, но коротко невозможно не отметить
Тыкаю Gemma 4 в Google AI Edge Gallery — приложении, по сути, просто для демонстрации способностей модели.
Ну красотища!
- понимает изображения и текст на изображениях
- понимает аудио
- пишет код
- умеет пользоваться скиллами
- мультиязычная, легко понимает русский
Просто летает и работают полностью локально на телефоне!😨
Планка обычной оффлайн болталки преодолена с лихвой. Эту модель можно использовать как очень простой, но полноценный заменитель «мозга» вашего AI агента, когда у него нет доступа к сети. Или просто для экономии. Полный опенсорс, весит всего 3.6 GB.
Вот так медленно мы подбираемся к моменту, когда AI агенты будут прямо у нас в смартфоне.
Я надеюсь, что Apple встроят эту модель в IPhone локально вместо бедолажного Apple Intelligence😁
Заместители
Тыкаю Gemma 4 в Google AI Edge Gallery — приложении, по сути, просто для демонстрации способностей модели.
Ну красотища!
- понимает изображения и текст на изображениях
- понимает аудио
- пишет код
- умеет пользоваться скиллами
- мультиязычная, легко понимает русский
Просто летает и работают полностью локально на телефоне!
Планка обычной оффлайн болталки преодолена с лихвой. Эту модель можно использовать как очень простой, но полноценный заменитель «мозга» вашего AI агента, когда у него нет доступа к сети. Или просто для экономии. Полный опенсорс, весит всего 3.6 GB.
Вот так медленно мы подбираемся к моменту, когда AI агенты будут прямо у нас в смартфоне.
Я надеюсь, что Apple встроят эту модель в IPhone локально вместо бедолажного Apple Intelligence
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍12❤3🔥2 1 1