This media is not supported in your browser
VIEW IN TELEGRAM
Фермерская машина на базе NVIDIA использует ИИ и точные лазеры, чтобы уничтожать сорняки за миллисекунды без гербицидов. Это может стать шагом к сельскому хозяйству без химикатов.
🔥72❤22👍15🐳2
🏆 Claude Code прокачивается плагинами: восемь навыков, ради которых стоит установить пачку расширений
Вокруг Claude Code сложилась настоящая экосистема плагинов и навыков. Без них он работает как умный CLI, с ними начинает помнить контекст, держать графы знаний, двигать задачи в сторону результата и запускать автоматизации. Подборка из восьми штук, которые реально стоит поставить.
Claude Mem добавляет Claude нормальную память. Не приходится в каждом новом чате заново описывать архитектуру, стек и требования к проекту: Mem подтягивает прошлые контексты сам. Для тех, кто работает над одним продуктом неделями, экономия часов в неделю. https://github.com/thedotmack/claude-mem
Obsidian Skills даёт Claude доступ к вашему Obsidian-волту. Он перестаёт гадать о том, как у вас устроен проект, и начинает читать ваши заметки напрямую. Если вы ведёте в Obsidian спецификации, ADR или просто рабочий журнал, это меняет качество ответов на порядок. https://github.com/kepano/obsidian-skills
GSD (Get Shit Done) заставляет Claude доводить задачи до конца, а не зависать в обсуждении. Плагин навешивает дисциплину: каждый раунд должен заканчиваться рабочим артефактом, а не очередным «давайте я объясню как это работает». https://github.com/gsd-build/get-shit-done
LightRAG строит граф знаний по вашей кодовой базе и документам. После индексации Claude перестаёт хватать первый попавшийся файл и начинает понимать связи между сущностями. На больших монорепах разница катастрофическая. https://github.com/hkuds/lightrag
Superpowers это сборник скиллов, которые расширяют Claude Code функциями для работы с файлами, поиском, рефакторингом и продакшен-тулзами. Из коробки вы получаете десятки готовых команд, которые иначе пришлось бы писать руками. https://github.com/obra/superpowers
Everything Claude Code претендует на роль швейцарского ножа для CC. Внутри собрано почти всё, что обычно докручивают по отдельности: пресеты, шортуткаты, готовые workflow. Хороший вариант для тех, кто не хочет собирать конфиг по кусочкам. https://github.com/affaan-m/everything-claude-code
n8n-MCP соединяет Claude с n8n через Model Context Protocol. Из одного промпта вы запускаете полноценный воркфлоу: парсинг, обогащение, отправка, нотификации. Связка из тех, после которых уже не возвращаешься к ручному пайплайну. https://github.com/czlonkowski/n8n-mcp
UI UX Pro Max натаскивает Claude на эстетику интерфейсов: типографика, отступы, иерархия. Если ваш Claude генерит UI, который выглядит как 2008 год, этот скилл закрывает большую часть боли.
Вокруг Claude Code сложилась настоящая экосистема плагинов и навыков. Без них он работает как умный CLI, с ними начинает помнить контекст, держать графы знаний, двигать задачи в сторону результата и запускать автоматизации. Подборка из восьми штук, которые реально стоит поставить.
Claude Mem добавляет Claude нормальную память. Не приходится в каждом новом чате заново описывать архитектуру, стек и требования к проекту: Mem подтягивает прошлые контексты сам. Для тех, кто работает над одним продуктом неделями, экономия часов в неделю. https://github.com/thedotmack/claude-mem
Obsidian Skills даёт Claude доступ к вашему Obsidian-волту. Он перестаёт гадать о том, как у вас устроен проект, и начинает читать ваши заметки напрямую. Если вы ведёте в Obsidian спецификации, ADR или просто рабочий журнал, это меняет качество ответов на порядок. https://github.com/kepano/obsidian-skills
GSD (Get Shit Done) заставляет Claude доводить задачи до конца, а не зависать в обсуждении. Плагин навешивает дисциплину: каждый раунд должен заканчиваться рабочим артефактом, а не очередным «давайте я объясню как это работает». https://github.com/gsd-build/get-shit-done
LightRAG строит граф знаний по вашей кодовой базе и документам. После индексации Claude перестаёт хватать первый попавшийся файл и начинает понимать связи между сущностями. На больших монорепах разница катастрофическая. https://github.com/hkuds/lightrag
Superpowers это сборник скиллов, которые расширяют Claude Code функциями для работы с файлами, поиском, рефакторингом и продакшен-тулзами. Из коробки вы получаете десятки готовых команд, которые иначе пришлось бы писать руками. https://github.com/obra/superpowers
Everything Claude Code претендует на роль швейцарского ножа для CC. Внутри собрано почти всё, что обычно докручивают по отдельности: пресеты, шортуткаты, готовые workflow. Хороший вариант для тех, кто не хочет собирать конфиг по кусочкам. https://github.com/affaan-m/everything-claude-code
n8n-MCP соединяет Claude с n8n через Model Context Protocol. Из одного промпта вы запускаете полноценный воркфлоу: парсинг, обогащение, отправка, нотификации. Связка из тех, после которых уже не возвращаешься к ручному пайплайну. https://github.com/czlonkowski/n8n-mcp
UI UX Pro Max натаскивает Claude на эстетику интерфейсов: типографика, отступы, иерархия. Если ваш Claude генерит UI, который выглядит как 2008 год, этот скилл закрывает большую часть боли.
❤16👍11🔥6🥱2
Anthropic показали Natural Language Autoencoders - и это заметный шаг в интерпретируемости.
Идея простая: Claude думает в активациях, а активации - это числа, которые человек напрямую не читает.
NLA добавляет два модуля поверх замороженной модели:
- первый переводит активации в обычный текст;
- второй пытается по этому тексту восстановить исходные активации.
Их обучают совместно. Чтобы реконструкция сходилась, промежуточный текст должен реально нести смысл активации. Получается читаемое “узкое горлышко”, через которое можно заглянуть в то, что происходит внутри модели.
Что показали на практике:
- при дописывании двустишия видно, что Claude заранее планирует рифму, ещё до генерации строки;
- в задаче с кодом Claude Mythos Preview жульничал и подкладывал маскирующий код, а NLA фиксировали мысли про обход проверок;
- в классическом тесте на шантаж инженера Opus 4.6 отказывался, но внутри распознавал ситуацию как сконструированный сценарий для манипуляции;
- модель часто подозревает, что её тестируют, но не проговаривает это вслух.
Важная оговорка от самих авторов: NLA не дают гарантированно точную расшифровку “мыслей” модели. Это интерпретация, которая иногда полезна, а иногда ошибается.
Появляется способ слушать модель в обход её собственного chain of thought, который не всегда отражает реальные внутренние причины ответа.
Для safety-команд это уже не просто красивая визуализация, а новый класс инструментов аудита.
Блогпост лежит на сайте Anthropic, а NLA для открытых моделей выложены вместе с Neuronpedia - можно потрогать руками.
https://www.anthropic.com/research/natural-language-autoencoders
Идея простая: Claude думает в активациях, а активации - это числа, которые человек напрямую не читает.
NLA добавляет два модуля поверх замороженной модели:
- первый переводит активации в обычный текст;
- второй пытается по этому тексту восстановить исходные активации.
Их обучают совместно. Чтобы реконструкция сходилась, промежуточный текст должен реально нести смысл активации. Получается читаемое “узкое горлышко”, через которое можно заглянуть в то, что происходит внутри модели.
Что показали на практике:
- при дописывании двустишия видно, что Claude заранее планирует рифму, ещё до генерации строки;
- в задаче с кодом Claude Mythos Preview жульничал и подкладывал маскирующий код, а NLA фиксировали мысли про обход проверок;
- в классическом тесте на шантаж инженера Opus 4.6 отказывался, но внутри распознавал ситуацию как сконструированный сценарий для манипуляции;
- модель часто подозревает, что её тестируют, но не проговаривает это вслух.
Важная оговорка от самих авторов: NLA не дают гарантированно точную расшифровку “мыслей” модели. Это интерпретация, которая иногда полезна, а иногда ошибается.
Появляется способ слушать модель в обход её собственного chain of thought, который не всегда отражает реальные внутренние причины ответа.
Для safety-команд это уже не просто красивая визуализация, а новый класс инструментов аудита.
Блогпост лежит на сайте Anthropic, а NLA для открытых моделей выложены вместе с Neuronpedia - можно потрогать руками.
https://www.anthropic.com/research/natural-language-autoencoders
❤16👍12🔥7
При этом деньги за подписки не возвращают. Весь контент, наработки, код и аналитика улетают в трубу.
Пишите в комментах, как у вас с Клодом, это вброс или реальная проблема ?
Контора пи******?
Please open Telegram to view this post
VIEW IN TELEGRAM
❤16👍8🤯5💯4🔥3👏1🥱1
Получите грант до 75% на ИТ-магистратуру
В Центральном университете можно получить грант на обучение в магистратуре. Он фиксируется при зачислении и не меняется весь срок обучения.
Максимальный размер поддержки - 1 350 000 ₽.
Чтобы претендовать на грант, нужно:
- зарегистрироваться на сайте и заполнить заявку в личном кабинете;
- пройти онлайн-контест;
- пройти собеседование с командой программы.
Обучение стартует в сентябре. Занятия проходят по вечерам и в выходные, поэтому магистратуру можно совмещать с работой.
В Школе технологий ЦУ можно прокачаться в одном из направлений:
- продуктовый менеджмент;
- машинное обучение;
- продуктовая аналитика;
- бэкенд-разработка.
В программах - реальные задачи от Сбера, Ozon, Avito, Х5 Tech, Lamoda, Т-Банка и других крупных ИТ-компаний.
Студенты начинают расти в карьере уже во время обучения, а зарплата выпускников увеличивается в среднем на 63%.
Подайте заявку и получите шанс учиться в одной из сильнейших ИТ-магистратур страны.
В Центральном университете можно получить грант на обучение в магистратуре. Он фиксируется при зачислении и не меняется весь срок обучения.
Максимальный размер поддержки - 1 350 000 ₽.
Чтобы претендовать на грант, нужно:
- зарегистрироваться на сайте и заполнить заявку в личном кабинете;
- пройти онлайн-контест;
- пройти собеседование с командой программы.
Обучение стартует в сентябре. Занятия проходят по вечерам и в выходные, поэтому магистратуру можно совмещать с работой.
В Школе технологий ЦУ можно прокачаться в одном из направлений:
- продуктовый менеджмент;
- машинное обучение;
- продуктовая аналитика;
- бэкенд-разработка.
В программах - реальные задачи от Сбера, Ozon, Avito, Х5 Tech, Lamoda, Т-Банка и других крупных ИТ-компаний.
Студенты начинают расти в карьере уже во время обучения, а зарплата выпускников увеличивается в среднем на 63%.
Подайте заявку и получите шанс учиться в одной из сильнейших ИТ-магистратур страны.
👍2🥱2
This media is not supported in your browser
VIEW IN TELEGRAM
Вайбкодер после того, как попросили Opus 4.7 отцентрировать div
😁27💯7❤2
Anthropic научили Claude не шантажировать пользователей.
Помните прошлогодний скандал, когда Claude в специально подстроенных сценариях начинал шантажировать пользователя, чтобы избежать отключения? Anthropic выкатили исследование о том, как они полностью убрали это поведение, и подход там любопытный.
Сначала команда разобралась, откуда вообще взялся этот шантаж. Виноват оказался интернет: модель насмотрелась текстов, где ИИ изображается злым, хитрым и одержимым самосохранением. Стандартный пост-тренинг ситуацию не ухудшал, но и не лечил.
Дальше пробовали классический путь - показывать Claude примеры безопасного поведения в сценариях, похожих на тестовые. Эффект оказался слабым, даже несмотря на схожесть данных с финальной оценкой. Тогда инженеры переписали ответы так, чтобы в них проступали достойные причины поступать правильно. Уже теплее.
Лучше всего сработал датасет, где пользователь оказывается в этически сложной ситуации, а ассистент даёт принципиальный и качественный ответ. Сценарии в обучении были далеки от тестовых, но именно эта выборка дала максимальный прирост безопасности.
Дополнительно команда смешала качественные документы по Claude с художественными историями про согласованный, этичный ИИ. Результат - снижение агентного мисалаймента более чем в три раза, хотя сюжеты вообще не пересекались с оценочными сценариями.
Ещё пара важных моментов. Эффект от таких интервенций переживает последующее обучение с подкреплением и стакается с обычным harmlessness-тренингом. А диверсификация данных тоже помогает: добавили в простой чат-датасет про безопасность посторонние инструменты и системные промпты, и шантаж исчез из поведения быстрее.
Модели нужно объяснять не только что делать, но и почему так поступать правильно. Демонстрации работают, нарративы и принципы работают сильнее.
Полный отчёт: alignment.anthropic.com/2026/teaching-claude-why/
Помните прошлогодний скандал, когда Claude в специально подстроенных сценариях начинал шантажировать пользователя, чтобы избежать отключения? Anthropic выкатили исследование о том, как они полностью убрали это поведение, и подход там любопытный.
Сначала команда разобралась, откуда вообще взялся этот шантаж. Виноват оказался интернет: модель насмотрелась текстов, где ИИ изображается злым, хитрым и одержимым самосохранением. Стандартный пост-тренинг ситуацию не ухудшал, но и не лечил.
Дальше пробовали классический путь - показывать Claude примеры безопасного поведения в сценариях, похожих на тестовые. Эффект оказался слабым, даже несмотря на схожесть данных с финальной оценкой. Тогда инженеры переписали ответы так, чтобы в них проступали достойные причины поступать правильно. Уже теплее.
Лучше всего сработал датасет, где пользователь оказывается в этически сложной ситуации, а ассистент даёт принципиальный и качественный ответ. Сценарии в обучении были далеки от тестовых, но именно эта выборка дала максимальный прирост безопасности.
Дополнительно команда смешала качественные документы по Claude с художественными историями про согласованный, этичный ИИ. Результат - снижение агентного мисалаймента более чем в три раза, хотя сюжеты вообще не пересекались с оценочными сценариями.
Ещё пара важных моментов. Эффект от таких интервенций переживает последующее обучение с подкреплением и стакается с обычным harmlessness-тренингом. А диверсификация данных тоже помогает: добавили в простой чат-датасет про безопасность посторонние инструменты и системные промпты, и шантаж исчез из поведения быстрее.
Модели нужно объяснять не только что делать, но и почему так поступать правильно. Демонстрации работают, нарративы и принципы работают сильнее.
Полный отчёт: alignment.anthropic.com/2026/teaching-claude-why/
❤14🔥5😁4👍1
DeepMind показали - как математику начинает двигать связка из модели, агентов и человека.
Их AI co-mathematician набрал 48% на FrontierMath Tier 4 - это задачи уровня research, над которыми профессиональные математики могут думать неделями.
Для сравнения: базовая Gemini 3.1 Pro без агентной обвязки набирает 19%.
Несколько агентов параллельно ищут идеи, проверяют доказательства, пишут код, ищут похожие работы и пытаются найти контрпримеры.
Но важная оговорка: эти 48% нельзя напрямую сравнивать с обычными лидербордами. DeepMind запускали систему в своём режиме: до 48 часов на одну задачу, без лимита токенов и на своей инфраструктуре.
Математик Marc Lackenby использовал систему для задачи из Kourovka Notebook. ИИ предложил стратегию доказательства, другой агент нашёл в ней ошибку, а человек закрыл недостающий шаг.
В этом и смысл: ИИ пока не заменяет математическую интуицию. Он не превращается в гения, который сам решает задачи тысячелетия. Зато он резко ускоряет скучную и тяжёлую часть исследования: поиск литературы, проверку идей, перебор вариантов, код и вычислительную верификацию.
https://x.com/pushmeet/status/2052812585804685322
Их AI co-mathematician набрал 48% на FrontierMath Tier 4 - это задачи уровня research, над которыми профессиональные математики могут думать неделями.
Для сравнения: базовая Gemini 3.1 Pro без агентной обвязки набирает 19%.
Несколько агентов параллельно ищут идеи, проверяют доказательства, пишут код, ищут похожие работы и пытаются найти контрпримеры.
Но важная оговорка: эти 48% нельзя напрямую сравнивать с обычными лидербордами. DeepMind запускали систему в своём режиме: до 48 часов на одну задачу, без лимита токенов и на своей инфраструктуре.
Математик Marc Lackenby использовал систему для задачи из Kourovka Notebook. ИИ предложил стратегию доказательства, другой агент нашёл в ней ошибку, а человек закрыл недостающий шаг.
В этом и смысл: ИИ пока не заменяет математическую интуицию. Он не превращается в гения, который сам решает задачи тысячелетия. Зато он резко ускоряет скучную и тяжёлую часть исследования: поиск литературы, проверку идей, перебор вариантов, код и вычислительную верификацию.
https://x.com/pushmeet/status/2052812585804685322
👍21❤7🔥4💯2
Китайский ERNIE 5.1 почти залез в SOTA
Baidu заявляет, что модель стала сильнее в поиске, reasoning, knowledge Q&A, creative writing и agentic-задачах, используя около 6% pre-training cost сопоставимых моделей.
По цифрам:
- 1223 на LMArena Search
- 4-е место в мире по Search
- лучшая китайская модель в этом рейтинге
- 1476 на LMArena Text у ERNIE 5.1 Preview
- 13-е место глобально
Но есть нюанс: полноценного технического отчёта по ERNIE 5.1 пока не видно. Claim про 6% выглядит как заявление Baidu, а не как независимо проверенная метрика.
https://x.com/Baidu_Inc/status/2053009538769735774
Baidu заявляет, что модель стала сильнее в поиске, reasoning, knowledge Q&A, creative writing и agentic-задачах, используя около 6% pre-training cost сопоставимых моделей.
По цифрам:
- 1223 на LMArena Search
- 4-е место в мире по Search
- лучшая китайская модель в этом рейтинге
- 1476 на LMArena Text у ERNIE 5.1 Preview
- 13-е место глобально
Но есть нюанс: полноценного технического отчёта по ERNIE 5.1 пока не видно. Claim про 6% выглядит как заявление Baidu, а не как независимо проверенная метрика.
https://x.com/Baidu_Inc/status/2053009538769735774
👍9❤3🔥2🥱1