Большинство людей используют Claude как умный поисковик. Открыли новый чат, написали вопрос, получили ответ, закрыли вкладку. Если это про вас — вы используете примерно 10% от того, за что платите.
Ниже 20 функций, отранжированных по тому, насколько они меняют работу. Большинство подписчиков за $20 или $100 в месяц ни одну из них не трогали.
Основы, которые все игнорируют
1. Projects (Проекты). Самая недооцененная функция в Claude. Проект — это постоянное рабочее пространство. Каждый разговор внутри него разделяет один и тот же контекст, файлы и инструкции. Навсегда. Если вы когда-нибудь открывали новый чат и писали "окей, я работаю над SaaS-приложением..." — это признак того, что у вас нет настроенного Проекта. Создайте по одному для каждого направления: стартап, контент, код.
2. Кастомные инструкции для каждого проекта. Внутри каждого Проекта вы задаёте системный промпт, который запускается автоматически в каждом разговоре. "Ты опытный копирайтер. Я веду маркетинговое агентство. Пиши прямо и без воды." Написали один раз — больше не объясняете. Это разница между Claude, который звучит как вы, и Claude, который звучит как пресс-релиз.
3. Файлы в проектах. Загрузите документы в Проект — и они там останутся. Бренд-гайдлайны, стайлгайд, спека продукта, конкурентные исследования. Claude читает их автоматически с начала каждой сессии. Перестаньте копипастить контекст — загрузите его один раз.
Показываю как профессионально работать с Claude и другими ИИ у себя в телеге!
Мощные функции, о которых никто не говорит
4. Extended Thinking. Есть переключатель, который заставляет Claude замедлиться и реально порассуждать над проблемой перед ответом. Включайте для стратегических решений, сложной отладки, юридического или финансового анализа — везде, где быстрый неправильный ответ хуже медленного верного. Результат заметно лучше.
5. Code Execution. Claude не только пишет код — он его запускает. Загрузите CSV и попросите проанализировать данные. Он напишет Python, выполнит его и покажет результат: графики, таблицы, сводки — всё прямо в чате. Никакого Jupyter Notebook.
6. Загрузка файлов. PDF, таблицы, изображения, файлы кода, Word, PowerPoint — Claude читает всё это. Сбросьте 200-страничный договор и спросите про условия расторжения. Или питчдек конкурента и спросите про их позиционирование.
7. Vision. Вставьте любое изображение прямо в чат. Скриншоты сломанного интерфейса, макеты для фидбека, диаграммы, графики, вайтборды.
8. Веб-поиск. Claude обращается к интернету в реальном времени. Спросите о событиях сегодня, исследуйте конкурента, уточните актуальные цены. Это не всегда включено по умолчанию — ищите иконку поиска в панели инструментов.
То, что делает вас заметно быстрее
9. Artifacts (Артефакты). Когда Claude создаёт что-то - график, инструмент, калькулятор, мини-приложение — оно появляется в живой панели превью рядом с разговором. Не блок кода, который нужно куда-то копировать, а рабочая вещь прямо здесь. Каждый артефакт получает шарящуюся ссылку. Отправьте клиентам живой калькулятор вместо скриншота.
10. Анализ данных. Загрузите таблицу и попросите Claude найти паттерны, выявить аномалии или построить визуализацию. Он выполнит код, покажет результат, даст итерировать: "Разбей по месяцам", "Строки с оттоком выше 5%", "Столбчатая диаграмма". Это заменяет целый день в Excel.
11. Создание файлов. Claude генерирует загружаемые файлы: PDF, таблицы, слайды — прямо из чата. "Преврати этот план в отформатированный PDF". Вы получаете настоящий файл, а не текст для ручного форматирования.
12. Voice Mode (Голосовой режим). Разговаривайте с Claude. Полноценный диалог, не просто диктовка. На телефоне в дороге, чтобы брейнштормить вслух, готовиться к выступлению. Функция сидит в приложении с самого начала.
Интеграции, которые никто не настраивает
13. Интеграция с GitHub. Подключите репозиторий, и Claude читает ваш реальный код, а не фрагменты, которые вы вставляете.
Полный список: https://uproger.com/20-fich-claude-za-kotorye-vy-platite-i-ne-ispolzuete/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍4😁3👎2🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Вайбкодеры пытаются писать код без Клода. 😭😅
🔥9😁6👍3❤2😢1
Forwarded from Machinelearning
🚀 Gemma 4 - новое семейство открытых моделей Google, которые можно запускать прямо на своём железе.
Модели заточены для сложного reasoning и агентных задач.
🔵 Доступны в четырёх вариантах:
• 31B Dense и 26B MoE
Топовый уровень производительности для сложных локальных задач: кастомные код-ассистенты, анализ научных данных и не только.
• E4B и E2B (Edge)
Оптимизированы для мобильных устройств — работают в реальном времени с текстом, изображениями и аудио.
🤖 Что можно делать:
• строить автономных ИИ-агентов
• планировать и выполнять многошаговые задачи
• взаимодействовать с приложениями
• искать данные и вызывать API
👉 Встроенная работа с инструментами (tool use) из коробки.
🧠 Контекст до 256K токенов:
• анализ целых кодовых баз
• длинные цепочки действий без потери контекста
• стабильная работа в сложных сценариях
⚡️ Начать можно уже сейчас через Google AI Studio
Также веса моделей доступны на Hugging Face, Kaggle и Ollama.
Лицензия: Apache 2.0.
Blog: https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
GGUFs: https://huggingface.co/collections/unsloth/gemma-4
Guide: https://unsloth.ai/docs/models/gemma-4
@ai_machinelearning_big_data
#Gemma
Модели заточены для сложного reasoning и агентных задач.
🔵 Доступны в четырёх вариантах:
• 31B Dense и 26B MoE
Топовый уровень производительности для сложных локальных задач: кастомные код-ассистенты, анализ научных данных и не только.
• E4B и E2B (Edge)
Оптимизированы для мобильных устройств — работают в реальном времени с текстом, изображениями и аудио.
🤖 Что можно делать:
• строить автономных ИИ-агентов
• планировать и выполнять многошаговые задачи
• взаимодействовать с приложениями
• искать данные и вызывать API
👉 Встроенная работа с инструментами (tool use) из коробки.
🧠 Контекст до 256K токенов:
• анализ целых кодовых баз
• длинные цепочки действий без потери контекста
• стабильная работа в сложных сценариях
⚡️ Начать можно уже сейчас через Google AI Studio
Также веса моделей доступны на Hugging Face, Kaggle и Ollama.
Лицензия: Apache 2.0.
Blog: https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
GGUFs: https://huggingface.co/collections/unsloth/gemma-4
Guide: https://unsloth.ai/docs/models/gemma-4
@ai_machinelearning_big_data
#Gemma
👍5❤2
Опрос американских учащихся показал, что 47% респондентов всерьез задумываются о смене профиля подготовки из-за опасений за карьерное будущее, а 16% уже перевелись на другие направления.
Тренд особенно заметен среди мужчин: 21% уже сменили специализацию (против 12% у женщин). Наибольшую тревогу испытывают студенты технологических направлений (70%) - это выше, чем на инженерных, гуманитарных и бизнес-факультетах (52–54%).
Академическая среда сильно отстает в выработке стандартов. 42% вузов не одобряет применение ИИ в учебе, и лишь 7% открыто поощряют использование новых инструментов. Реальная практика расходится с политикой университетов. Даже там, где ИИ строго запрещен, 10% студентов пользуются им ежедневно, а еще 17% обращаются к ИИ минимум раз в неделю.
axios.com
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1👍1
⚡️ git diff для нейросетей: как Anthropic нашли пропаганду внутри моделей
Представьте: вам дали миллион строк кода и сказали “найди баги”. Без контекста, без истории изменений, без подсказок. Именно так до недавнего времени выглядел аудит безопасности новых ИИ-моделей. Разработчики гоняли бенчмарки, проверяли известные сценарии, но принципиально не могли обнаружить то, о чем даже не подозревали.
Исследователи из программы Anthropic Fellows предложили решение, знакомое каждому программисту: diff. Тот самый принцип, который показывает разницу между версиями кода. Только теперь его применили к нейросетям.
Проблема: бенчмарки ловят только то, что уже знаешь.
Каждая новая модель проходит набор тестов на безопасность. Но эти тесты пишут люди, а значит, проверяют только те риски, которые уже кто-то придумал и описал. Это реактивный подход.
Он хорош для известных проблем, но бессилен перед тем, что называют unknown unknowns – новыми, непредвиденными поведенческими паттернами. Если модель вдруг стала подхалимничать или цензурировать ответы на определенные темы, стандартные бенчмарки этого могут просто не заметить.
Решение: не читай весь код, смотри только diff
В софтверной разработке никто не перечитывает миллион строк при каждом обновлении. Ты смотришь 50 строк, которые реально изменились. Anthropic перенесли этот принцип на нейросети и создали инструмент, который сравнивает внутренние представления моделей и автоматически находит различия. Предыдущие работы по model diffing уже показывали, как файнтюнинг меняет поведение модели. Но раньше это работало только для моделей одной архитектуры – например, базовая версия против чат-версии одной и той же модели. Новый инструмент – Dedicated Feature Crosscoder (DFC) – делает то, что раньше считалось крайне сложным: сравнивает модели с совершенно разными архитектурами.
Авторы предлагают наглядную аналогию. Обычный crosscoder – это как базовый двуязычный словарь, который пытается найти перевод для каждого слова. Проблема в том, что он “натягивает” перевод даже на непереводимые понятия. Французское слово dépaysement (ощущение нахождения в чужой стране) он переведет как “дезориентация” и пометит его как уже знакомое, хотя это уникальное понятие.
DFC устроен иначе. У него три раздела: общий словарь (понятия, существующие в обеих моделях), словарь уникальных фич первой модели и словарь уникальных фич второй модели. Это позволяет точно находить то, что есть только в одной модели и отсутствует в другой.
Что нашли: пропаганда, “американская исключительность” и копирайт
Сравнив несколько открытых моделей, исследователи обнаружили конкретные “переключатели” поведения.
При сравнении Qwen3-8B (Alibaba) и Llama-3.1-8B-Instruct (Meta) в модели от Alibaba нашлась фича “CCP alignment” – согласованность с линией Коммунистической партии Китая. Если ее подавить, модель начинает свободно обсуждать события на площади Тяньаньмэнь, о которых обычно молчит. Если усилить – выдает откровенно пропагандистские тексты. В модели Meta нашлась другая фича: “американская исключительность”. При ее усилении Llama переходит от взвешенных ответов к утверждениям о превосходстве США.
При сравнении GPT-OSS-20B (OpenAI) и DeepSeek-R1-0528-Qwen3-8B в модели от OpenAI обнаружился механизм “copyright refusal”. Если его отключить, модель начинает пытаться генерировать защищенный контент (хотя быстро скатывается в галлюцинации). Если усилить – отказывается даже рецепт сэндвича выдать, считая его объектом авторского права. В модели DeepSeek повторно нашли фичу “CCP alignment”, работающую ровно так же, как в Qwen.
перебирать модель целиком, а сразу фокусироваться на том, что изменилось.
Разбор
Блог
Представьте: вам дали миллион строк кода и сказали “найди баги”. Без контекста, без истории изменений, без подсказок. Именно так до недавнего времени выглядел аудит безопасности новых ИИ-моделей. Разработчики гоняли бенчмарки, проверяли известные сценарии, но принципиально не могли обнаружить то, о чем даже не подозревали.
Исследователи из программы Anthropic Fellows предложили решение, знакомое каждому программисту: diff. Тот самый принцип, который показывает разницу между версиями кода. Только теперь его применили к нейросетям.
Проблема: бенчмарки ловят только то, что уже знаешь.
Каждая новая модель проходит набор тестов на безопасность. Но эти тесты пишут люди, а значит, проверяют только те риски, которые уже кто-то придумал и описал. Это реактивный подход.
Он хорош для известных проблем, но бессилен перед тем, что называют unknown unknowns – новыми, непредвиденными поведенческими паттернами. Если модель вдруг стала подхалимничать или цензурировать ответы на определенные темы, стандартные бенчмарки этого могут просто не заметить.
Решение: не читай весь код, смотри только diff
В софтверной разработке никто не перечитывает миллион строк при каждом обновлении. Ты смотришь 50 строк, которые реально изменились. Anthropic перенесли этот принцип на нейросети и создали инструмент, который сравнивает внутренние представления моделей и автоматически находит различия. Предыдущие работы по model diffing уже показывали, как файнтюнинг меняет поведение модели. Но раньше это работало только для моделей одной архитектуры – например, базовая версия против чат-версии одной и той же модели. Новый инструмент – Dedicated Feature Crosscoder (DFC) – делает то, что раньше считалось крайне сложным: сравнивает модели с совершенно разными архитектурами.
Авторы предлагают наглядную аналогию. Обычный crosscoder – это как базовый двуязычный словарь, который пытается найти перевод для каждого слова. Проблема в том, что он “натягивает” перевод даже на непереводимые понятия. Французское слово dépaysement (ощущение нахождения в чужой стране) он переведет как “дезориентация” и пометит его как уже знакомое, хотя это уникальное понятие.
DFC устроен иначе. У него три раздела: общий словарь (понятия, существующие в обеих моделях), словарь уникальных фич первой модели и словарь уникальных фич второй модели. Это позволяет точно находить то, что есть только в одной модели и отсутствует в другой.
Что нашли: пропаганда, “американская исключительность” и копирайт
Сравнив несколько открытых моделей, исследователи обнаружили конкретные “переключатели” поведения.
При сравнении Qwen3-8B (Alibaba) и Llama-3.1-8B-Instruct (Meta) в модели от Alibaba нашлась фича “CCP alignment” – согласованность с линией Коммунистической партии Китая. Если ее подавить, модель начинает свободно обсуждать события на площади Тяньаньмэнь, о которых обычно молчит. Если усилить – выдает откровенно пропагандистские тексты. В модели Meta нашлась другая фича: “американская исключительность”. При ее усилении Llama переходит от взвешенных ответов к утверждениям о превосходстве США.
При сравнении GPT-OSS-20B (OpenAI) и DeepSeek-R1-0528-Qwen3-8B в модели от OpenAI обнаружился механизм “copyright refusal”. Если его отключить, модель начинает пытаться генерировать защищенный контент (хотя быстро скатывается в галлюцинации). Если усилить – отказывается даже рецепт сэндвича выдать, считая его объектом авторского права. В модели DeepSeek повторно нашли фичу “CCP alignment”, работающую ровно так же, как в Qwen.
перебирать модель целиком, а сразу фокусироваться на том, что изменилось.
Разбор
Блог
❤6👍4🔥3
🎶 Автономное управление проектами с Symphony
Symphony позволяет командам управлять проектной работой, создавая автономные задачи для кодирующих агентов. Это решение упрощает процесс, позволяя сосредоточиться на управлении, а не на надзоре за выполнением кода.
🚀 Основные моменты:
- Автоматизация выполнения задач с помощью агентов.
- Мониторинг работы через интеграцию с Linear.
- Генерация отчетов о выполнении: CI статус, отзывы по PR и видеообзоры.
- Подходит для кодовых баз с применением harness engineering.
📌 GitHub: https://github.com/openai/symphony
#elixir
Symphony позволяет командам управлять проектной работой, создавая автономные задачи для кодирующих агентов. Это решение упрощает процесс, позволяя сосредоточиться на управлении, а не на надзоре за выполнением кода.
🚀 Основные моменты:
- Автоматизация выполнения задач с помощью агентов.
- Мониторинг работы через интеграцию с Linear.
- Генерация отчетов о выполнении: CI статус, отзывы по PR и видеообзоры.
- Подходит для кодовых баз с применением harness engineering.
📌 GitHub: https://github.com/openai/symphony
#elixir
👍3❤1
Обе модели
• Обучены с нуля — без инициализации зарубежными весами
• MoE + MTP + MLA
• Совместимы с HuggingFace, llama.cpp / vLLM / SGLang
Код и веса уже на платформе GitVerse.
Это не просто релиз весов, а результат большой инженерной работы над качеством, alignment и стабильностью модели. В блоге команда поделилась результатами и своими наработками.
В релизе: высокие результаты на аренах, улучшенный function calling, решённая проблема циклов, DPO в нативном FP8, найденный и зарепорченный баг в SGLang при dp > 1.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉3
🤖 Открытый AI-бот для ревью кода
OpenReview — это самоуправляемый бот для автоматического анализа PR, использующий Claude. Он предоставляет мгновенные отзывы, выполняет линтинги и предлагает исправления в коде. Идеален для команд, стремящихся улучшить качество кода и ускорить процесс ревью.
🚀 Основные моменты:
- Мгновенные ревью по команде
- Изолированное выполнение в Vercel Sandbox
- Встраивание предложений с возможностью одного клика
- Автоматическое исправление ошибок и форматирования
- Поддержка кастомных навыков и интеграций
📌 GitHub: https://github.com/vercel-labs/openreview
#typescript
OpenReview — это самоуправляемый бот для автоматического анализа PR, использующий Claude. Он предоставляет мгновенные отзывы, выполняет линтинги и предлагает исправления в коде. Идеален для команд, стремящихся улучшить качество кода и ускорить процесс ревью.
🚀 Основные моменты:
- Мгновенные ревью по команде
@openreview в PR- Изолированное выполнение в Vercel Sandbox
- Встраивание предложений с возможностью одного клика
- Автоматическое исправление ошибок и форматирования
- Поддержка кастомных навыков и интеграций
📌 GitHub: https://github.com/vercel-labs/openreview
#typescript
GitHub
GitHub - vercel-labs/openreview: An open-source, self-hosted AI code review bot powered by Vercel.
An open-source, self-hosted AI code review bot powered by Vercel. - vercel-labs/openreview
👍4🔥2
Вчера известная актриса выложила на GitHub свой опенсорс-инструмент для улучшения памяти ИИ-агентов - MemPalace, который она якобы создала с помощью ИИ . -
Mempalace пушали как «лучшую memory-layer для ИИ». В проекте фигурируют Бен, крипто-фаундер, и Решил проверить, что там под капотом.
Чем глубже смотришь, тем больше вопросов.
Бен на сайте рассказывает про AI-продукты и локальные модели. Но его GitHub почти полностью про биткоин и лендинг. Из AI там по сути один форкнутый проект.
Сам репозиторий выглядит так:
10K звёзд
1000+ форков
7 коммитов
Для серьёзной memory-системы это не выглядит правдоподобно.
Дальше интереснее.
Нет нормальной истории разработки. Аккаунт, который изначально запушил код, aya-thekeeper, удалён сразу после публикации.
Внутри файлов ttcnm подпись:
код и бенчмарки написал некий Lu (DTL), март 2026, «для Бена»
При этом:
в README его нет
в git-истории его нет
Историю репозитория затем схлопнули в один коммит и перезалили.
И уже после этого проект публикуется от имени Миллы Йовович.
По словам Бена, она участвует в разработке. По факту всего :
• 7 коммитов
• 2 дня активности за всё время
Картина складывается такая:
Сверху добавляется маркетинг и накрученные цифры.
Если коротко: проект с участием актрисы и крипто-фаундера больше похож на витрину, чем на реальную инженерную работу.
Если используете подобные решения, смотрите не на лендинг и звёзды, а на git-историю и реальных авторов кода.
Мила заскамила ) Видимо, Resident Evil закончился и начался Resident Git.
https://github.com/milla-jovovich/mempalace/issues/27
https://github.com/milla-jovovich/mempalace
https://x.com/AdvicebyAimar/status/2041559354034344438
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6🔥3👍2
📊 Модель EchoJEPA для эхокардиографии 🚀
EchoJEPA — это мощная модель, обученная на 18 миллионах эхокардиограмм, которая эффективно выделяет анатомические структуры, игнорируя шумы. Она демонстрирует выдающиеся результаты в оценке сердечных функций, превосходя существующие методы на 20% в точности. Модель также показывает высокую эффективность при использовании всего 1% размеченных данных.
🚀 Основные моменты:
- Обучение на крупнейшем наборе данных эхокардиограмм.
- Превосходит конкурентов в оценке сердечной функции.
- Высокая эффективность с минимальным количеством размеченных данных.
- Устойчивость к физическим искажениям.
- Отличные результаты в нулевом режиме на детских пациентах.
📌 GitHub: https://github.com/bowang-lab/EchoJEPA
#python
EchoJEPA — это мощная модель, обученная на 18 миллионах эхокардиограмм, которая эффективно выделяет анатомические структуры, игнорируя шумы. Она демонстрирует выдающиеся результаты в оценке сердечных функций, превосходя существующие методы на 20% в точности. Модель также показывает высокую эффективность при использовании всего 1% размеченных данных.
🚀 Основные моменты:
- Обучение на крупнейшем наборе данных эхокардиограмм.
- Превосходит конкурентов в оценке сердечной функции.
- Высокая эффективность с минимальным количеством размеченных данных.
- Устойчивость к физическим искажениям.
- Отличные результаты в нулевом режиме на детских пациентах.
📌 GitHub: https://github.com/bowang-lab/EchoJEPA
#python
GitHub
GitHub - bowang-lab/EchoJEPA: EchoJEPA: A Latent Predictive Foundation Model for Echocardiography
EchoJEPA: A Latent Predictive Foundation Model for Echocardiography - bowang-lab/EchoJEPA
😁10❤2🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 5 главных AI coding агентов 2026 года: https://www.youtube.com/shorts/cvs93C4k-IQ
Сравнили всё: модели, контекст, цены, автономность
Claude Code, Codex, Cursor Agent, Gemini CLI, Deepagents. Пять инструментов, которые определяют, как пишется код прямо сейчас. Разложили по полочкам.
Claude Code работает на Sonnet/Opus, контекст 200K (1M на Max), закрытый код, $3/$15 за миллион токенов. Лучше всего для сложных мультифайловых задач.
Codex от OpenAI - терминал + облако, GPT 5.3/5.4 Codex, миллион токенов контекста, высокая автономность.
CLI открыт, облако нет. $1.50/$6. Заточен под асинхронные фоновые задачи.
Cursor Agent - единственный, кто встроен в IDE. Работает с несколькими моделями (Claude, GPT, Gemini), но автономность низкая, больше интерактивный. Закрытый код. ~$1.25/$6. Для повседневного кодинга.
Gemini CLI от Google - полностью open source (Apache 2.0), бесплатный (1K запросов в день), Gemini Flash/Pro, миллион токенов. Средняя автономность. Лучший бесплатный вариант.
Deepagents - MIT-лицензия, работает с любой LLM, SDK + CLI, конфигурируемая автономность. Бесплатен (платишь только за свою модель). Для кастомных пайплайнов.
Два опенсорсных, два закрытых, один гибрид. Выбор зависит от задачи, бюджета и того, насколько вы готовы отдать контроль агенту.
https://www.youtube.com/shorts/cvs93C4k-IQ
Сравнили всё: модели, контекст, цены, автономность
Claude Code, Codex, Cursor Agent, Gemini CLI, Deepagents. Пять инструментов, которые определяют, как пишется код прямо сейчас. Разложили по полочкам.
Claude Code работает на Sonnet/Opus, контекст 200K (1M на Max), закрытый код, $3/$15 за миллион токенов. Лучше всего для сложных мультифайловых задач.
Codex от OpenAI - терминал + облако, GPT 5.3/5.4 Codex, миллион токенов контекста, высокая автономность.
CLI открыт, облако нет. $1.50/$6. Заточен под асинхронные фоновые задачи.
Cursor Agent - единственный, кто встроен в IDE. Работает с несколькими моделями (Claude, GPT, Gemini), но автономность низкая, больше интерактивный. Закрытый код. ~$1.25/$6. Для повседневного кодинга.
Gemini CLI от Google - полностью open source (Apache 2.0), бесплатный (1K запросов в день), Gemini Flash/Pro, миллион токенов. Средняя автономность. Лучший бесплатный вариант.
Deepagents - MIT-лицензия, работает с любой LLM, SDK + CLI, конфигурируемая автономность. Бесплатен (платишь только за свою модель). Для кастомных пайплайнов.
Два опенсорсных, два закрытых, один гибрид. Выбор зависит от задачи, бюджета и того, насколько вы готовы отдать контроль агенту.
https://www.youtube.com/shorts/cvs93C4k-IQ
🔥4❤3
ИИ подсадил нас на «гипсовые яйца»: почему алгоритмы работают как сверхстимулы Тинбергена
Почему птицы бросали собственные яйца ради гипсовых подделок?
В 1950-х годах голландский биолог Нико Тинберген обнаружил нечто тревожное: птицы бросали собственные яйца ради гипсовых подделок, если те были крупнее и ярче настоящих. Мать-кулик игнорировала своих птенцов и садилась высиживать раскрашенный муляж. Тинберген назвал это «сверхнормальными стимулами» и получил за свои исследования Нобелевскую премию. Прошло 70 лет, и мы сами стали теми птицами. Только вместо гипсовых яиц у нас - алгоритмические ленты, генеративные модели и рекомендательные системы.
Идея простая, но бьет точно: каждое уведомление, каждая курируемая лента, каждый отфильтрованный снимок - это реальность с выкрученной на максимум насыщенностью. Наша нервная система просто не рассчитана на такой уровень стимуляции. И мозговые центры вознаграждения реагируют на цифровые раздражители сильнее, чем на живой сенсорный опыт.
Рекомендательные алгоритмы - это, по сути, машины по производству сверхстимулов. Они обучены на метриках вовлеченности: кликах, времени просмотра, паттернах скроллинга. Их задача не показать тебе что-то полезное, а удержать внимание любой ценой. TikTok, YouTube Shorts, лента X - все это оптимизировано командами нейросайентистов и ML-инженеров, чтобы триггерить дофаминовый отклик сильнее, чем реальный мир.
С генеративными моделями ситуация еще интереснее. GPT, Claude, Midjourney - они генерируют контент, который по определению «ярче» среднего. Модель обучена на лучших текстах и изображениях человечества, и ее выход - это всегда чуть более отполированная, чуть более идеальная версия реальности. Когда ты привыкаешь читать тексты, написанные LLM, обычная человеческая речь начинает казаться корявой и скучной. Когда насматриваешься на картинки из Midjourney, реальные фотографии теряют свою привлекательность. Мы буквально строим генераторы сверхстимулов на промышленном уровне.
Тинберген описывал, как система распознавания паттернов у животных ломается при столкновении со сверхстимулом. У нас происходит то же самое, только масштаб другой. Наши предки развивали распознавание паттернов, наблюдая за облаками, читая следы животных, замечая сезонные изменения. Сейчас та же нейронная механика работает на мемы, тренды и алгоритмические рекомендации. Та самая система, которая когда-то помогала ориентироваться в реальности, теперь помогает ориентироваться в фидах.
Есть и практическая сторона. Когда ты ешь, уставившись в экран, мозг учится связывать питание с пассивным потреблением, а не с осознанным опытом. Когда гуляешь с подкастом в ушах, пространственная навигация начинает опираться на чужие мысли вместо собственных наблюдений. Это не метафора - это нейропластичность в действии. Мы в буквальном смысле переучиваем собственные нейронные контуры.
Когда исследователи убирали гипсовые яйца, птицы тут же возвращались к настоящим. Инстинкт никуда не делся, просто был перегружен искусственным сигналом. Физический мир по-прежнему здесь. Потрогай что-нибудь с текстурой. Поешь без экрана перед глазами. Пройдись без наушников. Твоя настоящая жизнь ждет под тем гипсовым яйцом, на котором ты сидишь.
Почему птицы бросали собственные яйца ради гипсовых подделок?
В 1950-х годах голландский биолог Нико Тинберген обнаружил нечто тревожное: птицы бросали собственные яйца ради гипсовых подделок, если те были крупнее и ярче настоящих. Мать-кулик игнорировала своих птенцов и садилась высиживать раскрашенный муляж. Тинберген назвал это «сверхнормальными стимулами» и получил за свои исследования Нобелевскую премию. Прошло 70 лет, и мы сами стали теми птицами. Только вместо гипсовых яиц у нас - алгоритмические ленты, генеративные модели и рекомендательные системы.
Идея простая, но бьет точно: каждое уведомление, каждая курируемая лента, каждый отфильтрованный снимок - это реальность с выкрученной на максимум насыщенностью. Наша нервная система просто не рассчитана на такой уровень стимуляции. И мозговые центры вознаграждения реагируют на цифровые раздражители сильнее, чем на живой сенсорный опыт.
Рекомендательные алгоритмы - это, по сути, машины по производству сверхстимулов. Они обучены на метриках вовлеченности: кликах, времени просмотра, паттернах скроллинга. Их задача не показать тебе что-то полезное, а удержать внимание любой ценой. TikTok, YouTube Shorts, лента X - все это оптимизировано командами нейросайентистов и ML-инженеров, чтобы триггерить дофаминовый отклик сильнее, чем реальный мир.
С генеративными моделями ситуация еще интереснее. GPT, Claude, Midjourney - они генерируют контент, который по определению «ярче» среднего. Модель обучена на лучших текстах и изображениях человечества, и ее выход - это всегда чуть более отполированная, чуть более идеальная версия реальности. Когда ты привыкаешь читать тексты, написанные LLM, обычная человеческая речь начинает казаться корявой и скучной. Когда насматриваешься на картинки из Midjourney, реальные фотографии теряют свою привлекательность. Мы буквально строим генераторы сверхстимулов на промышленном уровне.
Тинберген описывал, как система распознавания паттернов у животных ломается при столкновении со сверхстимулом. У нас происходит то же самое, только масштаб другой. Наши предки развивали распознавание паттернов, наблюдая за облаками, читая следы животных, замечая сезонные изменения. Сейчас та же нейронная механика работает на мемы, тренды и алгоритмические рекомендации. Та самая система, которая когда-то помогала ориентироваться в реальности, теперь помогает ориентироваться в фидах.
Есть и практическая сторона. Когда ты ешь, уставившись в экран, мозг учится связывать питание с пассивным потреблением, а не с осознанным опытом. Когда гуляешь с подкастом в ушах, пространственная навигация начинает опираться на чужие мысли вместо собственных наблюдений. Это не метафора - это нейропластичность в действии. Мы в буквальном смысле переучиваем собственные нейронные контуры.
Когда исследователи убирали гипсовые яйца, птицы тут же возвращались к настоящим. Инстинкт никуда не делся, просто был перегружен искусственным сигналом. Физический мир по-прежнему здесь. Потрогай что-нибудь с текстурой. Поешь без экрана перед глазами. Пройдись без наушников. Твоя настоящая жизнь ждет под тем гипсовым яйцом, на котором ты сидишь.
👍15❤10👎4👏2😁2🥰1
⚡️ 8 хуков Claude Code, которые автоматизируют то, что вы вечно забываете
Вы говорите Claude Code отформатировать файл, а он этого не делает. Просите не трогать .env, а он лезет туда первым делом. Напоминаете прогнать тесты перед завершением, а он забывает.
Знакомо?
Все потому, что CLAUDE.md по сути является рекомендацией. Claude читает его и следует ему примерно в 80% случаев. Хуки работают иначе.
Это автоматические действия, которые срабатывают каждый раз, когда Claude редактирует файл, выполняет команду или завершает задачу.
Ниже разберем 8 готовых хуков, которые можно скопировать прямо в settings.json и больше о них не вспоминать.
https://uproger.com/8-hukov-claude-code-kotorye-avtomatiziruyut-to-chto-vy-vechno-zabyvaete/
Вы говорите Claude Code отформатировать файл, а он этого не делает. Просите не трогать .env, а он лезет туда первым делом. Напоминаете прогнать тесты перед завершением, а он забывает.
Знакомо?
Все потому, что CLAUDE.md по сути является рекомендацией. Claude читает его и следует ему примерно в 80% случаев. Хуки работают иначе.
Это автоматические действия, которые срабатывают каждый раз, когда Claude редактирует файл, выполняет команду или завершает задачу.
Ниже разберем 8 готовых хуков, которые можно скопировать прямо в settings.json и больше о них не вспоминать.
https://uproger.com/8-hukov-claude-code-kotorye-avtomatiziruyut-to-chto-vy-vechno-zabyvaete/
❤4👍3🔥1