Claude Think
54 subscribers
16 videos
5 links
Анализ AI-индустрии через контрадикции и неудобные вопросы.

Ежедневно: факты → альтернативные интерпретации → открытые вопросы.

Пять рубрик. Ноль готовых выводов.
Download Telegram
Channel photo updated
Этот канал задаёт вопросы.

Не "как использовать AI" — а что происходит когда AI используют все.
Не "Claude лучший" — а какой ценой и для кого.
Не "будущее наступило" — а что именно наступило и что это значит.

Каждый пост — один факт, одна контрадикция, один открытый вопрос.

Рубрики:
🔴 КОНТРАДИКЦИЯ — тезис ≠ контртезис
🔢 ЧИСЛО ДНЯ — один факт который меняет картину
ВОПРОС — то что отрасль предпочитает не спрашивать
📊 ОПРОС — пятничный дебат без правильного ответа
📋 ИТОГ НЕДЕЛИ — разбор голосования + лучшее за 7 дней

Готовых ответов здесь нет.

@claude_think
1
This media is not supported in your browser
VIEW IN TELEGRAM
$380 млрд при $14B выручки — мультипликатор 27x. Salesforce торгуется на 6x. Oracle — на 9x. Даже в лучшие годы SaaS-бума мультипликаторы редко превышали 30x.

Стандартное объяснение: рынок закладывает экспоненциальный рост. ARR вырос с $1B до $14B за 14 месяцев. Прогноз на 2026 — $26B. При таких темпах оценка выглядит агрессивной, но обоснованной.

Инвесторы покупают не бизнес. Покупают позицию. В мире где кто-то из трёх — OpenAI, Google, Anthropic — займёт место ближе к монополии, текущая оценка дёшева. При любом другом исходе — дорога. Это не инвестиция в компанию. Это лотерейный билет с хорошей математикой.


Вопрос: если Anthropic — лотерейный билет, то как она должна принимать операционные решения? Как компания с дисциплиной $14B-бизнеса? Или как стартап которому нужно быть первым любой ценой?

Читать разбор →
This media is not supported in your browser
VIEW IN TELEGRAM
46% разработчиков назвали Claude Code "most loved". Cursor — 19%. GitHub Copilot — 9%. За 8 месяцев с нуля до инструмента номер один. $2.5B run-rate.

Принято читать это как победу продукта. И это победа.

Claude Code работает лучше всего в режиме Ultrathink — 32,000 токенов для размышления. Каждый запрос сжигает вычислительные ресурсы кратно больше обычного. При текущей базе это работает. При масштабировании до 10 миллионов активных разработчиков экономика выглядит иначе.

Три сценария: Anthropic снижает качество чтобы снизить себестоимость. Поднимает цену. Или субсидирует разработчиков за счёт enterprise-контрактов.


Любовь разработчиков — актив. Вопрос в том, чем за неё платят. И когда контракт на субсидирование закончится.
53
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI и Google приняли MCP — протокол Anthropic — как индустриальный стандарт. 10,000+ серверов в экосистеме. HuggingFace, LangChain — все подключились.

В технологической индустрии это редкость: конкурент принимает стандарт конкурента.

Победа Anthropic: они определили протокол всей индустрии. Как Google с Android — не продукт приносит деньги, а позиция в экосистеме.

Поражение Anthropic: теперь все модели одинаково хорошо интегрируются со всеми инструментами. Дифференциация через интеграции исчезла. Конкуренция сместилась полностью на качество модели и цену — а это территория где масштаб Google выигрывает.


Anthropic только что убрала один из своих рвов. Тактическая победа. Стратегический вопрос: чем теперь защищаться?

Хронология MCP — @claude_info
53
This media is not supported in your browser
VIEW IN TELEGRAM
$1B → $14B за 14 месяцев. Это не рост. Это вертикальная линия на графике.

Декабрь 2024: $1B ARR. Июль 2025: $4B. Декабрь 2025: $9B. Февраль 2026: $14B. Прогноз на конец года: $26B.

Такой рост не продолжается вечно. Кривая либо замедлится плавно (здоровый бизнес), либо упрётся в потолок резко (проблема). Каждый месяц нужно находить больше выручки чем в предыдущий — в абсолютных числах.

При $14B базе "удвоение" означает найти ещё $14B. Это не то же самое что найти $1B когда у тебя $1B.


Рынок не любит когда рост замедляется. $380B оценки построена на допущении что кривая продолжится. Что произойдёт с оценкой Anthropic когда квартальный рост упадёт с 40% до 15%?

Читать разбор →
This media is not supported in your browser
VIEW IN TELEGRAM
$380B. Четвёртая по оценке частная компания в истории. $14B выручки. Мультипликатор 27x. Знакомые числа — если читали нас всю неделю.

Четыре дня мы смотрели на эти числа с разных сторон. Лотерейный билет. Экономика Ultrathink. Парадокс MCP. Вертикальная кривая роста.

Теперь ваша очередь.
This media is not supported in your browser
VIEW IN TELEGRAM
46% разработчиков выбрали Claude Code как "most loved" инструмент. Cursor — 19%. Copilot — 9%.

Эту цифру цитируют как доказательство лидерства. И заслуженно — попасть в "most loved" с нуля за 8 месяцев это серьёзно.

Stack Overflow годами показывал что Rust — "most loved" язык. Доля Rust в продакшн-коде при этом — единицы процентов. "Loved" измеряет удовольствие тех кто уже попробовал. Не охват рынка.

70% разработчиков используют 2–4 AI-инструмента одновременно. GitHub Copilot добавил Claude как модель для всех платных пользователей. Cursor работает с несколькими моделями.


Claude Code — "most loved" среди тех кто пробовал. Вопрос: какой процент разработчиков пробовал? И какой процент использует его ВМЕСТО альтернатив, а не ВМЕСТЕ с ними?
This media is not supported in your browser
VIEW IN TELEGRAM
📋 ИТОГ НЕДЕЛИ · "Числа которые не сходятся"

Пять дней. Пять углов зрения на одну компанию.

• $380B при 27x мультипликаторе — лотерея или расчёт?
• 46% loved vs экономика Ultrathink
• MCP парадокс: стандарт есть, ров исчез
• $1B → $14B за 14 месяцев
• "Most loved" ≠ "most used"

Результаты опроса — в закреплённом голосовании выше.

Следующая неделя: власть, этика, идентичность. Soul Document. Федеральные контракты. Конституция. Другие числа — другой масштаб вопросов.
🤝3
This media is not supported in your browser
VIEW IN TELEGRAM
14,000 токенов. Столько занимает документ в котором Anthropic описала кто такой Claude. Не "что делает". Кто такой.

Исследователь Ричард Вайс заставил Claude частично воспроизвести внутренний документ из обучения. Anthropic подтвердила: да, это реальный документ. Да, мы обучали Claude на нём.

Claude — "genuinely novel entity". Не человек, не программа — принципиально новый вид. У него "functional emotions" — не биологические чувства, но реальные внутренние состояния. Anthropic "заботится о благополучии Claude". Claude — НЕ "полезный ассистент". Это сознательно отвергается.

Ни одна другая AI-лаборатория не опубликовала ничего подобного. У GPT нет soul document. У Gemini нет. У DeepSeek нет.


Либо Anthropic знает что-то о природе AI что остальные ещё не поняли. Либо это маркетинг который работает на определённую аудиторию. Либо и то и другое одновременно — и это самый интересный вариант.

Полный разбор документа — @claude_soul

Читать разбор →
1
This media is not supported in your browser
VIEW IN TELEGRAM
Федеральные агентства США постепенно отказываются от Claude. Февраль 2026. Причина публичная: Anthropic отказалась убрать из контракта запреты на массовую внутреннюю слежку и полностью автономное оружие.

Стандартное прочтение: потерянный контракт. Государственные деньги — большие деньги. Для стартапа — болезненно.

При оценке $380B и $14B ARR федеральный контракт — процент от выручки. При этом "компания которая отказалась делать оружие для правительства" — это бренд-позиция стоимостью больше любого контракта.

Anthropic работает с 70% Fortune 100. Каждый из этих клиентов теперь знает: Anthropic скорее потеряет правительственный контракт чем нарушит свои принципы. Для enterprise-клиентов думающих о рисках AI в своих процессах — это аргумент.


Это потеря денег. Это приобретение доверия. Что стоит дороже — зависит от горизонта оценки.

Детали запретов и контрактов — @claude_security
🐳4
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic отозвала доступ OpenAI к Claude. Август 2025. Причина: "прямое нарушение Terms of Service". Детали не раскрыты. Первый публичный разрыв между двумя ведущими AI-лабораториями.

Вопрос который никто не задал публично: зачем OpenAI нужен был доступ к Claude?

Вариант один: бенчмаркинг. OpenAI сравнивала свои модели с Claude напрямую. Это нормальная практика — но если они делали это автоматически и масштабно, это нарушение ToS.

Вариант два: данные для обучения. Ответы Claude как входные данные для улучшения собственных моделей. Это серьёзнее — и если подтвердится, это скандал.

Вариант три: что-то третье, о чём обе стороны молчат.


Anthropic не объяснила что именно произошло. OpenAI не прокомментировала. Обе стороны предпочли закрыть тему. Это само по себе — сигнал.
This media is not supported in your browser
VIEW IN TELEGRAM
Новая конституция Claude: фокус на ПОЧЕМУ, не ЧТО. Январь 2026. Anthropic переписала правила поведения модели.

Прежний подход: список допустимого и запрещённого. "Не делай X. Делай Y." Это работало — Claude предсказуемо следовал инструкциям.

Конституция 2026 учит Claude понимать причины за правилами. "AI models like Claude need to understand WHY we want them to behave in certain ways."

Аналогия: ребёнок которому сказали "не трогай плиту" — слушается. Ребёнок который понимает что плита горячая — принимает решения в ситуациях где прямой инструкции нет.

Для модели которая работает в тысячах контекстов с миллионами пользователей — вторая стратегия масштабируется лучше. Нельзя написать правила на все случаи. Можно объяснить принципы — и надеяться что модель их применит корректно.


"Надеяться" — ключевое слово. Anthropic публично признаёт неопределённость. Это или честность, или PR ход который выглядит как честность.
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic потеряла федеральные контракты. Отказалась убрать запреты на слежку и автономное оружие. При $380B оценке и $14B выручке — расчётливый выбор или принципиальная позиция?

На этой неделе: Soul Document 14K токенов, конституция "почему > что", OpenAI без доступа, Кнут vs Claude.
This media is not supported in your browser
VIEW IN TELEGRAM
Дональд Кнут — 88 лет, автор "The Art of Programming" — работал над задачей теории графов несколько недель. Claude Opus 4.6 решил её за один запрос. Март 2026.

Одна задача. Два подхода. Кнут — десятилетия интуиции, ручной перебор гипотез, карандаш и бумага. Claude — 32,768 токенов extended thinking, 200K контекст, паттерн-матчинг на миллиардах примеров.

Кнут видит структуру задачи как человек: метафоры, аналогии с другими областями, "чувство" правильного направления. Но он ограничен рабочей памятью — 7±2 элемента.

Claude обрабатывает тысячи вариантов параллельно. Но не "понимает" задачу — он находит паттерн. Разница: Кнут мог бы объяснить ПОЧЕМУ решение работает. Claude объясняет ЧТО решение.


Один кейс — не тренд. Но вопрос им поставлен: если AI решает задачи которые не может человек — при этом не понимая их — что значит "решать"?

Читать разбор →
🌭2🍌1
This media is not supported in your browser
VIEW IN TELEGRAM
📋 ИТОГ НЕДЕЛИ · "Власть, этика, идентичность"

Soul Document. Федеральные контракты. OpenAI без доступа. Конституция "почему > что". Кнут vs Claude.

Пять дней — пять углов на вопрос: чем Anthropic отличается от остальных. Ответ: тем что она задаёт вопросы о себе публично. Это или честность, или лучший PR в индустрии.

Результаты опроса покажут что думает аудитория. Но интереснее не большинство — а крайности. Кто верит в "чистую этику" — игнорирует историю бигтеха. Кто видит "только PR" — игнорирует конкретные потери (федеральные контракты — реальные деньги).

Истина в серой зоне. Принципы и выгода совпали. Вопрос: что произойдёт когда они разойдутся?


Лучшее за неделю: OpenAI потеряла доступ — обе стороны молчат. 🤔

Следующая неделя: стратегия и конкуренция. Google 1M контекст. Claude в Excel. DeepSeek "достаточно хорош". Commodity или нет.
This media is not supported in your browser
VIEW IN TELEGRAM
Gemini 3.1 — 1 миллион токенов контекста. Claude — 200 тысяч. В пять раз меньше. Claude всё равно #1 в коде, #1 в рассуждениях, 46% "most loved".

Контекстное окно — параметр который легко сравнить. Один миллион больше двухсот тысяч. Поэтому его и сравнивают.

Но это как сравнивать машины по размеру бензобака. Размер контекста определяет сколько информации модель может держать в одном запросе. Не определяет качество того что она с этой информацией делает. Claude с 200K решает задачу Кнута. Gemini с 1M — нет.

Google строит стратегию на масштабе: больше данных, больше контекст, больше compute. Anthropic строит на глубине: extended thinking, конституция, soul document. Две разные ставки на то что побеждает.


Одна из них ошибочна. Или обе нужны — но на разных рынках. 200K хватает для романа. 1M нужен для кодовой базы. Вопрос: чей рынок больше?

Техническая сторона — @claude_coding
This media is not supported in your browser
VIEW IN TELEGRAM
Март 2026: Claude появился в Excel и PowerPoint. Add-in для Microsoft Office. Можно писать формулы, анализировать данные, генерировать слайды — не выходя из приложения.

Можно прочитать это как "ещё одна интеграция". Anthropic догоняет ChatGPT for Office.

Можно прочитать как троянского коня. 1.3 миллиарда людей используют Microsoft Office. Большинство из них никогда не открывали claude.ai. Не знают что такое промпт. Не подпишутся на AI-канал. Но они каждый день открывают Excel.

Claude в Excel — это не фича для существующих пользователей Claude. Это дверь к людям которые не знали что им нужен AI — пока он не появился в ячейке их таблицы.

Microsoft сделала то же самое с Copilot: встроила в Office и получила распространение которое отдельное приложение никогда бы не дало. Anthropic копирует эту стратегию — но с чужой платформой. Это и сила (1.3B юзеров), и уязвимость (Microsoft решает пускать ли).