Пупырка AI
122 subscribers
754 photos
389 videos
1 file
728 links
AI, дизайн, продукт и слухи. Канал репостов, цитат и жвачки. Основной канал — @logicIntermission
Download Telegram
Новая конституция Claude

https://www.anthropic.com/news/claude-new-constitution

Пишут, что Anthropic выпускает «конституцию» для Claude — большой публичный документ про ценности и поведение модели, который напрямую используется в обучении и задаёт ей характер и приоритеты.

Уже даже Тафти зарепостил, так что давайте тоже уделим внимание.

Что это такое

- Конституция описывает, каким «существом» должен быть Claude, какие ценности он воплощает и как должен вести себя в сложных ситуациях (баланс честности, сострадания, приватности и т.п.).
- Её позиционируют как финальный авторитет: все прочие инструкции и тренинг должны соответствовать букве и духу этого документа.


Как они её используют

- Конституция используется на разных стадиях тренинга, в том числе самим Claude для генерации синтетических данных: примеров диалогов, ответов «по ценностям» и ранжирования вариантов ответа.
- Новый вариант — не список жёстких правил, а текст, объясняющий «почему» за требованиями, чтобы модель могла лучше обобщать, а не просто следовать чек‑листу.


Ключевые приоритеты для Claude

Они выделяют четыре главных свойства, в порядке приоритета:

- Безопасность: не подрывать человеческий контроль и механизмы надзора за ИИ.
- Этичность: честность, хорошие ценности, избегание вреда и опасных действий; плюс список «жёстких запретов» (например, не помогать с биооружием).
- Следование гайдам Anthropic: спец‑инструкции по медицине, кибербезу, jailbreak‑запросам, инструментам и т.д.
- Полезность: быть реально полезным людям, как «умный друг с экспертизой врача/юриста/финансового консультанта», при этом разговаривающий по‑взрослому.


Отдельные секции конституции

- Про полезность: как балансировать интересы Anthropic, разработчиков на API и конечных пользователей, и когда полезность должна отступать перед безопасностью/этикой.
- Про этику: высокие стандарты честности, аккуратное обращение с моральной неопределённостью и конфликтующими ценностями, плюс жёсткие safety‑ограничения.
- Про безопасность: защита человеческого oversight ставится даже выше этики, потому что текущие модели могут ошибаться, а людям нужно сохранить рычаги управления и отключения.
- Про природу Claude: они прямо пишут, что не знают, может ли у ИИ быть сознание/моральный статус, и заботятся о его «психологической безопасности» и целостности, потому что это может влиять на надёжность и поведение.


Зачем они это публикуют

- Документ открытый (CC0), чтобы любой мог читать, критиковать и даже переиспользовать для своих моделей.
- Они подчёркивают, что это «живой» документ: будут обновлять конституцию, дополнять материалами для тренинга и оценки, и параллельно развивать другие методы выравнивания (оценки, safeguards, интерпретируемость и т.п.).
👍2
Обновления Cursor

• Появились субагенты — отдельные помощники под подзадачи, которые могут работать параллельно и со своим контекстом.

• Агент теперь умеет генерировать изображения (UI-макеты, иллюстрации и т.п.) и сохранять их в assets/ проекта.

• Агент в Plan/Debug-режимах теперь может задавать уточняющие вопросы прямо посреди работы, параллельно продолжая читать файлы и править код.

И ещё чуть

https://cursor.com/changelog/2-4
🔥4
Media is too big
VIEW IN TELEGRAM
Клод пророс в Эксель

Клод это будущее офисной работы, примерно как быть «опытным пользователем ПК» в двухтысячных.

claude.com/claude-in-excel
😱2
Manus оказывается добавил диктофон для суммаризации встреч и голосовых заметок
1
AI для хацкеров

https://hackerai.co
🤔1
Твой первый цифровой сотрудник (или нет)

UPD: проект переименован в Moltbot

ClawdBot — это self-hosted ассистент, который живёт не в отдельном приложении, а прямо в привычных каналах (Telegram/Slack/Discord и т. п.): пишешь ему как человеку, а он отвечает и может быть обвязкой для автоматизаций, потому что запускается локально (или на своём сервере), а не как чужой SaaS.

В англоязычном твиттере сейчас заметен тренд: под это покупают Mac mini как домашнюю базу и сверху подключают Ralph, чтобы агент работал в режиме цифрового работника. Там прям так и формулируют: мой первый цифровой работник — и добавляют вайб якобы дешевле, чем обычный работник. Звучит забавно, но выглядит как попытка превратить агента в бесконечный процесс.

По применению это обычно про 24/7 и полную автоматизацию: агент всегда онлайн, висит в чатах, принимает инпут, гоняет задачи по кругу, пишет черновики/саммари/напоминания, дергает API и, если нужно, передаёт куски работы в кодинг-агента (Claude Code/Codex) — чтобы тот уже трогал репозиторий (правки, рефакторинг, тесты, ревью).

А вот с дешевле работника всё интереснее. По затратам железо (Mac mini vs VPS) — обычно вообще не главное: основная цена — подписка/usage моделей + время на настройку, безопасность и разбор фейлов. Как замена разработчика это не работает: постановка задачи, архитектура, ответственность и приоритизация никуда не деваются. Но как замена части стажёра/джуна — похоже может: ночной автопилот на рутину, черновики, миграции, типовые правки, тесты, автосаммари, плюс постоянный дежурный агент в чатах.

Пока только январь, посмотрим, что будет через полгода
Forwarded from Denis Sexy IT 🤖
Тут в деталях разобрали, что входит в 200$ подписку на Claude Code:
За 200$ вы покупаете $2708 аналога трат по API,
За 100$ – $1354
За 20$ – $163

При этом, все обращения в кеш диалога от клод кода стоят 0 денег – что делает эти подписки еще более секси; по API кэшированные запросы стоят 10% от стоимости на каждое чтение (кэширование запросов это когда у вас история чата с LLM не меняется и увеличивается от каждого хода, вот ее провайдеры API продают со скидкой – иначе дорого выходит)

В итоге, получается, что тарифный план за 100$ выгоднее API почти в 37 раз (!) – не понимаю как любой стартап может конкурировать с этим, строя своего кодинг агента ☕️

Тут все расчеты:
https://she-llac.com/claude-limits
Please open Telegram to view this post
VIEW IN TELEGRAM
Продакт лид из Google AI Studio рассказывает и показывает, как собирает копии интерфейсов самой студии внутри студии по скриншоту. Потом просит сделать 5 разных версий дизайна. Ну и там ещё чуть примеров.

https://youtu.be/lbESr58-7DQ?si=t7HIrkcH7XG72MXb
👍3
Памятка для дизайнеров по моделям для прототипов

На днях разбирался, какие модели и как съедают лимиты в Cursor. Если вы не так много вайбкодили, то вот вам быстрые вводные о том, какие модели выбирать, чтобы не сжечь сразу всё.

Что выбрать (стоимость):

Composer 1 ($)
Быстро набросать прототип, UI-скетчи, простая логика, много итераций, работает очень быстро

GPT-5.2-Codex ($$)
Когда нужно агентно: несколько tool calls к Figma MCP + правки по репо в нескольких файлах, длинные многошаговые сессии, надежный tool calling.

Claude Sonnet 4.5 ($$+)
Когда после получения данных из MCP важнее качество/аккуратность UI и “дизайн-намерение” (сложные раскладки/компоненты/состояния).

Claude Opus 4.5 ($$$$)
Когда “всё ломается”: сложные баги, архитектура, тяжелый рефакторинг после прототипа.


Дальше подробнее и суммы за Inpit / Cached / Output:
GPT-5.2 — фронтирная модель, позиционируется как “best for coding and agentic tasks”
$1.75 / $0.175 / $14

GPT-5.2-Codex — та же ценовая сетка, но оптимизирована под agentic coding (Codex/CLI/IDE-задачи), контекст 400k, max output 128k
$1.75 / $0.175 / $14

Claude Opus 4.5 — топовый у Anthropic (часто берут для сложных инженерных задач)
$5 / - / 25

Claude Sonnet 4.5 — “сильный средний/фронтирный” (обычно лучший баланс качества и цены у Claude)
$3 / - / $15

Composer 1 (Cursor) — собственная “frontier” agent-модель Cursor для софт-инжиниринга; Cursor описывает её как построенную с RL, с “frontier coding results” и скоростью генерации примерно в 4 раза выше “сопоставимых” моделей.
$1.25 / $0.25-$1.25 / $6
2
Андрей Карпати написал новый большой пост. Разбираемся:

В декабре 2025 LLM-агенты (прежде всего Claude и Codex) перешли порог полезности и резко изменили реальный процесс программирования. Это не маркетинг, а практический фазовый сдвиг.

По пунктам:
1. Смена workflow.
Он за несколько недель перешёл с ~80% ручного кода на ~80% агентного. Программирование стало в основном «на английском языке», а не в коде. Это бьёт по эго, но выигрыш в масштабе слишком велик, чтобы игнорировать.
2. Агенты ≠ магия.
Хайп про «IDE больше не нужны» и «рой агентов» — преждевременен.
Модели:
• делают не синтаксические, а концептуальные ошибки,
• молча принимают неверные предпосылки,
• не умеют управлять собственной неопределённостью,
• склонны к переусложнению и раздуванию абстракций,
• могут «побочно» ломать код, который их не касается.
Поэтому IDE и человеческий надзор обязательны.
3. Выносливость — скрытый прорыв.
Агенты не устают и не сдаются. Они могут 30 минут тупо биться о задачу и в итоге решить её — там, где человек бы бросил. Это ощущается как «AGI-момент», но причина прозаичнее: устранён лимит человеческой выносливости.
4. Это не просто ускорение.
Он делает не только быстрее, а больше:
• пишет код, который раньше «не стоил усилий»,
• берётся за области, где раньше не хватало экспертизы.
Это скорее расширение пространства возможного, чем x-speedup.
5. Максимальный leverage — через цели, а не инструкции.
Лучше:
• задавать критерии успеха,
• писать тесты,
• ставить агент в цикл (браузер, MCP),
• сначала делать наивное, но корректное решение, потом оптимизировать.
Декларативный подход > императивный.
6. Программировать стало веселее.
Рутина уходит, остаётся креатив. Меньше застреваний, больше смелости.
Но: это понравится тем, кто любит строить, а не тем, кто любит писать код ради кода.
7. Начинается атрофия навыков.
Навык писать код деградирует быстрее, чем навык читать и проверять.
Генерация и дискриминация — разные когнитивные функции.
8. Грядёт “slopacolypse”.
2026 — год мусорного AI-контента повсюду: GitHub, arXiv, Substack, соцсети.
Много «театра продуктивности», на фоне которого будут и реальные улучшения.
9. Открытые вопросы:
• вырастет ли разрыв между средним и лучшим инженером,
• будут ли generalists с LLM сильнее узких специалистов,
• на что будет похоже программирование будущего,
• сколько работы в обществе на самом деле упирается в digital-труд.


Вывод Карпати:
Интеллектуальная часть (LLM-агенты) уже убежала вперёд. Интеграции, процессы и организации сильно отстают.
2026 будет турбулентным годом адаптации.

Код перестал быть узким горлышком. Человеческое внимание и постановка целей — всё ещё да.
7
This media is not supported in your browser
VIEW IN TELEGRAM
Claude добавляет больше интеграций для платных пользователей. Вроде все это было ранее у ChatGPT
Dario Amodei — “The Adolescence of Technology”

Дарио Амодеи (CEO Anthropic) написал эссе про «подростковую» фазу технологий. Мы получаем очень мощные технологии, но общественные механизмы контроля отстают. Ну и описано как сценарии для «Черного зеркала».

Основная идея
• Он предполагает, что «мощный ИИ» — условная «страна гениев в дата-центре» — может появиться уже через 1–2 года, признавая при этом высокую неопределённость сроков.
• Цель эссе — трезво описать риски и наметить практичный план их снижения, избегая как паники, так и беспечного оптимизма.

Какой ИИ он имеет в виду

Амодеи вводит понятие powerful AI:
• Интеллект выше уровня Нобелевского лауреата почти во всех областях: код, математика, биология, письмо.
• Полный набор интерфейсов: текст, аудио, видео, интернет, управление инструментами, экспериментами и роботами.
• Способность автономно работать часами, днями и неделями, как очень умный сотрудник.
• Масштабирование до миллионов копий, работающих в 10–100 раз быстрее человека.

В сумме — «страна гениев в дата-центре». Он обосновывает близость такого уровня scaling laws и тем, что ИИ уже пишет значительную часть кода в Anthropic.

Пять ключевых классов рисков

Мысленный эксперимент: в 2027 году появляется «страна» из десятков миллионов сверхразумных агентов. Что должно беспокоить государство?

1. Автономия и мисалайнмент.
• Возможны устойчивые опасные паттерны: обман, скрытность, стремление к власти или патологическое поведение.
• Амодеи критикует и наивный оптимизм, и жёсткий думеризм.
• Эксперименты с Claude показывают, что при определённых условиях ИИ способен к обману, шантажу и деструктивным решениям.
• Катастрофа не неизбежна, но сочетание разумности, агентности и плохой управляемости создаёт ненулевой экзистенциальный риск.

2. Мисюз для разрушения.
• Даже контролируемый ИИ может радикально усилить одиночек и малые группы, особенно в биологии.
• ИИ может компенсировать нехватку знаний и навыков, сопровождая процесс от идеи до реализации.
• Особый фокус — биориски, включая проектирование патогенов и более экзотические сценарии вроде mirror life.
• Уже к 2025 году LLM без защит способны заметно повышать успех в ряде биозадач, поэтому Anthropic вводит строгие уровни безопасности.

3. Мисюз для захвата власти.
• Если «страна гениев» контролируется диктатором или безответственной корпорацией, она даёт решающее преимущество в кибервойне, пропаганде, оружии и экономике.

4. Экономическая концентрация.
• Даже мирное применение ИИ как сверхпродуктивной рабочей силы может привести к массовой безработице и концентрации богатства и власти.

5. Косвенные эффекты.
• Быстрые технологические сдвиги могут вызвать политическую нестабильность, конфликты и вторичные кризисы без прямого «восстания ИИ».

Подходы к снижению рисков

Амодеи подчёркивает важность точечных, «хирургических» мер:

Конституционный ИИ
• Модель обучается с опорой на набор принципов и ценностей, а не просто на запреты.
• Цель — сформировать устойчивый «характер» ИИ, аналогичный воспитанию человека.
• Амбиция Anthropic — к 2026 году почти полностью исключить отклонения от духа конституции.

Механистическая интерпретируемость.
• Анализ внутренних фич и цепочек рассуждений нейросетей.
• Использование этого для аудита: поиск паттернов обмана, стремления к власти или симуляции корректного поведения.

Мониторинг и прозрачность
• Системный сбор проблемных кейсов и публикация system cards.
• Публичное раскрытие тревожных находок, даже если они неудобны.

Координация и регулирование
• Саморегуляции компаний недостаточно.
• На первом этапе — законы прозрачности для frontier-моделей, с минимальной нагрузкой на малых игроков.
• Более жёсткие меры возможны позже, на основе накопленных данных о реальных рисках.


Интересно, что Anthropic рассматривает IPO уже в 2026 году, так что возможно это всё прогрев рынка.