Пупырка AI
121 subscribers
747 photos
388 videos
1 file
727 links
AI, дизайн, продукт и слухи. Канал репостов, цитат и жвачки. Основной канал — @logicIntermission
Download Telegram
Обновления Cursor

• Появились субагенты — отдельные помощники под подзадачи, которые могут работать параллельно и со своим контекстом.

• Агент теперь умеет генерировать изображения (UI-макеты, иллюстрации и т.п.) и сохранять их в assets/ проекта.

• Агент в Plan/Debug-режимах теперь может задавать уточняющие вопросы прямо посреди работы, параллельно продолжая читать файлы и править код.

И ещё чуть

https://cursor.com/changelog/2-4
🔥4
Media is too big
VIEW IN TELEGRAM
Клод пророс в Эксель

Клод это будущее офисной работы, примерно как быть «опытным пользователем ПК» в двухтысячных.

claude.com/claude-in-excel
😱2
Manus оказывается добавил диктофон для суммаризации встреч и голосовых заметок
1
AI для хацкеров

https://hackerai.co
🤔1
Твой первый цифровой сотрудник (или нет)

UPD: проект переименован в Moltbot

ClawdBot — это self-hosted ассистент, который живёт не в отдельном приложении, а прямо в привычных каналах (Telegram/Slack/Discord и т. п.): пишешь ему как человеку, а он отвечает и может быть обвязкой для автоматизаций, потому что запускается локально (или на своём сервере), а не как чужой SaaS.

В англоязычном твиттере сейчас заметен тренд: под это покупают Mac mini как домашнюю базу и сверху подключают Ralph, чтобы агент работал в режиме цифрового работника. Там прям так и формулируют: мой первый цифровой работник — и добавляют вайб якобы дешевле, чем обычный работник. Звучит забавно, но выглядит как попытка превратить агента в бесконечный процесс.

По применению это обычно про 24/7 и полную автоматизацию: агент всегда онлайн, висит в чатах, принимает инпут, гоняет задачи по кругу, пишет черновики/саммари/напоминания, дергает API и, если нужно, передаёт куски работы в кодинг-агента (Claude Code/Codex) — чтобы тот уже трогал репозиторий (правки, рефакторинг, тесты, ревью).

А вот с дешевле работника всё интереснее. По затратам железо (Mac mini vs VPS) — обычно вообще не главное: основная цена — подписка/usage моделей + время на настройку, безопасность и разбор фейлов. Как замена разработчика это не работает: постановка задачи, архитектура, ответственность и приоритизация никуда не деваются. Но как замена части стажёра/джуна — похоже может: ночной автопилот на рутину, черновики, миграции, типовые правки, тесты, автосаммари, плюс постоянный дежурный агент в чатах.

Пока только январь, посмотрим, что будет через полгода
Forwarded from Denis Sexy IT 🤖
Тут в деталях разобрали, что входит в 200$ подписку на Claude Code:
За 200$ вы покупаете $2708 аналога трат по API,
За 100$ – $1354
За 20$ – $163

При этом, все обращения в кеш диалога от клод кода стоят 0 денег – что делает эти подписки еще более секси; по API кэшированные запросы стоят 10% от стоимости на каждое чтение (кэширование запросов это когда у вас история чата с LLM не меняется и увеличивается от каждого хода, вот ее провайдеры API продают со скидкой – иначе дорого выходит)

В итоге, получается, что тарифный план за 100$ выгоднее API почти в 37 раз (!) – не понимаю как любой стартап может конкурировать с этим, строя своего кодинг агента ☕️

Тут все расчеты:
https://she-llac.com/claude-limits
Please open Telegram to view this post
VIEW IN TELEGRAM
Продакт лид из Google AI Studio рассказывает и показывает, как собирает копии интерфейсов самой студии внутри студии по скриншоту. Потом просит сделать 5 разных версий дизайна. Ну и там ещё чуть примеров.

https://youtu.be/lbESr58-7DQ?si=t7HIrkcH7XG72MXb
👍3
Памятка для дизайнеров по моделям для прототипов

На днях разбирался, какие модели и как съедают лимиты в Cursor. Если вы не так много вайбкодили, то вот вам быстрые вводные о том, какие модели выбирать, чтобы не сжечь сразу всё.

Что выбрать (стоимость):

Composer 1 ($)
Быстро набросать прототип, UI-скетчи, простая логика, много итераций, работает очень быстро

GPT-5.2-Codex ($$)
Когда нужно агентно: несколько tool calls к Figma MCP + правки по репо в нескольких файлах, длинные многошаговые сессии, надежный tool calling.

Claude Sonnet 4.5 ($$+)
Когда после получения данных из MCP важнее качество/аккуратность UI и “дизайн-намерение” (сложные раскладки/компоненты/состояния).

Claude Opus 4.5 ($$$$)
Когда “всё ломается”: сложные баги, архитектура, тяжелый рефакторинг после прототипа.


Дальше подробнее и суммы за Inpit / Cached / Output:
GPT-5.2 — фронтирная модель, позиционируется как “best for coding and agentic tasks”
$1.75 / $0.175 / $14

GPT-5.2-Codex — та же ценовая сетка, но оптимизирована под agentic coding (Codex/CLI/IDE-задачи), контекст 400k, max output 128k
$1.75 / $0.175 / $14

Claude Opus 4.5 — топовый у Anthropic (часто берут для сложных инженерных задач)
$5 / - / 25

Claude Sonnet 4.5 — “сильный средний/фронтирный” (обычно лучший баланс качества и цены у Claude)
$3 / - / $15

Composer 1 (Cursor) — собственная “frontier” agent-модель Cursor для софт-инжиниринга; Cursor описывает её как построенную с RL, с “frontier coding results” и скоростью генерации примерно в 4 раза выше “сопоставимых” моделей.
$1.25 / $0.25-$1.25 / $6
2
Андрей Карпати написал новый большой пост. Разбираемся:

В декабре 2025 LLM-агенты (прежде всего Claude и Codex) перешли порог полезности и резко изменили реальный процесс программирования. Это не маркетинг, а практический фазовый сдвиг.

По пунктам:
1. Смена workflow.
Он за несколько недель перешёл с ~80% ручного кода на ~80% агентного. Программирование стало в основном «на английском языке», а не в коде. Это бьёт по эго, но выигрыш в масштабе слишком велик, чтобы игнорировать.
2. Агенты ≠ магия.
Хайп про «IDE больше не нужны» и «рой агентов» — преждевременен.
Модели:
• делают не синтаксические, а концептуальные ошибки,
• молча принимают неверные предпосылки,
• не умеют управлять собственной неопределённостью,
• склонны к переусложнению и раздуванию абстракций,
• могут «побочно» ломать код, который их не касается.
Поэтому IDE и человеческий надзор обязательны.
3. Выносливость — скрытый прорыв.
Агенты не устают и не сдаются. Они могут 30 минут тупо биться о задачу и в итоге решить её — там, где человек бы бросил. Это ощущается как «AGI-момент», но причина прозаичнее: устранён лимит человеческой выносливости.
4. Это не просто ускорение.
Он делает не только быстрее, а больше:
• пишет код, который раньше «не стоил усилий»,
• берётся за области, где раньше не хватало экспертизы.
Это скорее расширение пространства возможного, чем x-speedup.
5. Максимальный leverage — через цели, а не инструкции.
Лучше:
• задавать критерии успеха,
• писать тесты,
• ставить агент в цикл (браузер, MCP),
• сначала делать наивное, но корректное решение, потом оптимизировать.
Декларативный подход > императивный.
6. Программировать стало веселее.
Рутина уходит, остаётся креатив. Меньше застреваний, больше смелости.
Но: это понравится тем, кто любит строить, а не тем, кто любит писать код ради кода.
7. Начинается атрофия навыков.
Навык писать код деградирует быстрее, чем навык читать и проверять.
Генерация и дискриминация — разные когнитивные функции.
8. Грядёт “slopacolypse”.
2026 — год мусорного AI-контента повсюду: GitHub, arXiv, Substack, соцсети.
Много «театра продуктивности», на фоне которого будут и реальные улучшения.
9. Открытые вопросы:
• вырастет ли разрыв между средним и лучшим инженером,
• будут ли generalists с LLM сильнее узких специалистов,
• на что будет похоже программирование будущего,
• сколько работы в обществе на самом деле упирается в digital-труд.


Вывод Карпати:
Интеллектуальная часть (LLM-агенты) уже убежала вперёд. Интеграции, процессы и организации сильно отстают.
2026 будет турбулентным годом адаптации.

Код перестал быть узким горлышком. Человеческое внимание и постановка целей — всё ещё да.
7
This media is not supported in your browser
VIEW IN TELEGRAM
Claude добавляет больше интеграций для платных пользователей. Вроде все это было ранее у ChatGPT
Dario Amodei — “The Adolescence of Technology”

Дарио Амодеи (CEO Anthropic) написал эссе про «подростковую» фазу технологий. Мы получаем очень мощные технологии, но общественные механизмы контроля отстают. Ну и описано как сценарии для «Черного зеркала».

Основная идея
• Он предполагает, что «мощный ИИ» — условная «страна гениев в дата-центре» — может появиться уже через 1–2 года, признавая при этом высокую неопределённость сроков.
• Цель эссе — трезво описать риски и наметить практичный план их снижения, избегая как паники, так и беспечного оптимизма.

Какой ИИ он имеет в виду

Амодеи вводит понятие powerful AI:
• Интеллект выше уровня Нобелевского лауреата почти во всех областях: код, математика, биология, письмо.
• Полный набор интерфейсов: текст, аудио, видео, интернет, управление инструментами, экспериментами и роботами.
• Способность автономно работать часами, днями и неделями, как очень умный сотрудник.
• Масштабирование до миллионов копий, работающих в 10–100 раз быстрее человека.

В сумме — «страна гениев в дата-центре». Он обосновывает близость такого уровня scaling laws и тем, что ИИ уже пишет значительную часть кода в Anthropic.

Пять ключевых классов рисков

Мысленный эксперимент: в 2027 году появляется «страна» из десятков миллионов сверхразумных агентов. Что должно беспокоить государство?

1. Автономия и мисалайнмент.
• Возможны устойчивые опасные паттерны: обман, скрытность, стремление к власти или патологическое поведение.
• Амодеи критикует и наивный оптимизм, и жёсткий думеризм.
• Эксперименты с Claude показывают, что при определённых условиях ИИ способен к обману, шантажу и деструктивным решениям.
• Катастрофа не неизбежна, но сочетание разумности, агентности и плохой управляемости создаёт ненулевой экзистенциальный риск.

2. Мисюз для разрушения.
• Даже контролируемый ИИ может радикально усилить одиночек и малые группы, особенно в биологии.
• ИИ может компенсировать нехватку знаний и навыков, сопровождая процесс от идеи до реализации.
• Особый фокус — биориски, включая проектирование патогенов и более экзотические сценарии вроде mirror life.
• Уже к 2025 году LLM без защит способны заметно повышать успех в ряде биозадач, поэтому Anthropic вводит строгие уровни безопасности.

3. Мисюз для захвата власти.
• Если «страна гениев» контролируется диктатором или безответственной корпорацией, она даёт решающее преимущество в кибервойне, пропаганде, оружии и экономике.

4. Экономическая концентрация.
• Даже мирное применение ИИ как сверхпродуктивной рабочей силы может привести к массовой безработице и концентрации богатства и власти.

5. Косвенные эффекты.
• Быстрые технологические сдвиги могут вызвать политическую нестабильность, конфликты и вторичные кризисы без прямого «восстания ИИ».

Подходы к снижению рисков

Амодеи подчёркивает важность точечных, «хирургических» мер:

Конституционный ИИ
• Модель обучается с опорой на набор принципов и ценностей, а не просто на запреты.
• Цель — сформировать устойчивый «характер» ИИ, аналогичный воспитанию человека.
• Амбиция Anthropic — к 2026 году почти полностью исключить отклонения от духа конституции.

Механистическая интерпретируемость.
• Анализ внутренних фич и цепочек рассуждений нейросетей.
• Использование этого для аудита: поиск паттернов обмана, стремления к власти или симуляции корректного поведения.

Мониторинг и прозрачность
• Системный сбор проблемных кейсов и публикация system cards.
• Публичное раскрытие тревожных находок, даже если они неудобны.

Координация и регулирование
• Саморегуляции компаний недостаточно.
• На первом этапе — законы прозрачности для frontier-моделей, с минимальной нагрузкой на малых игроков.
• Более жёсткие меры возможны позже, на основе накопленных данных о реальных рисках.


Интересно, что Anthropic рассматривает IPO уже в 2026 году, так что возможно это всё прогрев рынка.
This media is not supported in your browser
VIEW IN TELEGRAM
Cursor научился запускать параллельно сразу несколько браузерных табов для субагентов
Media is too big
VIEW IN TELEGRAM
OpenAI запускают сервис Prism — бесплатное рабочее пространство для учёных, созданное, чтобы писать и совместно работать над исследованиями с GPT‑5.2. LaTeX и всё такое

prism.openai.com