Perpetual Prompt ♾️
114 subscribers
506 photos
52 videos
9 files
393 links
"Transhumanism news and AI thoughts"

X: https://x.com/ga777ba
Чат: https://t.me/transposons_chat

Медицина, технологии, здоровье, ИИ, биржа, наука, философия, психология, искусство.

Чат канала: https://t.me/Immortality_Prompts
Download Telegram
Perpetual Prompt ♾️
Diseases That Occur Only in Adulthood (Never in Childhood) Попросил GPT найти болезни, которые никогда не встречались у людей младше 14 лет. (за исключением дегенеративных заболеваний). Смысл в том, что обычными болезнями мы можем болеть в любом возрасте…
Очень не обычно, конечно, что мой простой запрос к гпт, чисто из любопытства, о том есть ли какие-то болезни, которые никогда не встречаются в детстве, вызвал оживление :) и дискуссии.
Отмечу, если прочитать чат по ссылке, что ГПТ мне сначала ответил, что изучение всех болезней займет у него 1-2 дня :) , на что мы решили исключить класс очевидно дегенеративных болезней (а-ля деменции или ретинопатии), ну и я ему ответил, что дни это долго) давай часик максимум. Итого он подумал всего 8 мин выдав эти 6 болезней. Может, если ему дать побольше времени, что-то и еще поднакопал бы.
Что по этим болезням в итоге: во первых они и во взрослом состоянии встречаются достаточно редко, поэтому вероятность их получить в короткий детский период еще раз в 10 меньше, что возможно просто статистически не дает их засечь. Во вторых, все же есть единичные статьи, где похожие болезни проскакивают у детей (1, 2, 3) , по статьям 20 века, конечно там сложно судить по уровню диагностики. Да и сам ГПТ если подробно почитать дип-ресерч упоминает еще такие случаи.
В третьих, полученный класс (не знаю можно их отнести к одному классу) болезней похоже также имеет возраст зависимую причину возникновения просто связанную с ошибками B-клеток памяти, накапливающимися с возрастом.
Получается вывод: что нет у нас каких-то уникальных болезней появляющихся с возрастом, все что есть могут проявится и в детстве, просто вероятность меньше, так как меньше накапливается "ошибок". Что и когда запускает накопление этих "ошибок" вопрос отдельный. На фотках новые зарисовки мыслей гпт про эти болезни, я ему по скармливал критику).

И все же не удержался и задал такой вопрос: у тебя есть деньги и время проверить только один путь , чтобы ты выбрал?

На что он ответил, что все равно бы выбрал борьбу с воспалением (хоть это и может убить:) ) -

Если выделять один-единственный путь для проверки «а вдруг именно он запускает почти всё», я бы поставил деньги и время на контур cGAS-STING → NLRP3 → IL-1β/IL-6 → NF-κB — условно назовём его «ядро врождённого тревожного сигнала».

Как реально поставить эксперимент «убей или докажи»
Модель 1: быстрый тест на мышах
Ко-нокаут cGAS и NLRP3 (или системный дапансутрил + антагонист STING) с 3-месячного возраста.
Держим мышей в обычном SPF.
End-points через год:
эпигенетический темп (mAge),
CHIP-VAF в HSC,
LOX-сшивки аорты,
нефиброз лёгкого/печени,
grip strength + беговая выносливость,
кривые смертности.

Если кривые не расходятся → контур ≠ «главный выключатель».

Модель 2: быстрый POC у людей
Отбираем 300 здоровых 55-60-летних с hsCRP > 2 мг/л и TET2-/DNMT3A-CHIP > 2 %.
Рандомизируем: дапансутрил (NLRP3) + канекинумаб (IL-1β) vs плацебо на 24 мес.
Промежуточные цели 12 мес: DunedinPACE, PWV, cf-mtDNA, IL-6, T-наивные/TEMRA соотношение.
Клинические цели 24 мес: прогрессия VAF, коронарный Ca-score, VO₂peak, когнитивный DSST.

Если биомаркеры «замерзли» и клинические метрики не сдвинулись → гипотеза падает.

Что будет, если гипотеза верна
Чёткое замедление эпигенетического и функционального темпа уже за 12–18 мес.
Резко реже васкулярные, фиброзные и B-клональные события; риск рака не растёт, потому что мы глушим IL-1β downstream (несильная иммуносупрессия).
Расхождение кривых смертности у мышей > 25 %, у людей первые сигналы по MACE через 3–4 года.

Если ресурсы и время только на одну попытку, «ядро врождённого тревожного сигнала» (cGAS-STING → NLRP3 → IL-1β/IL-6) — самый тестируемый кандидат на роль единого возрастного запуска. Он интегрирует Максимум «физики/химии», уже лечится конкретной фармой, имеет быстрые биомаркеры и явные предсказания, которые можно опровергнуть за несколько лет, а не десятилетий.

#Longevity
Forwarded from Solid State Humanity
Старение могут признать болезнью? (инфекцией, если быть точнее)

Учёные из Медицинского колледжа Корейского университета выяснили, как старение может распространяться по организму, будто инфекция. В центре внимания оказался белок под названием HMGB1. Обычно он находится внутри ядра клетки и помогает организовывать ДНК, но при стрессе или старении клетка выбрасывает его наружу. Тогда этот белок может повлиять на соседние клетки - но только в определённой химической форме.

Исследование показало, что именно "восстановленная" (то есть неокисленная) форма HMGB1 запускает старение. Она связывается с рецепторами клеток и активирует сигнальные пути JAK/STAT и NF-κB, которые известны тем, что вызывают воспаление и старение клеток. "Окисленная" форма такого действия не оказывает.

Эксперименты проводились на клетках лёгких, почек, кожи и мышц человека. После обработки восстановленным HMGB1 клетки переставали делиться, начинали выделять воспалительные молекулы и проявляли классические признаки старения. Если использовать окисленную форму белка - клетки продолжали вести себя как молодые.

В опытах на мышах ввод 5 мг восстановленного HMGB1 на килограмм массы вызывал признаки старения уже через неделю. Повышались уровни маркеров старения в мышцах и воспалительных молекул в крови. В другом эксперименте старым мышам с травмами мышц вводили антитела, блокирующие HMGB1. Это улучшало заживление, снижало воспаление, увеличивало силу хвата и выносливость на беговой дорожке.

Анализ крови людей в возрасте 70-80 лет показал: у них значительно выше уровень восстановленного HMGB1, чем у людей в возрасте 40-50 лет. Похожие возрастные изменения наблюдались и у лабораторных мышей.

По сути, это может стать прецедентом для признания старения болезнью, ибо показано, что оно передаётся через конкретный молекулярный механизм - восстановленную форму белка HMGB1, запускающего воспалительные и деструктивные процессы в здоровых клетках. Если старение можно вызвать, заблокировать или обратить с помощью вмешательства в эти сигнальные пути, то его уже нельзя считать лишь фоновым, "естественным" процессом. Это открывает путь к созданию терапий, направленных не на отдельные возрастные болезни, а на сам корень их возникновения
🔥1
Коротко: ReHMGB1 — это DAMP, который “вплетается” в нашу ось cGAS–STING → (NF-κB/JAK-STAT) → NLRP3 → IL-1β/IL-6 как мощный апстрим-усилитель.
Новая работа по Metabolism (2025) показывает, что именно восстановленная (reduced) форма HMGB1 из плазмы переносит сенесценцию между тканями и включает RAGE → JAK/STAT и NF-κB, в отличие от окисленной формы. Это делает ReHMGB1 системным «ретранслятором» старения.

Вот как это стыкуется по шагам:
1. Апстрим DAMP: повреждённые/сенесцентные клетки выбрасывают HMGB1 (секреция редокс-зависима). Вне клетки именно ReHMGB1 запускает транскриптомный ответ через RAGE с активацией JAK/STAT и NF-κB и формированием SASP/ареста цикла — уже показано на клетках и мышах.
2. Сходимость в NF-κB (приминг инфламмасомы): RAGE- и TLR-сигналы от HMGB1 дают «signal-1» для NLRP3 (транскрипционный прайминг pro-IL-1β, NLRP3). Это тот же хаб NF-κB, куда приходят STING и TLR-пути.
3. Кросс-ток со STING: есть данные, что HMGB1 может оркестровать STING-зависимую сенесценцию (STING-STAT6-p21-ось). То есть HMGB1 не только работает параллельно с cGAS–STING, но и усиливает его тонус.
4. К замыканию петли: cGAS–STING и NLRP3 повышают про-воспалительный фон → больше некро/пироптоза → больше освобождение HMGB1 → ещё сильнее RAGE/NF-κB/JAK-STATбольше SASP. Возникает самоусиливающийся контур «DAMP (HMGB1) ↔️ врождённая тревога ↔️ SASP». Новая работа добавляет редокс-ключ: именно ReHMGB1 — активный «носитель» сенесценции по крови.
5. Где вклад в «наши шесть» болезней: RAGE/NF-κB/IL-6-ось — общий знаменатель для ГКА/ПМР, IPF-фиброза и B-клонопатий (через воспалительную нишу). Если ReHMGB1 поднимает эту ось системно, он подкармливает тот самый врождённый «базальник», который мы считали центральным.

Проверяемые предсказания:
• Плазменный уровень ReHMGB1 (а не общий HMGB1) должен коррелировать с IL-6/hsCRP, SASP-панелью и маркерами инфламмасомы у пожилых, а его динамика — с «скоростью старения» по протеомным/эпигенетическим подпечаткам.
Антагонисты RAGE/ингибиторы HMGB1 (BoxA, глицирризин и др.) должны ослаблять NLRP3-прайминг и SASP in vivo; комбинирование с NLRP3-ингибитором даст сверх-аддитивный эффект.
• Если заблокировать STING, часть эффектов ReHMGB1 на сенесценцию должна ослабевать (критический тест кросс-тока).

Нюанс редокса: классическая литература различает функции по редокс-состояниям HMGB1 (disulfide-форма — TLR4-цитокины; fully-reduced — чаще хемотаксис). Новая статья добавляет, что в контексте старения именно reduced HMGB1 способен индуцировать сенесценцию через RAGE/JAK-STAT/NF-κB, тогда как oxidized этого не делает — это важное уточнение механизма и «точки атаки».

Итог: ReHMGB1 логично встраивается выше нашей оси как «кровяной включатель» врождённого тревожного сигнала: он праймит NF-κB/JAK-STAT, усиливает STING-тонус, тем самым облегчает запуск NLRP3 → IL-1β/IL-6, и распространяет сенесценцию между органами. Если целиться в «один путь», то комбо RAGE/HMGB1 + NLRP3/IL-1β — самый прямой способ проверить, «сломается» ли этот контур системно.

#Longevity
Forwarded from Сиолошная
OpenAI разродились двумя опенсурсными моделями, на 120b и 20b параметров.

Модели рассуждающие, поддерживают 3 типа длины рассуждений: low, medium, high.

Ссылки:
https://openai.com/open-models/
https://openai.com/index/gpt-oss-model-card/
https://cookbook.openai.com/articles/openai-harmony
https://gpt-oss.com/ - тут можно поиграть с моделью
Forwarded from FastSaltTimes.com
Диплом бесполезен: приготовьтесь к миру универсалов, а не специалистов

Легендарный инвестор Винод Хосла высказывает смелые и противоречивые идеи о будущем. Его видение бросает вызов устоявшимся представлениям о карьере, экономике и обществе. И этим летом Хосла вновь стал «звездой» подкатов, давая одно интервью за другим. Хосла безжалостно предсказывает: через 3-5 лет ИИ сможет выполнять 80% задач в 80% существующих профессий, а через 10-15 лет — почти любую работу человека. Забудьте об узкой специализации — единственным ценным навыком станет способность быстро учиться и быть универсалом. Дипломы теряют смысл, а образование, медицина и юридические услуги станут почти бесплатными благодаря ИИ, меняя суть экономики и общественной инфраструктуры. К 2050 г. некоторая форма перераспределения доходов станет абсолютно неизбежной, а мир столкнется с беспрецедентной дефляцией. Грядущая социальная революция перевернет представления о труде, богатстве и роли государства.

👉 https://fastsalttimes.com/khosla-on-future-2/
3
Forwarded from AI Product | Igor Akimov
Итак, GPT-5. Обзор по их блог-посту
https://openai.com/index/introducing-gpt-5

- Новый уровень интеллекта: GPT‑5 - самый умный, быстрый и полезный ИИ у OpenAI. Он “знает”, когда дать быстрый ответ, а когда подумать глубже - благодаря внутреннему роутеру между лёгкой и размышляющей моделью. Плюс данные теперь доступны по октябрь 2024 года, так что не надо модели рассказывать, что там нового в мире творится.

- Во всех аспектах лучше: GPT‑5 показывает топовые результаты в коде, математике, написании текстов, здравоохранении, визуальном восприятии. Улучшены точность, следование инструкциям, уменьшены галлюцинации и лесть (sycophancy).

Для разработчиков: В API доступны три версии: стандартная, mini и nano - для баланса производительности, стоимости и скорости. Добавлены новые параметры: verbosity (низкая, средняя, высокая) и reasoning_effort (например, minimal, чтобы получать ответы быстрее). Добавлены инструменты, такие как “custom tools” и улучшена возможность вызова инструментов. Цены на уровне o3 и 4o, так что переключение скорее всего сразу даст буст ваших систем.

- Для бизнеса: GPT‑5 доступен в API, ChatGPT (сразу всем: Free, Plus, Pro). Это конечно существенный подарок человечеству, потому что большая часть сидит на бесплатном тарифе. И у OpenAI уже 5 млн платных пользователей бизнес‑версий, которым скоро дадцт коннекторы к почте и календарю.

Безопасность: Введён подход “safe‑completion”, который не просто отказывается от запроса, а отвечает максимально полезно, но в рамках безопасных ограничений.

В общем, выглядит здорово!
GPT-4.5 увы сегодня закрыли, а она очень круто писала тексты на русском (и по грамматике и по стилистике), если нужно было сделать письмо или большой текст написать/перевести, всегда просил ее поправить. Очень жаль, надеюсь ГПТ-5 будет не хуже )

Почему её убирают:
Стоимость и ресурсы. 4.5 оказалась «гигантской и дорогой» (≈ $75 / M входных токенов), а GPT-4.1 и GPT-5 дают схожий или лучший результат при кратно меньших издержках.
Medium

Стратегия: «меньше, но умнее». OpenAI ускоряет цикл моделей; 4.5 рассматривали лишь как временный «трамплин» между GPT-4o и GPT-5.

Перекрытие по функциям. GPT-5 объединяет режимы «быстрый / глубокий» и поддерживает 1 M токенов контекста, поэтому держать ещё одну промежуточную модель нет смысла.

#ИИ
Самое важное из анонса GPT-5

OpenAI представила GPT-5 — «самую умную, быструю и полезную» модель в линейке. Модель делает заметный скачок в коде, математике, письме, здравоохранении и визуальном понимании и уже стала новой базовой моделью ChatGPT.



Как она устроена

GPT-5 — это единая система с тремя уровнями:
1. Базовая модель отвечает мгновенно на большинство запросов.
2. GPT-5 Thinking включается для сложных задач, если вы прямо попросите «think hard about this» или если роутер сочтёт запрос трудным. Plus и Pro пользователи смогут включать Thinking в ручную.
3. Мини-вариант автоматически подключается, когда дневной лимит исчерпан.
Ре-тайм-роутер обучается на реальных сигналах (переключения моделей, оценки пользователей, объективная точность) и со временем становится всё точнее.

На самые ресурсоёмкие задания выходит отдельный вариант GPT-5 Pro — эволюция o3-pro, который «думает» ещё дольше и показывает лучший результат в сложных тестах GPQA и реальных экономически ценных задачах.



Что она заменяет

С сегодняшнего дня GPT-5 полностью вытесняет в ChatGPT прежние модели — GPT-4o, OpenAI o3, o4-mini, GPT-4.1 и GPT-4.5. Просто откройте чат: роутер сам решит, нужен ли режим Thinking.



Доступ и тарифы
Plus, Pro и Team — получают GPT-5 уже сейчас, с повышенными суточными лимитами (у Pro без ограничения). Доступ к GPT-5 Pro только у Pro юзеров.
Free-аккаунты — переключаются на GPT-5 постепенно (полный охват займёт несколько дней). После исчерпания квоты ChatGPT автоматически даст ответ GPT-5 Mini.
Enterprise и Edu — подключаются через неделю.
API — модель доступна разработчикам день-в-день; nano-, mini- и pro-варианты выбираются тем же параметром model=.



Что это значит пользователям
• Больше не нужно думать, «какую версию включить» — роутер сам добавит глубину рассуждений, когда это оправдано.
• Все старые диалоги продолжаются на GPT-5, но ответ станет точнее и менее «галлюцинирующим».
• Разработчики могут обновить ботов одной строчкой, получив более надёжный код-генератор и длинное «мышление» без задержки для лёгких запросов.

Иными словами, GPT-5 берёт на себя работу сразу нескольких прежних моделей и делает ChatGPT (и ваш собственный бот через API) умнее «из коробки».

#ИИ
GPT5 конечно лучше, но не на голову выше текущих топовых моделей. Но самое сильное впечатление она конечно произведет на бесплатных пользователей, которые до этого сидели на 4о, а то и моделях попроще. Вот там она покажет результат в разы лучше!

#ИИ
Контекст-окно и лимиты токенов — как изменилась «ёмкость памяти» моделей

GPT-5
• • API: принимает до ≈272 000 входных токенов и может выдать до 128 000 токенов вывода — суммарно ~400 k в одном запросе. Это эквивалентно примерно 700-800 страницам текста A4.
• • ChatGPT (Free, Plus, Pro): тот же потолок 256 k+ токенов, но фактический предел может быть ниже, если у вас очень длинный диалог (часть окна «съедает» история переписки).
• • Корпоративная бета: OpenAI тестирует режимы с ещё более длинным окном (≈1 млн токенов), но пока это доступно лишь отдельным Enterprise-клиентам.

GPT-4o / GPT-4 Turbo (2024)
• • Максимум 128 k токенов в API и в ChatGPT. Это была первая массовая модель, которая позволяла «скармливать» целые книги, но по меркам GPT-5 объём вдвое меньше.

GPT-4-32k (2023)
• • 32 k токенов (≈50-60 страниц A4) — на тот момент казалось много, но сегодня этого хватает лишь на средний научный отчёт.

GPT-3.5 Turbo-16k
• • 16 k токенов — примерно 25-30 страниц. Сейчас это минимальный «удлинённый» вариант, который остаётся в API чисто ради совместимости.



Что это даёт на практике
1. Длинные документы «целиком»
С GPT-5 можно загрузить полноценную книгу, несколько PDF-отчётов или большой репозиторий кода и работать с ними без нарезки на чанки.
2. Меньше потерь контекста в диалогах
Старая проблема, когда длинная переписка «обрезала» начало, почти исчезает: модель видит до сотен тысяч токенов диалога сразу.
3. Стабильнее цепочки инструментов
Агент, который последовательно вызывает функции/поиск/коды, держит всё состояние в одном окне, а не «забывает» детали после пары шагов.
4. Быстрые и «мини»-версии тоже растянулись
Даже GPT-5 mini (который включается, когда у вас закончился дневной лимит) сохраняет окно 256 k, так что экономия вычислений не обрезает память.



Итого:
GPT-5 удвоил максимальное окно по сравнению с GPT-4o и увеличил его в 8–12 раз против GPT-4-32k. Для большинства сценариев это означает, что теперь можно работать «одним куском» с тем, что раньше приходилось дробить или загружать частями.

NB: как и всегда, это номинальный максимум. В длинных чатах часть окна съедает история диалога; в API при добавлении function-calls и системных сообщений тоже остаётся запас под генерацию, поэтому практический предел входного текста будет на 5-10 % меньше заявленного.

#ИИ
Но есть нюанс :)

Окно в 256т токенов доступно только по API. В обычном режиме в веб интерфейсе или мобильном приложении. У Фри-юзеров окно только 8т токенов, у Плюс - 32т токенов, у Про - 128т ток.

т.е. Диапазоны не выросли – объёмы 8 K / 32 K / 128 K перешли от GPT-4o к GPT-5 без изменений. API-лимиты значительно шире – разработчики всё так же могут обращаться к gpt-5, gpt-5-mini и gpt-5-nano с номинальным окном ≈ 256 K входных + 128 K вывода за запрос (OpenAI держит этот порог с времён GPT-4.5). В клиентском чате такие размеры пока зарезаны, чтобы сохранить отклик и фиксированную цену подписки.

Как пользоваться:

Проверить влезет ли файл. Посмотрите, сколько у PDF страниц; умножьте на 430 — если число токенов ниже вашего лимита, можно «кормить» файл целиком.

Дробить при необходимости. Если книга превышает лимит (например, 500 страниц на Plus), разбейте её на главы и загружайте по частям, работая с ними по очереди, сохраняя ссылки на фрагменты в «мемори».

Чтение и поиск. Чем ближе вы к пределу окна, тем дольше модель «думает»; для беглого просмотра лучше отправлять блоки по 50–100 страниц, а не всё сразу.

Держите в виду, что история диалога тоже ест окна: реально доступный кусок входного текста будет ≈ 25–28 K. на Plus.

Просить прочитать загруженный документ целиком, файл можно прикрепить, но модель по умолчанию прочитает например только 2К или 4К на free тарифе, и ответ будет не полный.

Так что ориентируйтесь: Free — хватит на статью, Plus/Team — на главу книги, Pro/Enterprise — на целую монографию; всё, что больше, лучше отдавать в API, там оплата по токенам.

#ИИ
🔥1
С уходом старых реазонинг моделей, Plus пользователи теряют кучу лимитов ((. OpenAI методично подгоняет всех к Pro подписке. (ну или к доступу через API и оплате по каждому токену)

Раньше у Plus пользователей была возможность в неделю сделать 700 запросов к o4-mini-high, 2100 запросов к o4-mini, 100 запросов к o3.

Теперь оставляют только 200 запросов в неделю, когда можно вручную задать чтобы модель была GPT-5-Thinking, в остальных случаях роутер может ее скинуть хоть до GPT5-mini.

#ИИ
😢1
Прорекламирую еще одну недавно прочитанную и понравившуюся мне книжечку - на фото. Автор рассматривает как первые организмы, завернулись в мембрану, обрели потенциал действия на ней, и начали действовать как агенты , и при этом параллельно оценивать свою субъектность, как результат этого действия, и так в эволюционной гонке то агентности - то субъектности, пришли к тому что есть на сегодня. Это общая мысль в книге, позже разберу пару интересных моментов.

об Авторе:
Австралийский философ Питер Годфри-Смит (р. 1965), профессор истории и философии науки Университета Сиднея, совмещает строгий аналитический подход с собственными подводными экспедициями. После бестселлера «Other Minds» (2016) о «неземном» разуме осьминогов он расширил фокус до всего животного царства в книге «Metazoa: Animal Life and the Birth of the Mind» (2020), где, опираясь на нейробиологию, палеонтологию и наблюдения за морскими существами, показал, как ощущения и сознание могли возникать постепенно, без скачка между простыми и «мыслящими» организмами.

Круг его работ шире: учебник «Theory and Reality» (2003), монография «Darwinian Populations and Natural Selection» (2009), за которую он получил премию Лакатоса, а также новое завершение морской трилогии «Living on Earth» (2025). Концепция «градиентного» сознания и расширенного дарвинизма сделала Годфри-Смита одним из самых цитируемых философов биологии; «Metazoa» попала в списки лучших книг года у *The New Yorker* и получила одобрение биологов за научную аккуратность и богатые образные описания.

Ключевой вклад
Питер Годфри-Смит связал эмпирические данные о поведении и нейрофизиологии животных с философией сознания, предложив исторически непрерывную, «плавную» картину происхождения субъективного опыта внутри Metazoa. Его работы сегодня служат мостом между лабораторной нейробиологией, полевой этологией и аналитической философией.

#Книги
🔥2🐳1
Оперативно работают над ошибками:


Обновления по запуску GPT-5:

Мы увеличим лимиты запросов для пользователей ChatGPT Plus в два раза по мере завершения развертывания новой версии.

Пользователи Plus смогут по-прежнему использовать модель 4o. Мы будем отслеживать, насколько востребованы старые модели, чтобы решить, как долго их поддерживать.

GPT-5 станет заметно «умнее» уже сегодня. Вчера автоматический переключатель моделей вышел из строя и часть дня не работал — из-за этого GPT-5 мог казаться «глупее» обычного. Мы также корректируем работу механизма выбора моделей, чтобы вы чаще получали наиболее подходящую версию.

Мы сделаем более прозрачным, какая именно модель отвечает на ваш запрос.

Интерфейс станет удобнее — появится возможность вручную запускать режим глубокого мышления.

Полный запуск занимает чуть больше времени, чем ожидалось: это масштабное обновление, и, например, за последние сутки трафик через API вырос примерно вдвое.

Мы продолжаем работать над стабильностью системы и внимательно следим за вашей обратной связью. Мы и ожидали, что запуск множества нововведений одновременно будет сопровождаться небольшими сбоями, но их оказалось чуть больше, чем мы рассчитывали.

#ИИ
👌1
Pro юзерам уже вернули доступ к старым моделям ) , а у Plus такой фокус не работает.

И кстати не обновили лимиты на Дип-ресерч и Агентов, обычно, когда выкатывают новую версию, все лимиты обнуляются.

#ИИ