DEKSDEN notes
2.1K subscribers
248 photos
4 videos
1 file
387 links
Канал с моими заметками на разные темы
Vibe Coding -> AI SWE, AI Coding Tools, Agents: Claude Code, Codex, news, links
Чат (!!!): https://t.me/+B1fB3sZbaVthMDhi
Download Telegram
⚪️ Gemini 3 Flash


#ddeval #feb2026eval2

Пока листал просторы интернета, наткнулся на челов, которые используют Гемини для кодинга. Да, какая то секта, видимо. Но они юзают Флеш вместо Про!

И, конечно, мне пришла в голову мысл заюзать флеш на эвале! Долго ли - коротко ли, заюзалось.

Ран в @12 семплов пробежал довольно шустро, потратив примерно 30% дневной квоты AI Pro аккаунта.

Тайминги - от 120 секунд до 400, в основном около 250-300. Расходы токенов - от 1.1m до 9.5m

А вот далее меня ждал большой сюрприз

Найдено 77 issues, 75 верифицировано (56 verified/19 partial)- неплохой рейт в целом

🔥 А вот раскладка по приоритетам:
p0 : 1 / 0
p1 : 10 / 3
p2 : 21 / 4
p3 : 20 / 12
p4 : 4 / 0

Напомню, это ФЛЕШ. Результаты более чем достойные. Я весьма удивлен.

▶️ Вывод: с кодом флеш работает неплохо, на данной задаче заметно ЛУЧШЕ чем Про версия! Однозначно Флеш проходит на этап конкурса кодеров.

Это прям большое удивление и недопонимание! Пытали током что ли модель больше?.. Старшая модель заметно умнее и эрудированнее, но против цифр не попрешь. Надо думать - почему так))

(ц) omfg

@deksden_notes
🔥19😱4👍3
⚪️ Зачем вот это всё - Эвалы

Тут, наверное, в тему будет легкое лирическое отступление: зачем я делаю этот некий забег в сторону эвалов. Попробую развернуть логику и мотивации.

На текущем моменте в ИИ ситуация развивается обалдеть как динамично. Февраль вывалил на нас вагон новых интересных моделей. Несмотря на сохраняющееся лидерство "буржуйских" фронтирных лаб, мы видим отличные успехи китов.

Следовательно, стратегически стоит выбор - или вверяться в сторону моно-подходов (выбираем фронтирную, скорее всего буржуйскую модель) и строим инструменты вокруг нее. Или делаем оркестрацию моделей, когда каждая выполняет свою задачу, которую тянет. Дистил гейт, баны аккаунтов Антропиком и Гуглом не сильно внушают веру в надежных вендоров моделей: политика корпораций в любой момент может "переехать катком" какого угодно клиента, поэтому тревожно.

Пока кажется что второй подход будет стратегически более интересным: меньше рисков в нашей сложной и динамичной обстановке, что все нужно будет переделывать (как при неудачной ставки на моно-модель). Ведь одно дело - это свои задачи, а другое дело когда проблемы возникли с вендором, вокруг которого работает твоя система у клиентов.

▶️ Ок, допустим, пользуем разные модели. Сразу встает простой вопрос: а какие и для чего? Что могут эти модели?

Чтобы получить ответы есть всего два реальных варианта: изучить имеющиеся бенчмарки, или опереться на собственный опыт.

С бенчмарками, думаю, все уже столкнулись: они что то показывают, но насколько это релевантно своим задачам совершенно не ясно. Не знакомясь с внутренностями бенчмарков сложно сказать, насколько там адекватные "попугаи" получились что они значат. А еще политика БенчМаксинга у вендоров - когда мы стремимся именно к красивым цифрам, а не реальному перфомансу модели!.. В общем, бенчмарки, к сожалению, помощник не великий.

Теперь про собственные ощущения и опыт. Это, конечно, надежный вариант - но при таком потоке новинок переключаться на использование каждой новой модели возможности решительно никакой нету. Да и попользоваться нужно заметное время, а где же его взять!

▶️ Мой выход: неожиданно, но это - эвалы. Я придумал себе набор неких задачек, которые мне полезны, и некие цифровые критерии успешности выполнения этих задачек. Собственно, вот и получился эвал - такой персональный мини-бенчмарк, который мне понятен и релевантен.

🟢 Что МНЕ уже дали полученные цифры:
- я убедился что многомодельность работает. Разные модели "видят" разное, поэтому для максимального качества получить 2-3 мнения разных моделей определенно стоит;
- я убедился что 1-2 семпла вообще ничего про модель не показывают. Модели ведут себя очень по разному. Чтобы что-то обобщить надо хотя бы 7-10 семплов, тогда среднее поведение будет заметно, но все равно будут "флюктуации";
- "слабые" модели не такие уж и слабые и могут принести заметно много пользы, просто не нужно ждать от них прыжка выше головы;
- "сильные" модели заменить особо нечем - вложенный компьют не увеличивает глубину раздумий модели (сетка не становится "мельче", и не вылавливает самую хитрую "рыбу"), но частые забросы сети конечно дают свой "улов";
- относительный перфоманс разных моделей порой удивляет, свои ощущения не совсем совпадают с цифрами (пример - мое мнение про Гемини Про "на берегу" было совершенно иным)

👉 Поэтому уже неплохо, но ряд вопросов все еще требуют решения - я на них сделаю следующие эвалы!

@deksden_notes
13👍9🔥4
⚪️ Codex 0.105 с голосовым вводом

Новый релиз кодекса с голосовым вводом - включается удерживанием пробела.

Чтобы заработало надо фичафлаг voice_transcription включить в конфиге.

Несколько других интересных фич: темы кодоблоков, фанаут для субагентов, очистка экрана, тюнинг системы разрешений, тюнинг апп-сервера

@deksden_notes
👍13🔥8👀1
⚪️ Droid @ Terminal Bench


Недавно в чатике обсуждали дроида и terminal bench, что он был топ, но это было давно

Дроид прислушался к критике, и обновил бенч. Снова #1


https://www.tbench.ai/leaderboard/terminal-bench/2.0

А Если серьено - это к разговору о том, что реально сделать упряжку, которая перформит лучше вендорской (кастомная simple codex от клозедов теперь #2)

@deksden_notes
🔥2👍1
⚪️ Eval-3 (1): планы

#ddeval #feb2026eval3

Итак, мы сделали eval-2 как общий обзорный эвал, и посмотрели как работают свежие модели (qwen 3.5 и gemini 3.1). Задача, на которой он проводился была очень широкой - смотреть все фокусы, то есть анализировать все аспекты кода. 

Мы убедились, что не каждая модель справляется и в состоянии глубоко подумать над каким то определенным аспектом при такой широкой задаче. Это видно по количеству найденных p0/p1 проблем, которые определенно в коде есть, но не каждая модель их находит даже при увеличении компьюта.

👉 Как повысить качество? Попробуем изменить габариты задачи: вместо широкого поиска сделать поиск фокусным, только по одному аспекту. При этом кодовая база будет той же самой, промпты и общая конструкция флоу - идентичной. Будем смотреть как изменятся результаты, если менять габариты задачи.

▶️ Я решил выбрать для эвала фокусы:

• error_handling_reliability
• concurrency_state

Итого: ревью делается тем же самым промптом, но в промпте вместо перечисления ВСЕХ фокусов указывается ТОЛЬКО ОДИН фокус. И смотрим чего получится, как поменяются результаты моделей по сравнению с "широким" эвалом (вырастет ли качество работы), и какое у них будет соотношение друг с другом (насколько дефицит внимания влияет на перфоманс моделей, оценим у кого какой "запас" внимания).

Набор подопытных - берем 2 топовых кита (kimi/glm), обе Gemini (чтобы понять чего это с ними нынче) и gpt-5.2 как бейзлайн фронтира:
* glm-5 в claude code,
* kimi k2.5 в дроиде
* gemini 3.1 Pro и 3 Flash в Gemini Cli (в поисках где же они таки хороши)
* gpt-5.2 в Codex Cli

Семплов решил сделать 4 - маловато, но хочется чтобы лимитов на эвал хватило на оба фокуса. То есть у нас будет по каждому фокусу 4 семпла, всего 8 семплов на каждую модель.

Таков план! Можно приступать к реализации

@deksden_notes
🔥5❤‍🔥2👍2
⚪️ Eval-3 (2): а вот и он!

#ddeval #feb2026eval3

Итак, приступим, помолясь. Запускаю, конкурентность 2 на каждую модель.

😱 Что можно отметить. Квота гугла на 3.1 в AI Pro подписке нынче довольно смешная, а аккаунт у меня остался один - пару других забанили за "неуставные связи". На 8 запусков ревью суточной квоты одного аккаунта даже не хватает - сделали 4 полных семпла для одного фокуса и 2 семпла для другого, и квота кончилась. Напомню - это все таки платный аккаунт! Я не saas ваншотил, а ревью из двух стадий делал, прайминг и сам ревью, довольно скромно. То есть антропик куснул гугла довольно сильно - не каждому желающему попробовать даже хватит! И квоты тут суточные, не 5 часов которые можно было бы подождать. Конечно, нету недельных лимитов - но все равно, такое ... Работать на такой подписке с одним аккаунтом нереально. Хоть на 8 ранов гемини флеш хватило, только 25% квоты где то потратил. Видимо, если работать надо на флеше - то норм. Но на Про модели работать с такой подпиской никак не выйдет.

▶️ У glm-5 на все эксперименты ушло чуть менее 30% 5-ти часовой квоты, то есть работать на про-подписке можно вполне комфортно.

Kimi брал с подписки Droid, там месячная квота - непоказательно, около 2% ушло.

👉 Вся аналитика - в комментах. Потренировался Kimi Slides запрягать и NotebookLM.

Посмотрите - чего вам понравится, пишите впечатления от оформления разными инструментами.

Go в комменты! 👇


@deksden_notes
🔥72❤‍🔥1
⚪️ Eval-3 (3): итоги

#ddeval #feb2026eval3

Самая сложная часть, на самом деле. Мы получили кучу данных, они перед глазами. А вот понять - о чем это, как это понимать, - это самое сложное в такого рода исследованиях.

👉 TLDR: Gpt-5.2 > Flash 3 > Glm-5 + Kimi K2.5

Давайте перечислю свои наблюдения:
* gpt-5.2 заметно глубже и внимательнее думает, все таки бейзлайн фронтира как есть! нашел более глубокие проблемы, все верифицированы - отличные рейты. Удвительно, что думал наже немного побыстрее glm-5.
* glm-5 нынче довольно долго думала, вышло даже дольше gpt-5.2, что удивительно. Нет, у меня у клозедов не pro тариф с быстрым инференсом, обычный.
* модели на фокусах в целом здорово улучшили рейт верификации - почти все находки подтвердились, рост доли верифицированных находок заметный
* kimi довольно шустрая, по качеству работы весьма сравнима с glm-5, разброса в качестве между ними не выявлено
* flash 3 работает в ревью заметно лучше 3.1 pro
* flash-3 немного (не сильно, но заметно) лучше по качеству справился с работой, чем киты - все таки фронтир, видимо; но не уровень gpt-5.2

👉 Главный вывод: фокусная работа дает результаты. За семплы этого эвала было обнаружено в х2 больше issues этих категорий, чем из всех ранее запускавшихся "широких" прогонов.

▶️ Ранее "плотность" обнаружения issues в этих фокусах была 0.9 на сэмпл, а в фокусном эвале - 5+ на семпл. Рост почти х6.

☝️ Итого: в продакшене в оркестраторе - только фокусные эвалы. Фан-аут на каждый фокус и интеграция результатов. Качество растет в разы. Большой плюс от использования разных моделей - очень низкие коэффициенты пересечения находок.

🟢 Такой эвал получился.

@deksden_notes
👍9🔥51❤‍🔥1🙏1
⚪️ Забавное


Переведу:

https://x.com/fortelabs/status/2026681391384068260?s=20

——

Подождите, значит, основателем Anthropic является "Амодей", то есть "любящий Бога"? И он возглавляет Anthropic, что означает «ориентированный на человека», который используется в военных целях?

А создателем ChatGPT является "Altman", то есть "альтернатива людям"? А он возглавляет OpenAI, которая является полностью закрытой организацией?

А ещё есть Gemini, что означает "двуликий", от компании, которая обещала не творить зла?

И вся эта глобальная гонка вооружений в области ИИ ведется людьми, которые утверждали, что обеспокоены тем, что искусственный общий интеллект захватит мир?

Либо Вселенная — автор, пишущий крайне шаблонные тексты, либо обладает блестящим чувством юмора.

——

не мое, но забавное! (ц)

@deksden_notes
😁18👍3🔥1😐1
⚪️ Кодинговый план алибабы

Получил апгрейд

Теперь ВСЕ топовые киты доступны в нем! $5 в первый месяц, $10 далее. Доступ ко всем моделям:
• Kimi K2.5
• Glm-5 (new!)
• Minimax M2.5
• Qwen 3.5

Да, квен не впечатляет - но остальные вполне себе китовый фронтир.


И - главный аргумент: $5/10.

А за $25/50 - огромные лимиты! по 20 апросов в МИНУТУ.

В общем, бюджетный способ получить всех китов в упряжку.

Я думаю про кими, но слайды тоже хочется. И сварм попробовать - в общем, надо подумать! Но алибаба интересное предложение делает

🔗 https://www.alibabacloud.com/help/en/model-studio/coding-plan

——

Upd 1️⃣ : народ говорит купоны кончились

Upd 2️⃣ : купоны вроде бы снова завезли - есть в комментах и успешная регистрация со скидкой

@deksden_notes
🔥103👍3🙏3
⚪️ Смерть SDLC

В уютном платном чате у Алмаза 😎 @almazom (ИИ клуб "ИИшница") обнаружилась ссылка на любопытную статейку:

🔗 https://boristane.com/blog/the-software-development-lifecycle-is-dead/

Статья хайповая слегка (нет), и автор декларирует ряд моментов, которые возникло острое желание прокомментировать! Те у кого лапки нет времени - я в комменты выложу краткий пересказ от notebookLM.

Вкратце: он говорит - агенты разрушили и сделали пережитком прошлого классический цикл раработки. Нету больше тщательных спецификаций, длинных ревью PR, подготовки релизов, специальных инструментов для каждого этапа. Есть короткие итерационные циклы (петли) с агентом: обсудили, сделали, релизнули, проверил - шипим, проверяем, оставляем/откатываем. Все! "Херак, херак - и в продакшн" как есть.

Ну, довольно хайповый и смелый тейк.

🟢 Сначала с чем согласен:
* действительно софт можно дорабатывать короткими интерактивными сессиями.
* действительно надо делать обратную связь агенту (интеграционный тестик желательно), без этого сложно добиться работоспособности софта
* действительно тесты стали частью разработки обязательно;
* вычитывать диффы - уже некоторый рудимент, пожалуй;
* ревью: ну тут нечего добавить, я вот даже эвалы делаю на агентное ревью - смотрим по тегу #ddeval ; видимо, можно догадаться что я согласен; "ансамбль Песняры" и разных агентов - тоже отличная и рабочая схема;


🛑 С чем НЕ согласен и что спорно на мой взгляд, и скажу свои тейки:
* SDLC никуда не делся, но на разных этапах трансформировался новыми инструментами;
* шаги всё те же - спецификация никуда не делась, просто ее сейчас можно интерактивно с агентом определить; если недоспецифицировать задачу, рожаем слоп-код;
* все артефакты в той или иной степени присутствуют: и сторипоинтами (например) можно/нужно габариты задачи оценивать (для корректного планирвоания), и спринты - это сессия доработок, и ревью PR - это просто этап агентного цикла (можно без PR, это деталь CI/CD пайплайна);
* проектирование систем тоже никуда не делось, оно важно чтобы получалось что то более-менее нормально развивающееся; emergent design конечно тут здорово ложится - но именно что им нужно отдельно заниматься;
* тестировщики - да, похоже отживают; но требования к тестам только увеличились; агенту нужно обязательно вменяемое тестовое покрытие, которое прежде всего позволяет судить о том, насколько хорошо решили первоначальную задачу, и, вторично, о качестве реализации задачи (код какой вышел);
* deployment в агентную эпоху - да, малообсуждаемая, но необходимая тема; ничем она от традиционного цикла толком не отличается, только новыми механимами автоматизации агентами - поэтому я не уловил чего тут схлопывается то, скорее наоборот, Ci/CD отлаживается и начинает применяться в обязательном порядке даже на мелких проектах; (надо прописать в канале про это побольше, наверное - да?);
* дашборды - да, требуют замены на cli утилиты (скорее даже дополнения ими); но я тут не улавливаю слом парадигмы - скорее ее развитие и более обязательную адаптацию; мониторинг теперь и для мелких проектов имеет смысл и актуален - чтобы агенту его прикрутить;

☝️ Итого: на мой взгляд, SDLC цикл никуда не делся, а только лишь стабилизировался и даже утвердился. Да, отдельные этапы получили новые инструменты и воможности - но как это меняет их суть?! Жизнь - да, меняется, - но не методом "до основания", а динамичными спиралями развития, где у нас "все то же самое, но на новом уровне".

▶️ А вот про отдельный этап планирования (требования, спеки, архитектура - вот это все) мы в ближайшее время поплотнее поговорим.


(ц) как то так!

@deksden_notes
👍11💯75👎2
Forwarded from ABI
Agentic-workflow для GitHub Copilot (open source)

Выложил экспериментальный репозиторий, где исследую role-based agentic workflows для GitHub Copilot / VS Code Agents.
Вместо одного «умного ассистента» используется явное разделение ролей:
* Orchestrator — управляет процессом
* Planner — уточнение требований и планирование
* Coder Jr / Coder Sr — выполнение задач с эскалацией
* Reviewer, Debugger, Designer — качество, баги, UX

Агенты описаны простыми текстовыми инструкциями (.agent.md), плюс есть skills / чеклисты для доменных правил и контроля качества.
Это не фреймворк и не готовый продукт, а конкретная, opinionated схема workflow для реальной инженерной работы и экспериментов.

Репозиторий:
https://github.com/ABIvan-Tech/copilot-agentic-workflows

Буду рад обратной связи, критике и альтернативным подходам.

#opensource
👍102
Forwarded from ABI
AIFace — «эмоции» для LLM-агента (open source)

Выложил экспериментальный проект AIFace — способ дать LLM-агенту визуальное, эмоциональное представление в реальном времени.

Идея простая:
LLM → управляет состоянием → на телефоне отображается «живое лицо» с эмоциями.

Как устроено:
📱 Мобильный клиент (Kotlin Multiplatform)
Запускается на телефоне, поднимает WebSocket-сервер и рендерит анимированное лицо.
🧠 MCP-сервер (Node.js / TypeScript)
Связывает LLM (через MCP), обнаруживает доступные дисплеи по mDNS и отправляет обновления сцены.
🔁 Обмен в реальном времени через WebSocket.

LLM не рисует напрямую, а управляет состоянием, эмоциями и намерением, которые визуализируются на отдельном устройстве.

Это не продукт и не UI-фреймворк, а инженерный эксперимент:
* embodiment для агентов
* разделение «мышления» и «визуального присутствия»
* исследования interaction-паттернов с агентами

Репозиторий:
https://github.com/ABIvan-Tech/AIFace

Буду рад фидбеку, идеям и вопросам — особенно от тех, кто работает с агентами, MCP или human-AI interaction.
Ищу волшебника который сделает PR для ESP32 (пока у меня нет этого железа, поэтому нужна помощь!)

#opensource
1👍9
⚪️ Великий разбан на Гугле


Многочисленные сообщения об амнистии - Гугл разбанил аккаунты, уличенные в OAuth.

Весна даже еще не наступила - а уже оттепель!

Antigravity / Gemini CLI снова работают. В очередной эвал квот видимо будет чуток побольше, ок - погоняю 3.1 побольше

Ну, осадочек остался ... Посмотрим на сообщения о политике относительно OAuth


@deksden_notes
5👻3
⚪️ Антропики поддерживают OpenSource


Интересную программу придумали Антропики: дадут на 6 месяцев Макс-200 тариф Клода если вы контрибутор популярного проекта на гитхабе (5000 звездочек+ или 1m+ загрузкок с npm, но можно и для других проектов просить)

Антропикам определенно не лишним будет улучшать свою репутацию.

Да и обучив модели на коде открытых проектов, дать модели для генерации кода этих проектов кажется неким логичным шагом )))


🔗 https://claude.com/contact-sales/claude-for-oss


Шаг отличный!

Но в моих глазах предыдущие решения еще не забыты, Антропик.

@deksden_notes
👍112😴1
⚪️ Codex 0.106


Я не часто анонсирую релизы кодекса, благо они случаются часто. Но тут чего то новых интересных фич прям насыпали за последние резизы.

Уже в .105 был войс режим, я даже писало об этом. А в 106 добавили request_user_input в обычный режим, не только в план-моде. Это означает, что и при обычном диалоге с агентом он может задать вам вопрос чере этот удобный инструмент. Попробуйте включить фичафлаг:

default_mode_request_user_input = true

Можно будет делать кастомный план-мод.

Также вроде бы включили память. Посмотрим как будет работать.

Довольно интересный релиз!

@deksden_notes
👍92
⚪️ Gemini CLI Plan Mode

А все смотрели план-мод в свежем Gemini CLI? На удивление, он довольно хорош по задумке.

🔗 Вот дока: https://geminicli.com/docs/cli/plan-mode/

▶️ Важно! (я вот читал доку долго): он НЕ включится если вы в YOLO. А так - shoft-tab или /plan.

Агент исследует кодобазу в планмоде. Поведение зависит от сложности обсуждаемой задачи - для простых он сразу предлагает решение, для сложных будет пытать вас встречными вопросами через ask_user тул.

План умеет делать не эфемерным в контексте, а материализовать в файл в настроенную папку, что тоже удобно. То есть можно планы себе в проект класть (я так делаю, в .protocols/ ).

Также работает роутинг моделей: планирует CLI через про, а испоняет по готовому плану флешем. Да, можно выключить - но как показывают эвалы, не стоит ))

🟢 В принципе, к план-моду не подкопаешься. Да, не такой кудрявый получается как для оркестратора, но для обычного агента - вполне себе на уровне.

▶️ В общем, там, у Гугла, жизнь тоже есть! Не одни баны. Хотя и разбанили... Всех разбанили?

@deksden_notes
👍8
⚪️ Нет - трубам! (архитектурное)

Любопытную статейку прочитал, про архитектуру в эпоху ИИ агентов:

🔗 https://ianbull.com/posts/software-architecture

TLDR от ноутбука-ЛМ в комменты зашлю, для нечитавших.

▶️ С мыслью автора сложно спорить - он очень верно подметил сложность для ИИ агентов: они не могут удерживать "в уме" стейт системы на несколько уровней "вглубь". То есть если у функции есть сайд-эффект, то один уровень, максимум два современные модели осознают. А дальше - все, тупик, не одупляют.

Поэтому если у вас в коде сложная система взаимодействий и сайд-эффектов, для ИИ агентов это будет крайней сложностью. Они рекурсивно по цепочке кода конечно сходят, но каждое действие продумывать с учетом всей глубины сайд-эффектов не смогут.

Пример: у вас обновление в БД запускает нотификацию. Нотификация обновляет метрику где то, вызывая апдейт лимитов. Лимиты обновляются, и могут ставить лок на аккаунт.

Идея в том, чтобы уйти от такого кода к более простому: каждое действие самодостаточно и минимиировано по сайд-эффектам. БД обновил, и все. Если нужна нотификация и вся последующая цеопчка логики, то ее следует вынести из "глубокой цепочки" в обычную плоскую функцию - типа сделай всю работу по этапам: обнови бд, лимиты, статус аккаунтов; чтобы это было внутри одной функции.

Тогда сложность системы для понимания ИИ станет меньше, ошибок в логике станет меньше. В свое время это называлось низкой связанностью.

Короче - каскадные действия, "трубы" мы выкапываем, убираем методом дробления на чистые кусочки. Переходим к оркестрации "стоков" (sinks)

—-

Ну и агитация за модульность / инкапсуляцию, понятные контракты и четкие уровни.

Все зависимости явно добавляем в интерфейсы.

Progressive Disclosure работает и здесь - не документацией единой же.. Принцип тот же и он жффективен

Реструктурируем проект почти как завещало С4, например, из паутины мелкий модулей структурировать по более крупным подсистемам и компонентам.


▶️ Такая вот идея, с которой сложно спорить. Зачем спорить? Такое применять надо

В общем, действительно олд-скулл. Если люди вам не сказали спасибо за такой код, скажут роботы.


(ц) занимательное и полезное чтение

@deksden_notes
3💯179👍4🔥2🤔1
⚪️ OAuth баны от Гугла

Гугл разродился реакцией на шитсторм от банок антигравити и gemini cli для аккаунтов, использовавших OAuth.

Они придумали систему аппеляции и разбана аккаунта, но за второй косяк забанят перманентно.

https://github.com/google-gemini/gemini-cli/discussions/20632

👉 TLDR: Oauth с Гуглом нельзя, аккуратнее!

——

Upd : важно отметить, что юзать CLI в режиме exec из-под какой то системы вроде можно, так как в родной упряжке все делается. А вот напрямую токены подписки - не стоит. Только CLI


@deksden_notes
👍5🔥21
⚪️ Кризис 2028


Тут подкинули интересный рисёч от инвестиционной конторки. Она расписала сценарий кризиса, связанного с внедрением ИИ на 2026-2028

🔗 Сабж: https://www.citriniresearch.com/p/2028gic

TLDR будет в комментах, как обычно

🟢 Кто может покритиковать тейки? В чем инвестиционщики ошибаются?

@deksden_notes
🔥3👍2
⚪️ Vercel Chat.SDK


Теперь он поддерживает тележку, а значит чего то да стоит. Как вариант универсального апи - может быть кому то сгодится.

🔗 https://www.chat-sdk.dev/

(ц) Ну так - чисто к сведению
4👍3