Forwarded from Dev News от Максима Соснова
The new Cookie Store API
Внезапно узнал, что уже 4 года как существует новое API для работы с куками, которое давно доступно в Chrome, недавно стало доступно в Safari и все еще недоступно в Firefox - Cookie Store API
Новое API намного удобнее. Хотя любое API, по сравнению со старым, будет удобнее.
Первое, что бросается в глаза - это человеческий интерфейс для установки. Если вам нужно просто установить значение -
Второе, что бросается в глаза - это то, что все взаимодействие стало асинхронным
Тут я не совсем понял смысла от асинхронщины, но методы будут бросать ошибки - что тоже хорошо.
Еще 1 фича не бросается в глаза, но она очень крутая - можно наконец-то подписаться на изменения кук и увидеть измененные и удаленные куки
Пример использования из статьи: синхронизируем состояние стора с состоянием куки
В общем, выглядит многообещающе. Ждем открытия без флага в Firefox и можно юзать. Но если хочется уже использовать, то должны быть рабочие полифилы.
https://fotis.xyz/posts/the-new-cookie-store-api/
#development #javascript #cookie
Внезапно узнал, что уже 4 года как существует новое API для работы с куками, которое давно доступно в Chrome, недавно стало доступно в Safari и все еще недоступно в Firefox - Cookie Store API
Новое API намного удобнее. Хотя любое API, по сравнению со старым, будет удобнее.
Первое, что бросается в глаза - это человеческий интерфейс для установки. Если вам нужно просто установить значение -
cookieStore.set("cookie1", "cookie1-value");
. Если вам нужна полная настройка:cookieStore.set({
name: 'theme',
value: 'dark',
path: '/',
partitioned: false,
sameSite: 'strict',
});
Второе, что бросается в глаза - это то, что все взаимодействие стало асинхронным
try {
await cookieStore.set("cookie1", "cookie1-value");
} catch (error) {
console.log(`Error setting cookie1: ${error}`);
}
Тут я не совсем понял смысла от асинхронщины, но методы будут бросать ошибки - что тоже хорошо.
Еще 1 фича не бросается в глаза, но она очень крутая - можно наконец-то подписаться на изменения кук и увидеть измененные и удаленные куки
cookieStore.addEventListener('change', (event) => {
console.log(event);
});
Пример использования из статьи: синхронизируем состояние стора с состоянием куки
cookieStore.addEventListener('change', (event) => {
const deleted = ev.deleted.find((c) => c.name === THEME_COOKIE_NAME);
if (deleted) {
setStoredTheme(undefined);
return;
}
const changed = ev.changed.find((c) => c.name === THEME_COOKIE_NAME);
if (changed) {
setStoredTheme(changed.value);
return;
}
})
В общем, выглядит многообещающе. Ждем открытия без флага в Firefox и можно юзать. Но если хочется уже использовать, то должны быть рабочие полифилы.
https://fotis.xyz/posts/the-new-cookie-store-api/
#development #javascript #cookie
Fotis Papadogeorgopoulos
The new Cookie Store API
Introducing the relatively new Cookie Store API, and what it means for web applications.
👍18💩1🤡1
локальные ллм
Тут пару дней назад релизнулись новые типапроизводительные модели qwen3 и все их хвалят
- https://t.me/artalog/1633
- https://t.me/itbeard/1738
А мне как раз сегодня(уже через час) лететь куда-то. И так как в полёте всё равно делать особо нечего, то можно по идее попрограммировать.
Мой выбор упал на ollama для запуска моделей, так как я уже давно её использую и вроде как терпимо всё работает. Но в этот раз без приключений не обошлось.
1. Сначала был гемор со скачиванием 30b модели. У меня ломалось скачивание модели на середине, так как стояла не последняя версия ollama(это я уже узнал потом через час мучений)
2. Потом эта штука начала тормозить и вылетать, так как не хватало памяти. Спасибо, закрыл лишние программы
3. После чего оказалось, что ни RooCode, ни Cline или Continue нормально работать с ними не хотят. Просто шлют какой-то свой промпт и уходят в бесконечный цикл(см. скриншот)
И только aider из-за его простоты и тупости нормально +- работал с ollama+qwen:30b
Благо, что есть 2 товарища выше, которые не настолько упороты, чтобы предпочитать консольные тулы как я. Они посоветовали LM Studio.
И это просто сказка по сравнению с ollama. Оно и ставится из brew, и сама скачивает оптимизированную модель именно под M архитектуру(так называемую MLX) и одной кнопкой экспоузит сервер для внешних приложений, и графический чат имеет. Радости полные штаны от человека, который не хочет заморачиваться с этим всем openai compatibility.
Если хотите всё же попробовать локальные модели, то
И особо не заморачивайтесь. Потом, если понадобится(прямо если реально понадобится), то уже будете упарываться и копаться внутри. А так - опенсорс опять сделать вроде как нормальный продукт, хоть и со второй попытки.
P.S. MLX версия на моём M1 Max+64RAM занимает всего лишь 22гига памяти для 50k токенов контекста и выдаёт 60 токенов в секунду, что весьма быстро.
Тут пару дней назад релизнулись новые типапроизводительные модели qwen3 и все их хвалят
- https://t.me/artalog/1633
- https://t.me/itbeard/1738
А мне как раз сегодня(уже через час) лететь куда-то. И так как в полёте всё равно делать особо нечего, то можно по идее попрограммировать.
Мой выбор упал на ollama для запуска моделей, так как я уже давно её использую и вроде как терпимо всё работает. Но в этот раз без приключений не обошлось.
1. Сначала был гемор со скачиванием 30b модели. У меня ломалось скачивание модели на середине, так как стояла не последняя версия ollama(это я уже узнал потом через час мучений)
2. Потом эта штука начала тормозить и вылетать, так как не хватало памяти. Спасибо, закрыл лишние программы
3. После чего оказалось, что ни RooCode, ни Cline или Continue нормально работать с ними не хотят. Просто шлют какой-то свой промпт и уходят в бесконечный цикл(см. скриншот)
И только aider из-за его простоты и тупости нормально +- работал с ollama+qwen:30b
Благо, что есть 2 товарища выше, которые не настолько упороты, чтобы предпочитать консольные тулы как я. Они посоветовали LM Studio.
И это просто сказка по сравнению с ollama. Оно и ставится из brew, и сама скачивает оптимизированную модель именно под M архитектуру(так называемую MLX) и одной кнопкой экспоузит сервер для внешних приложений, и графический чат имеет. Радости полные штаны от человека, который не хочет заморачиваться с этим всем openai compatibility.
Если хотите всё же попробовать локальные модели, то
brew install --cask lm-studio
И особо не заморачивайтесь. Потом, если понадобится(прямо если реально понадобится), то уже будете упарываться и копаться внутри. А так - опенсорс опять сделать вроде как нормальный продукт, хоть и со второй попытки.
P.S. MLX версия на моём M1 Max+64RAM занимает всего лишь 22гига памяти для 50k токенов контекста и выдаёт 60 токенов в секунду, что весьма быстро.
Telegram
artalog
Протестировал новые модельки. Код выдает, нууу, нормальный. Очень хочу qwen3-4b для локального автокомплита, потом еще как-нибудь попытаюсь завести.
Бтв, LM Studio - супер удобная штука, как для локального чата, так и для сервера. Нормальный, т.е. фичастый…
Бтв, LM Studio - супер удобная штука, как для локального чата, так и для сервера. Нормальный, т.е. фичастый…
👍13💩4🔥2❤1🤡1
Андруша пишет код
локальные ллм Тут пару дней назад релизнулись новые типапроизводительные модели qwen3 и все их хвалят - https://t.me/artalog/1633 - https://t.me/itbeard/1738 А мне как раз сегодня(уже через час) лететь куда-то. И так как в полёте всё равно делать особо нечего…
Кроме того что я в поездку себе настроил локальные LLMки для работы(было вполне сносно), я взял с собой ещё одну игрушку: travel router Cudy TR300
Это роутер, размером с 8 коробков от спичек, который спокойно работает от павербанка. И я хотел проверить насколько он имеет смысл в моём путешествии, так как мы провели 8 дней в отдельном доме, а работу и прочие интернет-хотелки никто не отменял.
Из плюсов:
- Поддержка openwrt из коробки
- Я имел доступ к домашней сети через wireguard, что позволило мне иметь доступы к внутреннему серверу и использовать все наработки по типу резалок рекламы и автоматического обхода блокировок, которые я уже давно настроил на своём роутере.
- 2.4Ghz моего роутера пробивали стены на порядки лучше чем роутер, который стоял в том доме. Я спокойно сидел с улицы с ноутбуком, когда мои друзья не могли пользоваться Wi-Fi
- Не нужно подключать всю свою ораву устройств к новой сети. Ты просто пользуешься тем что привык, так как для тебя сеть та же самая
- Я попробовал роутер в аэропорту. И travelmate для openwrt позволяет пробивать все эти страницы по типу "нажмите на кнопку, чтобы получить интернет на 30 минут" автоматически. Очень удобно.
Из минусов:
- Пришлось почти что сразу сносить родную прошивку и ставить openwrt, так как мне нужна поддержка VPN до дома, а в родной прошивке поддержки не оказалось(хотя на сайте было обещание этого)
- Только 2 антенны. Я ожидал что их будет 4, чтобы я мог первую пару использовать для подключения к внешней сети, а другими раздавать свою сеть. В итоге пришлось подключиться по 5Ghz и раздавать 2.4Ghz. Не особо жалуюсь, но всё же неприятно
- Пришлось чуток изучать сети, так как openwrt совсем не френдли. Но минут 20 и chatgpt помогли мне настроить то что мне требуется
На тусовке я встретил ещё одну людину(Женя, привет). Он пользуется тревел роутером, но от Gl.inet. По его словам, там куда более дружелюбный интерфейс к дебилам как я. Из коробки и tailscale поднимается, и wifi-сети создаются, и всё чики-пуки. Но особой жалости что я не взял себе игрушку от них у меня нет, так как я ожидал что буду перешивать роутер для себя, так как openwrt куда развесистее штука.
Нужна ли эта штука каждому человеку? Кмк - нет. Но она прямо сильно упрощает жизнь. Если у вас в поездке хотя бы 2 ноутбука и несколько телефонов, то возможно стоит заложить 100 евро на будущие путешествия. Как минимум возможность не клацать эту дибильную кнопку "дай мне ещё 15 минут интернета" в кафешке стоит того.
Это роутер, размером с 8 коробков от спичек, который спокойно работает от павербанка. И я хотел проверить насколько он имеет смысл в моём путешествии, так как мы провели 8 дней в отдельном доме, а работу и прочие интернет-хотелки никто не отменял.
Из плюсов:
- Поддержка openwrt из коробки
- Я имел доступ к домашней сети через wireguard, что позволило мне иметь доступы к внутреннему серверу и использовать все наработки по типу резалок рекламы и автоматического обхода блокировок, которые я уже давно настроил на своём роутере.
- 2.4Ghz моего роутера пробивали стены на порядки лучше чем роутер, который стоял в том доме. Я спокойно сидел с улицы с ноутбуком, когда мои друзья не могли пользоваться Wi-Fi
- Не нужно подключать всю свою ораву устройств к новой сети. Ты просто пользуешься тем что привык, так как для тебя сеть та же самая
- Я попробовал роутер в аэропорту. И travelmate для openwrt позволяет пробивать все эти страницы по типу "нажмите на кнопку, чтобы получить интернет на 30 минут" автоматически. Очень удобно.
Из минусов:
- Пришлось почти что сразу сносить родную прошивку и ставить openwrt, так как мне нужна поддержка VPN до дома, а в родной прошивке поддержки не оказалось(хотя на сайте было обещание этого)
- Только 2 антенны. Я ожидал что их будет 4, чтобы я мог первую пару использовать для подключения к внешней сети, а другими раздавать свою сеть. В итоге пришлось подключиться по 5Ghz и раздавать 2.4Ghz. Не особо жалуюсь, но всё же неприятно
- Пришлось чуток изучать сети, так как openwrt совсем не френдли. Но минут 20 и chatgpt помогли мне настроить то что мне требуется
На тусовке я встретил ещё одну людину(Женя, привет). Он пользуется тревел роутером, но от Gl.inet. По его словам, там куда более дружелюбный интерфейс к дебилам как я. Из коробки и tailscale поднимается, и wifi-сети создаются, и всё чики-пуки. Но особой жалости что я не взял себе игрушку от них у меня нет, так как я ожидал что буду перешивать роутер для себя, так как openwrt куда развесистее штука.
Нужна ли эта штука каждому человеку? Кмк - нет. Но она прямо сильно упрощает жизнь. Если у вас в поездке хотя бы 2 ноутбука и несколько телефонов, то возможно стоит заложить 100 евро на будущие путешествия. Как минимум возможность не клацать эту дибильную кнопку "дай мне ещё 15 минут интернета" в кафешке стоит того.
👍22🔥3💩1🤡1
Надо время от времени напоминать себе что корпорации тебе не друзья.
https://x.com/rbuckton/status/1922364558426911039
Сначала ты работаешь над переписыванием TS на гошечку, сидишь в комитете по развитию языка javascript, а потом тебя через пару месяцев сокращают, так как твою работу может заменить ИИ.
https://apnews.com/article/microsoft-layoffs-d1f2de54ebad6f099deac8fbd3375835
https://x.com/rbuckton/status/1922364558426911039
Сначала ты работаешь над переписыванием TS на гошечку, сидишь в комитете по развитию языка javascript, а потом тебя через пару месяцев сокращают, так как твою работу может заменить ИИ.
https://apnews.com/article/microsoft-layoffs-d1f2de54ebad6f099deac8fbd3375835
X (formerly Twitter)
Ron Buckton (@rbuckton) on X
After 18 years at Microsoft, with roughly a decade of that time working on TypeScript, I have unfortunately been let go in the latest round of layoffs. I need to take a few days to process before I start looking for work. Thanks to everyone who's been part…
🤯14👍4💩2🤡2🔥1😁1
https://openai.com/index/introducing-codex/
Openai уже превращается в настоящую корпорацию по типу гугла:
- есть cli тула для написания кода - codex
- по слухам планируют выкупить windsurf - ещё одна IDE
- выпускают ещё один продукт для кодинга, но в этот раз на удалённой машине.
А так же теперь у них есть целых 4 продукта под названием codex:
- старый codex, который даже не смог запуститься нормально. Существует только в анонсах
- codex как cli тула
- codex как продукт для облачной разработки
- codex как название модели.
Приятно что компания не изменяет себе в традициях
===
А если по сути: если вы заносите денег openai, то дадут пощупать бесплатно вскоре, а потом будут доить гоев
Openai уже превращается в настоящую корпорацию по типу гугла:
- есть cli тула для написания кода - codex
- по слухам планируют выкупить windsurf - ещё одна IDE
- выпускают ещё один продукт для кодинга, но в этот раз на удалённой машине.
А так же теперь у них есть целых 4 продукта под названием codex:
- старый codex, который даже не смог запуститься нормально. Существует только в анонсах
- codex как cli тула
- codex как продукт для облачной разработки
- codex как название модели.
Приятно что компания не изменяет себе в традициях
===
А если по сути: если вы заносите денег openai, то дадут пощупать бесплатно вскоре, а потом будут доить гоев
👍9💩5🤡4🔥1
Не так давно openai добавила в chatgpt поддержку deep-research по гитхабу.
Я решил попробовать, так как мне пришла интересная мысль:
- Можно же проанализировать репозитории openai codex, cline, roocode, aider. Ведь из исходников можно вытащить интересные фичи, которые позволят оптимизировать пайплайн работы с нейронками для достижения лучшего результата.
И вот новость: подключать можно только свои репозитории. Причём форки за свои не считаются. Я ждал дня 2 и форки не появились. openai обещает появление в течении 5 минут же. Да, можно скачать репу и залить к себе, но пока я ленив для такого
Но у меня есть свои полузаброшенные проектики и я решил исследовать как реализовать одну геморную фичу: поддержку монореп для бандлера.
Для начала я составил промпт из своего ломанного английского с помощью o4-mini:
https://chatgpt.com/share/682af052-ac7c-8010-8312-fd50c1ad3256. Не пишите промпты руками. Используйте думающие нейронки для такого
И потом итоговый промпт отправил в дип ресёрч.
https://chatgpt.com/share/682aef60-f878-8010-a00d-76482f1099a9
Ответ получился чуть-чуть кривоватый, но хороший. Если бы я над этой темой не думал в фоне месяца 2, то точно посчитал бы его отличным. А так - подчерпнул чуток новых идей.
Как использовать эту тулу? Для себя я вижу следующие варианты: форкать популярные репы и просто спрашивать какую-то сложную шизу, в которой я не могу разобраться. Обычно истории коммитов достаточно для исследований
Я решил попробовать, так как мне пришла интересная мысль:
- Можно же проанализировать репозитории openai codex, cline, roocode, aider. Ведь из исходников можно вытащить интересные фичи, которые позволят оптимизировать пайплайн работы с нейронками для достижения лучшего результата.
И вот новость: подключать можно только свои репозитории. Причём форки за свои не считаются. Я ждал дня 2 и форки не появились. openai обещает появление в течении 5 минут же. Да, можно скачать репу и залить к себе, но пока я ленив для такого
Но у меня есть свои полузаброшенные проектики и я решил исследовать как реализовать одну геморную фичу: поддержку монореп для бандлера.
Для начала я составил промпт из своего ломанного английского с помощью o4-mini:
https://chatgpt.com/share/682af052-ac7c-8010-8312-fd50c1ad3256. Не пишите промпты руками. Используйте думающие нейронки для такого
И потом итоговый промпт отправил в дип ресёрч.
https://chatgpt.com/share/682aef60-f878-8010-a00d-76482f1099a9
Ответ получился чуть-чуть кривоватый, но хороший. Если бы я над этой темой не думал в фоне месяца 2, то точно посчитал бы его отличным. А так - подчерпнул чуток новых идей.
Как использовать эту тулу? Для себя я вижу следующие варианты: форкать популярные репы и просто спрашивать какую-то сложную шизу, в которой я не могу разобраться. Обычно истории коммитов достаточно для исследований
👍11🤡5🔥3💩2
Подписки на AI
https://support.anthropic.com/en/articles/11145838-using-claude-code-with-your-pro-or-max-plan
В мире ничего не происходит вне AI мира, что даже скучно.
Тут не так давно Anthropic выпустили подписку. За фикс денег вы получаете практически безлимит для работы Claude Code.
И это реальное изменение в работе лично для меня.
- Jetbrains AI имеют небольшие лимиты, которые спокойно можно использовать за пару дней. Я, к примеру, исчерпал их за сутки, пиля небольшой проект(напишу об этом позже)
- Курсор имеет хороший тулинг, но всё ещё дорогой. Его 500 кредитов за 20 баксов заканчиваются буквально за сутки. А потом ты платишь просто за API. Потратить 100+ баксов за неделю можно спокойно
- Windsurf - примерно такая же ситуация как и с курсором. У них такая же бизнес модель
А claude позволяет сбрасывает лимиты каждые 5 часов. И в подписке за 100 баксов в месяц я не сумел исчерпать лимиты, полностью работая над проектом за эти 5 часов. Буквально, я имею безлимитный доступ к лучшим нейронкам на рынке за такую небольшую сумму.
Почему это важно? Я начинаю использовать нейронки по-максимуму. Из примеров:
- спрашивать о том как работает код. Мы держим код в монорепе и зачастую единственный способ узнать что делает тот или иной эндпоинт на бекенде - спросить у человека, который писал этот бекенд. С безлимитом к нейронкам я делаю очень просто: спрашиваю у клод кода или же просто беру мой запрос и спрашиваю "а почему не работает?". И после этого клод код анализирует эту джаву и гошечку и выдаёт мне ответ в чём я или бекендер не прав. Это очень экономит время, так как мне не нужно ждать ответа бекендера и отвлекать его.
- написание различных cli тулов. За эту неделю я написал экстрактор i18n ключей из нашей кодовой базы, чтобы понять какие ключи мы используем, а какие нет. Код писался практически полностью клод кодом. Результат можете увидеть тут: https://github.com/XaveScor/i18next-keys-extractor
Или же я продолжил работать над смартбандлом. Сейчас я наконец-то реализую монорепы: https://github.com/XaveScor/smartbundle/tree/144-monorepo-support. Тоже почти всё с помощью клод кода
- обновление зависимостей и поиск ошибок без гемора. Недавно вышел storybook@9 и я не сумел обновить его сполпинка. Простая фраза: "скачай исходники через гит и найди что падает" сразу выдало мне в чём проблема.
- Сложные рефакторинги. На удивление, клод код может делать и это. К примеру, у меня нормально получилось написать компонент и "найти все использования куда я могу воткнуть этот компонент". Причём клод код так же подсказал какие места потенциально хорошие, если я внесу несколько изменений
Мир реально изменился. Теперь я знаю что за мелкие деньги я могу делать почти что угодно. И я могу не играничивать себя в хотелках.
Единственное что мне хочется - это чтобы кто-то вытащил подписку из клодкода и засунул в Cline/RooCode. Или же чтобы OpenAI сделала тоже подписку на свои модели. Предсказуемые траты делают чудеса
https://support.anthropic.com/en/articles/11145838-using-claude-code-with-your-pro-or-max-plan
В мире ничего не происходит вне AI мира, что даже скучно.
Тут не так давно Anthropic выпустили подписку. За фикс денег вы получаете практически безлимит для работы Claude Code.
И это реальное изменение в работе лично для меня.
- Jetbrains AI имеют небольшие лимиты, которые спокойно можно использовать за пару дней. Я, к примеру, исчерпал их за сутки, пиля небольшой проект(напишу об этом позже)
- Курсор имеет хороший тулинг, но всё ещё дорогой. Его 500 кредитов за 20 баксов заканчиваются буквально за сутки. А потом ты платишь просто за API. Потратить 100+ баксов за неделю можно спокойно
- Windsurf - примерно такая же ситуация как и с курсором. У них такая же бизнес модель
А claude позволяет сбрасывает лимиты каждые 5 часов. И в подписке за 100 баксов в месяц я не сумел исчерпать лимиты, полностью работая над проектом за эти 5 часов. Буквально, я имею безлимитный доступ к лучшим нейронкам на рынке за такую небольшую сумму.
Почему это важно? Я начинаю использовать нейронки по-максимуму. Из примеров:
- спрашивать о том как работает код. Мы держим код в монорепе и зачастую единственный способ узнать что делает тот или иной эндпоинт на бекенде - спросить у человека, который писал этот бекенд. С безлимитом к нейронкам я делаю очень просто: спрашиваю у клод кода или же просто беру мой запрос и спрашиваю "а почему не работает?". И после этого клод код анализирует эту джаву и гошечку и выдаёт мне ответ в чём я или бекендер не прав. Это очень экономит время, так как мне не нужно ждать ответа бекендера и отвлекать его.
- написание различных cli тулов. За эту неделю я написал экстрактор i18n ключей из нашей кодовой базы, чтобы понять какие ключи мы используем, а какие нет. Код писался практически полностью клод кодом. Результат можете увидеть тут: https://github.com/XaveScor/i18next-keys-extractor
Или же я продолжил работать над смартбандлом. Сейчас я наконец-то реализую монорепы: https://github.com/XaveScor/smartbundle/tree/144-monorepo-support. Тоже почти всё с помощью клод кода
- обновление зависимостей и поиск ошибок без гемора. Недавно вышел storybook@9 и я не сумел обновить его сполпинка. Простая фраза: "скачай исходники через гит и найди что падает" сразу выдало мне в чём проблема.
- Сложные рефакторинги. На удивление, клод код может делать и это. К примеру, у меня нормально получилось написать компонент и "найти все использования куда я могу воткнуть этот компонент". Причём клод код так же подсказал какие места потенциально хорошие, если я внесу несколько изменений
Мир реально изменился. Теперь я знаю что за мелкие деньги я могу делать почти что угодно. И я могу не играничивать себя в хотелках.
Единственное что мне хочется - это чтобы кто-то вытащил подписку из клодкода и засунул в Cline/RooCode. Или же чтобы OpenAI сделала тоже подписку на свои модели. Предсказуемые траты делают чудеса
GitHub
GitHub - XaveScor/i18next-keys-extractor
Contribute to XaveScor/i18next-keys-extractor development by creating an account on GitHub.
1👍10❤5💩4🤡2💯1
Возможность убрать людей из своей работы мне кажется такой важной, что этот кейс я считаю самым главным открытием для меня.
И безлимит даёт прямо желание творить любую наркоманию, не смотря на траты. Думаю, что кучу ручной работы благодаря этой подписке можно будет автоматизировать.
И безлимит даёт прямо желание творить любую наркоманию, не смотря на траты. Думаю, что кучу ручной работы благодаря этой подписке можно будет автоматизировать.
1👍7💩7🤡5❤1🔥1🤔1💯1
OpenAI начинает ценовую войну, снижая цену на их флагманскую модель
Приятно, что все клиенты(курсор, виндсёрф, копайлот) мигом подстроились и снизили цены на неё в том числе.
Кроме того, OpenAI представили o3-pro, которая стала в 8 раз дешевле, чем их предыдущее поколение o1-pro.
Правда по первым обзорам https://www.latent.space/p/o3-pro, o3-pro это не "чатовая" модель. С ней надо жить абсолютно по другому: накидать кучу данных в контекст и ждать выхлоп. Общаться с ней смысла нет.
В итоге, пока что потребитель в плюсе. Ждём ответа от гугла и антропика, потому что теперь их модели до неприличия дорогие на фоне openAI.
o3
в 5 раз. Причём это выглядит настолько шизово, что древняя 4o теперь тупо дороже флагманской модели.Приятно, что все клиенты(курсор, виндсёрф, копайлот) мигом подстроились и снизили цены на неё в том числе.
Кроме того, OpenAI представили o3-pro, которая стала в 8 раз дешевле, чем их предыдущее поколение o1-pro.
Правда по первым обзорам https://www.latent.space/p/o3-pro, o3-pro это не "чатовая" модель. С ней надо жить абсолютно по другому: накидать кучу данных в контекст и ждать выхлоп. Общаться с ней смысла нет.
В итоге, пока что потребитель в плюсе. Ждём ответа от гугла и антропика, потому что теперь их модели до неприличия дорогие на фоне openAI.
👍9💩5🤡4🔥3🤔2
https://github.com/sst/opencode/blob/dev/packages/opencode/src/auth/anthropic.ts
А вот и первые умельцы, которые вытащили аутентификацию из Claude Code, чтобы встроить подписку клода в своё приложение. Ждём подобного же в RooCode/Cline и прочие опенсорсные клиенты
А вот и первые умельцы, которые вытащили аутентификацию из Claude Code, чтобы встроить подписку клода в своё приложение. Ждём подобного же в RooCode/Cline и прочие опенсорсные клиенты
GitHub
opencode/packages/opencode/src/auth/anthropic.ts at dev · sst/opencode
AI coding agent, built for the terminal. Contribute to sst/opencode development by creating an account on GitHub.
🤡7💩4👍2❤1🔥1
Андруша пишет код
https://github.com/sst/opencode/blob/dev/packages/opencode/src/auth/anthropic.ts А вот и первые умельцы, которые вытащили аутентификацию из Claude Code, чтобы встроить подписку клода в своё приложение. Ждём подобного же в RooCode/Cline и прочие опенсорсные…
Если у вас аллергия на claude code, но хочется экономить на нейронках, то первый пошёл. https://cline.bot/blog/how-to-use-your-claude-max-subscription-in-cline
Правда они используют не прямой доступ к API как opencode выше, а claude code CLI API.
https://docs.anthropic.com/en/docs/claude-code/cli-reference
Интересный опыт. Тут возникает наверно главнейшая из проблем: ситуация когда клиент А хочет одного, а клиент Б делает другое. Ну посмотрим. Я пока остаюсь на cli.
Правда они используют не прямой доступ к API как opencode выше, а claude code CLI API.
https://docs.anthropic.com/en/docs/claude-code/cli-reference
Интересный опыт. Тут возникает наверно главнейшая из проблем: ситуация когда клиент А хочет одного, а клиент Б делает другое. Ну посмотрим. Я пока остаюсь на cli.
Cline
How to Use Your Claude Max Subscription in Cline - Cline Blog
Tap into your existing Claude Max or Pro subscription to use Cline without paying per-message pricing.
🤡8👍2💩2✍1⚡1
Этот день походу настал и для меня, когда пора валить с WebStorm на что-то другое. Потому что это уже невозможно. У меня сложилось впечатление, что в команде jetBrains тупо нет пользователей вебшторма, из-за чего продукт - это максимально сырая поделка на фоне vscode или даже zed.
За последние 2 месяца я столкнулся с двумя невыносимыми проблемами, которые воспроизводятся даже в последнем EAP:
1. WS просто не отслеживает изменения, которые сделаны за пределами редактора. Вот тебе что-нибудь написала Claude Code, а шторм этого тупо не видит. В итоге я уже раза 3 просто закоммитил только часть изменений, так как внутренний git клиент, конечно же опирается на кеши шторма, а не на состояния ФС. Ужасно бесит. Проявляется на двух ноутбуках, на всех проектах.
2. Работа с тайпскриптом - это полная жопа. В VSCode весь интеллисенс работает практически мгновенно. В WS - в куче ситуаций можно ждать по 5 минут пока он что-то внутри себя переварит. А если это скомбинировать с пунктом 1, то вообще атас. Оно не разрезолвится никогда.
3. Работа поддержки. Её нет. Просто нет. Думаете я не заводил баг? https://youtrack.jetbrains.com/issue/IJPL-194569/WS-git-module-cannot-track-FS-changes-in-background Ну, их программа для работы с файлами не видит изменения в файлах. В наш то век агентов и нейронок, окторые работают вне редактора. Вообще не приоритет.
Я пользовался продуктами jetBrains c 2015 года, но походу время пользоваться уже рабочими продуктами, а не привычными
За последние 2 месяца я столкнулся с двумя невыносимыми проблемами, которые воспроизводятся даже в последнем EAP:
1. WS просто не отслеживает изменения, которые сделаны за пределами редактора. Вот тебе что-нибудь написала Claude Code, а шторм этого тупо не видит. В итоге я уже раза 3 просто закоммитил только часть изменений, так как внутренний git клиент, конечно же опирается на кеши шторма, а не на состояния ФС. Ужасно бесит. Проявляется на двух ноутбуках, на всех проектах.
2. Работа с тайпскриптом - это полная жопа. В VSCode весь интеллисенс работает практически мгновенно. В WS - в куче ситуаций можно ждать по 5 минут пока он что-то внутри себя переварит. А если это скомбинировать с пунктом 1, то вообще атас. Оно не разрезолвится никогда.
3. Работа поддержки. Её нет. Просто нет. Думаете я не заводил баг? https://youtrack.jetbrains.com/issue/IJPL-194569/WS-git-module-cannot-track-FS-changes-in-background Ну, их программа для работы с файлами не видит изменения в файлах. В наш то век агентов и нейронок, окторые работают вне редактора. Вообще не приоритет.
Я пользовался продуктами jetBrains c 2015 года, но походу время пользоваться уже рабочими продуктами, а не привычными
🔥20👍10💯10❤2💩2👎1😁1🤡1
Ну и небольшая история вдогонку к https://t.me/xavescor_code/289
Почему для меня гит клиент настолько критичен?
У шторма есть офигительный хоткей F4, который позволяет переключаться в текущий выбранный файл вне зависимости от того где вы его нашли:
- в диффе истории? F4 - попадаешь в редактируемый файл
- В find usages? F4 и ты внутри файла с этой строкой
- Перед гит коммитом? F4 и ты продолжаешь работу.
И как раз я использовал последнюю фичу немного нестандартно, наверное. Я использовал окно коммита для переключения между файлами, которые уже отредактированы.
Ты просто нажимаешь cmd+K и переключаешься на другой файл через F4.
И вышеописанная бага ломает мне 90% выстроенных пайплайнов работы за последние 10 лет, так как все они содержат переключение между файлами.
И по этой же причине я ненавижу решение jetBrains заменить приятное окошко коммита на залупу из vscode, где ломаются все привычки. Да, это конечно наркомания что я себе выстроил, но с этой наркоманией я эффективен. Был.
Почему для меня гит клиент настолько критичен?
У шторма есть офигительный хоткей F4, который позволяет переключаться в текущий выбранный файл вне зависимости от того где вы его нашли:
- в диффе истории? F4 - попадаешь в редактируемый файл
- В find usages? F4 и ты внутри файла с этой строкой
- Перед гит коммитом? F4 и ты продолжаешь работу.
И как раз я использовал последнюю фичу немного нестандартно, наверное. Я использовал окно коммита для переключения между файлами, которые уже отредактированы.
Ты просто нажимаешь cmd+K и переключаешься на другой файл через F4.
И вышеописанная бага ломает мне 90% выстроенных пайплайнов работы за последние 10 лет, так как все они содержат переключение между файлами.
И по этой же причине я ненавижу решение jetBrains заменить приятное окошко коммита на залупу из vscode, где ломаются все привычки. Да, это конечно наркомания что я себе выстроил, но с этой наркоманией я эффективен. Был.
👍10🤡3💩2
Джуны в 2025
Тут я недавно пилил очередную никому не нужную либу кроме меня https://github.com/xavescor/virtual-tty. Это я делал кучу раз, но в именно этот было всё по-другому:
Я писал код на языке, который ни разу не трогал и не написал ни байта корректного кода. На расте. И это не был вайбкодинг. Я вполне осознанно говорил что писать и как писать, потому что Rust в общем виде всё же читаем для любого человека, кто знает любой c-style код. Но поправить этот код я не могу.
И это навело меня на мысль: а как вообще жить джунам?
Как происходило моё обучение: я где-то в году 2004-2005 загорелся идеей создать свой сайт, перекопал кучу информации, форумов, и даже книжек(и такое было), потом через год сумел поднять свою джумлу, запустить пхп и всё завертелось. Но главное - каждый шаг был буквально выстрадан, потому что инфу надо было искать. И через этот опыт я приобрёл все навыки которые у меня сейчас есть.
Эта же штука и тормозит меня сейчас в изучении чего-то нового. Я не изучаю новые ЯП, технологии, так как я просто не готов проходить через те же терни что и раньше. Просто нет такого же интереса.
И по моему опыту, примерно во всех профессиях знания, которые не выстраданы кучей часов тупняка и подобным, тупо не закрепляются в голове.
И вот тут начинается проблема для джунов:
- Я-то могу писать проекты уровня джуна/мидла полагаясь только на здравый смысл и понимание как оно должно работать на высоком уровне. Но у начинающих такого опыта нет, а нейронки уже генерят код за них. Нет никакого челленджа, потому что нейронки заменяют не только написание кода, но и человеческое общение во многом. К сожалению, тебе нейронка сейчас не скажет "да ты дебил, у тебя sql иньекция в коде". Она либо напишет код без этого бага, либо просто молча напишет уязвимый код. А привычка людей посылать всех в гугл просто трансформировалась в посылание людей в нейронку.
Сейчас же я вижу только 1 путь входа в профессию: ты спрашиваешь что-то у нейронки, а потом всё удаляешь и пытаешься повторить всё без её помощи. По-другому ты просто не освоишь навыки. Тебе мозг не позволит.
Но в этом подходе есть огромная проблема: проблема мотивации. Если раньше я чувствовал себя героем и победителем, так как через часы мучений я всё же решал проблему, то сейчас я чувствую себя дебилом, так как трачу часы на то, что нейронка смогла сделать за секунду.
Тут я недавно пилил очередную никому не нужную либу кроме меня https://github.com/xavescor/virtual-tty. Это я делал кучу раз, но в именно этот было всё по-другому:
Я писал код на языке, который ни разу не трогал и не написал ни байта корректного кода. На расте. И это не был вайбкодинг. Я вполне осознанно говорил что писать и как писать, потому что Rust в общем виде всё же читаем для любого человека, кто знает любой c-style код. Но поправить этот код я не могу.
И это навело меня на мысль: а как вообще жить джунам?
Как происходило моё обучение: я где-то в году 2004-2005 загорелся идеей создать свой сайт, перекопал кучу информации, форумов, и даже книжек(и такое было), потом через год сумел поднять свою джумлу, запустить пхп и всё завертелось. Но главное - каждый шаг был буквально выстрадан, потому что инфу надо было искать. И через этот опыт я приобрёл все навыки которые у меня сейчас есть.
Эта же штука и тормозит меня сейчас в изучении чего-то нового. Я не изучаю новые ЯП, технологии, так как я просто не готов проходить через те же терни что и раньше. Просто нет такого же интереса.
И по моему опыту, примерно во всех профессиях знания, которые не выстраданы кучей часов тупняка и подобным, тупо не закрепляются в голове.
И вот тут начинается проблема для джунов:
- Я-то могу писать проекты уровня джуна/мидла полагаясь только на здравый смысл и понимание как оно должно работать на высоком уровне. Но у начинающих такого опыта нет, а нейронки уже генерят код за них. Нет никакого челленджа, потому что нейронки заменяют не только написание кода, но и человеческое общение во многом. К сожалению, тебе нейронка сейчас не скажет "да ты дебил, у тебя sql иньекция в коде". Она либо напишет код без этого бага, либо просто молча напишет уязвимый код. А привычка людей посылать всех в гугл просто трансформировалась в посылание людей в нейронку.
Сейчас же я вижу только 1 путь входа в профессию: ты спрашиваешь что-то у нейронки, а потом всё удаляешь и пытаешься повторить всё без её помощи. По-другому ты просто не освоишь навыки. Тебе мозг не позволит.
Но в этом подходе есть огромная проблема: проблема мотивации. Если раньше я чувствовал себя героем и победителем, так как через часы мучений я всё же решал проблему, то сейчас я чувствую себя дебилом, так как трачу часы на то, что нейронка смогла сделать за секунду.
GitHub
GitHub - XaveScor/virtual-tty
Contribute to XaveScor/virtual-tty development by creating an account on GitHub.
2👍30❤5💩3🤡3😢1
Тут чуток подумал. А у работодателей теперь появляются новые формы контроля: легко понять работает человек или нет по биллингу нейронок.
Пора придумывать не только то как автоматически дрыгать мышью, но и флудить в нейронки?
Пора придумывать не только то как автоматически дрыгать мышью, но и флудить в нейронки?
😁19🤡10👍3💩3😱1