Если вы находитесь в другом городе и устали, нужен интернет и розетка, то попробуйте на карте поискать ближайшую публичную библиотеку.
Если вы в последний раз были в ней лет 20-30 назад и у вас остались совковые впечатления, то всё поменялось. Сейчас библиотеки - это бесплатные мини коровкинги без переговорок.
Так что не стесняйтесь. Вам будут только рады.
Если вы в последний раз были в ней лет 20-30 назад и у вас остались совковые впечатления, то всё поменялось. Сейчас библиотеки - это бесплатные мини коровкинги без переговорок.
Так что не стесняйтесь. Вам будут только рады.
Сегодня решил чуток повайбкодить и опять обделался, так как приходится включать мозг(
Особенно разочаровало то, что дизигнеры всё же нужны и не отправляются в отдел кадров. Запрос к чатгпт или же гуглу простой:
Итог: получаем что-то похожее(в случае чатгпт) и что-то не очень похожее(в случае гугла). И вот уточнения перестают помогать. Картинка или портится полностью, или же делает что-то не то.
Впечатления полностью совпадают с программированием: 80% работы выполняется, а остальное приходится руками дорабатывать напильником.
Человеки, увы, пока что ещё нужны. Специфичность - это пока что то в чём мы превосходим железки.
Особенно разочаровало то, что дизигнеры всё же нужны и не отправляются в отдел кадров. Запрос к чатгпт или же гуглу простой:
Нарисуй схематическое упражнение "rope press-down". В схеме должен быть мускулистый мужчина. Мужчина слева. Тренажёр справа. У мужчины должны быть подсвечены трицепсы красным, так как они работают во время упражнения. Бицепсы же не должны подсвечиваться.
Итог: получаем что-то похожее(в случае чатгпт) и что-то не очень похожее(в случае гугла). И вот уточнения перестают помогать. Картинка или портится полностью, или же делает что-то не то.
Впечатления полностью совпадают с программированием: 80% работы выполняется, а остальное приходится руками дорабатывать напильником.
Человеки, увы, пока что ещё нужны. Специфичность - это пока что то в чём мы превосходим железки.
Разработка дорожает, милорд.
https://github.blog/news-insights/product-news/github-copilot-agent-mode-activated/#premium-model-requests
Гитхаб такие молодцы: и агентов выкатили, и MCP поддержали, и лимиты ввели на запросы.
Теперь можно сказать покедова безлимитным моделям через copilot. Все нормальные модели только за денюжку. Причём деньги какие-то космические в базовом тарифе. Если курсор или windserf даёт 500 запросов, то copilot всего лишь 300.
И нормальное количество(1500) только в подписке за 40 баксов в месяц.
Только есть один нюанс: в нейронку напрямую вы можете ходить с полным контекстом, а в копайлот - до 60к токенов.
Теперь я совершенно не вижу смысла в подписке за 10 баксов. Это просто деньги на ветер.
https://github.blog/news-insights/product-news/github-copilot-agent-mode-activated/#premium-model-requests
Гитхаб такие молодцы: и агентов выкатили, и MCP поддержали, и лимиты ввели на запросы.
Теперь можно сказать покедова безлимитным моделям через copilot. Все нормальные модели только за денюжку. Причём деньги какие-то космические в базовом тарифе. Если курсор или windserf даёт 500 запросов, то copilot всего лишь 300.
И нормальное количество(1500) только в подписке за 40 баксов в месяц.
Только есть один нюанс: в нейронку напрямую вы можете ходить с полным контекстом, а в копайлот - до 60к токенов.
Теперь я совершенно не вижу смысла в подписке за 10 баксов. Это просто деньги на ветер.
The GitHub Blog
Vibe coding with GitHub Copilot: Agent mode and MCP support rolling out to all VS Code users
In celebration of MSFT’s 50th anniversary, we’re rolling out Agent Mode with MCP support to all VS Code users. We are also announcing the new GitHub Copilot Pro+ plan w/ premium requests, the general availability of models from Anthropic, Google, and OpenAI…
Deep-reseach
Если делать что-то чуть сложнее тупой вёрстки и покраски кнопок, то, увы, приходится включать мозг и время от времени гуглить, чтобы уточнить информацию или какие-то гипотезы.
Но, ура, теперь мозг можно включать ещё чуть меньше и автоматизировать эту бесячую фазу поиска информации.
DeepReseach - это, наверное, самая важная фича нейронок, которая у нас есть. Это штука, которая ищет в интернете за вас в куче источников и позволяет скомпилировать ответ на вопрос, который вы задали.
Я сейчас время от времени допиливаю свой бандлер для библиотек и сейчас работаю над поддержкой монореп. И deep-research зашёл как никогда хорошо
https://g.co/gemini/share/7a58c2e5ce60
https://chatgpt.com/share/67f2e174-9dd4-8010-bc52-87cc8e5b2670
https://x.com/i/grok/share/28OICLkiQD4cGKhQOWqnI5kUt
Я задал один и тот же вопрос gemini и chatgpt. На моё удивление, гугл справился раза в 3 быстрее, посетил 200 сайтов и дал почти что корректный ответ. Чатгпт же работал долго, посетил 20 сайтов и дал на 100% верный ответ.
Но есть одно НО: гугл бесплатный и, вроде как, безлимитный. А чатгпт стоит 20 баксов в месяц и даёт 10 запусков в месяц.
Так что если вы что-то ищите по своим вопросам, возможно, стоит просто пойти в gemini и попросить нейронку поискать за вас.
UPD: добавил ссылку на результат грока на тот же запрос. Получилось весьма недурно. На уровне chatgpt, кмк
Если делать что-то чуть сложнее тупой вёрстки и покраски кнопок, то, увы, приходится включать мозг и время от времени гуглить, чтобы уточнить информацию или какие-то гипотезы.
Но, ура, теперь мозг можно включать ещё чуть меньше и автоматизировать эту бесячую фазу поиска информации.
DeepReseach - это, наверное, самая важная фича нейронок, которая у нас есть. Это штука, которая ищет в интернете за вас в куче источников и позволяет скомпилировать ответ на вопрос, который вы задали.
Я сейчас время от времени допиливаю свой бандлер для библиотек и сейчас работаю над поддержкой монореп. И deep-research зашёл как никогда хорошо
https://g.co/gemini/share/7a58c2e5ce60
https://chatgpt.com/share/67f2e174-9dd4-8010-bc52-87cc8e5b2670
https://x.com/i/grok/share/28OICLkiQD4cGKhQOWqnI5kUt
Я задал один и тот же вопрос gemini и chatgpt. На моё удивление, гугл справился раза в 3 быстрее, посетил 200 сайтов и дал почти что корректный ответ. Чатгпт же работал долго, посетил 20 сайтов и дал на 100% верный ответ.
Но есть одно НО: гугл бесплатный и, вроде как, безлимитный. А чатгпт стоит 20 баксов в месяц и даёт 10 запусков в месяц.
Так что если вы что-то ищите по своим вопросам, возможно, стоит просто пойти в gemini и попросить нейронку поискать за вас.
UPD: добавил ссылку на результат грока на тот же запрос. Получилось весьма недурно. На уровне chatgpt, кмк
Gemini
Gemini - Monorepo Cross-Linking Setup Guide
Created with Gemini
Тут последний крупный игрок, наконец-то вступил в гонку агентов AI.
https://blog.jetbrains.com/blog/2025/04/16/jetbrains-ides-go-ai/
Самое главное: они включили платный tier в All Products Pack. Так что если у вас такой тариф, то вперёд пробовать.
По моему мнению, они рвут cursor и windsurf и уж точно copilot. Причём Junie мне кажется выигрышным в этом отношении, так как они первые кто продаёт подход, а не просто набор тулов.
Поясню:
Junie на каждую команду строит пайплайн решения задачи(показывая его пользователю) и выполняет его шаг за шагом. Остальные же агенты просто являются черным яшиком, поведение которого ты предсказать никак не можешь.
И это даёт огромное преимущество, так как ты можешь заранее предугадать и исправить ошибки системы, а не пытаться потом править нагорячую.
Но у релиза минусы тоже есть. Лендинг просто отвратительный. Для меня главные вопросы: стоимость и лимиты.
И ни на один из них текущий лендинг ответа не даёт(
Есть такие-то кредиты, которые тратятся непонятно как.
Есть 2 подписки, которые отличаются только количеством кредитов(а что за кредиты всё ещё непонятно).
Так же непонятно что с ценами. Я обычно покупаю All Products Pack, но теперь AI Pro включен в эту подписку. А
Но Антон Архипов(Advocate в JetBrains) уже сказал, что это временные проблемы и будут исправлены за 2-3 недели.
https://blog.jetbrains.com/blog/2025/04/16/jetbrains-ides-go-ai/
Самое главное: они включили платный tier в All Products Pack. Так что если у вас такой тариф, то вперёд пробовать.
По моему мнению, они рвут cursor и windsurf и уж точно copilot. Причём Junie мне кажется выигрышным в этом отношении, так как они первые кто продаёт подход, а не просто набор тулов.
Поясню:
Junie на каждую команду строит пайплайн решения задачи(показывая его пользователю) и выполняет его шаг за шагом. Остальные же агенты просто являются черным яшиком, поведение которого ты предсказать никак не можешь.
И это даёт огромное преимущество, так как ты можешь заранее предугадать и исправить ошибки системы, а не пытаться потом править нагорячую.
Но у релиза минусы тоже есть. Лендинг просто отвратительный. Для меня главные вопросы: стоимость и лимиты.
И ни на один из них текущий лендинг ответа не даёт(
Есть такие-то кредиты, которые тратятся непонятно как.
Есть 2 подписки, которые отличаются только количеством кредитов(а что за кредиты всё ещё непонятно).
Так же непонятно что с ценами. Я обычно покупаю All Products Pack, но теперь AI Pro включен в эту подписку. А
AI Ultimate
стоит уже 20 баксов в месяц. Ну, и покупать ещё одну полноценную подписку, хотя у меня есть усеченная, желания мало. Переплачивать неохота.Но Антон Архипов(Advocate в JetBrains) уже сказал, что это временные проблемы и будут исправлены за 2-3 недели.
Там openai за последние дни презентовала целую россыпь новых моделей
4.1 - новая версия GPT модели, которая лучше 4o в программировании, но хуже 4.5 в остальных задачах.
Самое главное достоинство этой модели - это контекстное окно в 1M токенов. Как минимум за счёт этого она может быть лучше 3.7 Sonnet в программировании
o3 - замена o1, которая и умнее(по словам openai), но и дешевле по апи: 40 баксов аутпута против 60. Ещё пару поколений и можно будет свободно гонять oX модели через апи. Доступна уже в приложении чатгпт вместо o1.
Что я заметил: у меня она думала спокойно 2 минуты, что плюс. o1 у меня всегда думала максимум 1 минуту
o4-mini - более дешевая и умный(по словам openai) аналог o3-mini. Из минусов: всё то же контекстное окно в 200к токенов. Т.е. с помощью неё не поконтруировать длинные и можные промпты. С этой точки зрения gemini 2.5pro вне конкуренции.
Так же openai представили https://github.com/openai/codex, который является конкурентом, очевидно, claude code. Теперь, похоже что, провайдеры будут конкурировать не только моделями, но и клиентами к ним.
=======
Для тех кто не вошёл в эту всю движуху по ai и всему такому, я горячо рекомендую попробовать гугловую модель gemini 2.5pro и Сline/RooCode. Или же windsurf, которые на неделю раздают модели openai бесплатно.
У гугла есть программа на Google Cloud, где они новым пользователям дают 300 баксов на 3 месяца. Этого с лихвой хватит чтобы наиграться и понять прелесть современного агентного программирования
4.1 - новая версия GPT модели, которая лучше 4o в программировании, но хуже 4.5 в остальных задачах.
Самое главное достоинство этой модели - это контекстное окно в 1M токенов. Как минимум за счёт этого она может быть лучше 3.7 Sonnet в программировании
o3 - замена o1, которая и умнее(по словам openai), но и дешевле по апи: 40 баксов аутпута против 60. Ещё пару поколений и можно будет свободно гонять oX модели через апи. Доступна уже в приложении чатгпт вместо o1.
Что я заметил: у меня она думала спокойно 2 минуты, что плюс. o1 у меня всегда думала максимум 1 минуту
o4-mini - более дешевая и умный(по словам openai) аналог o3-mini. Из минусов: всё то же контекстное окно в 200к токенов. Т.е. с помощью неё не поконтруировать длинные и можные промпты. С этой точки зрения gemini 2.5pro вне конкуренции.
Так же openai представили https://github.com/openai/codex, который является конкурентом, очевидно, claude code. Теперь, похоже что, провайдеры будут конкурировать не только моделями, но и клиентами к ним.
=======
Для тех кто не вошёл в эту всю движуху по ai и всему такому, я горячо рекомендую попробовать гугловую модель gemini 2.5pro и Сline/RooCode. Или же windsurf, которые на неделю раздают модели openai бесплатно.
У гугла есть программа на Google Cloud, где они новым пользователям дают 300 баксов на 3 месяца. Этого с лихвой хватит чтобы наиграться и понять прелесть современного агентного программирования
GitHub
GitHub - openai/codex: Lightweight coding agent that runs in your terminal
Lightweight coding agent that runs in your terminal - openai/codex
Forwarded from Dev News от Максима Соснова
The new Cookie Store API
Внезапно узнал, что уже 4 года как существует новое API для работы с куками, которое давно доступно в Chrome, недавно стало доступно в Safari и все еще недоступно в Firefox - Cookie Store API
Новое API намного удобнее. Хотя любое API, по сравнению со старым, будет удобнее.
Первое, что бросается в глаза - это человеческий интерфейс для установки. Если вам нужно просто установить значение -
Второе, что бросается в глаза - это то, что все взаимодействие стало асинхронным
Тут я не совсем понял смысла от асинхронщины, но методы будут бросать ошибки - что тоже хорошо.
Еще 1 фича не бросается в глаза, но она очень крутая - можно наконец-то подписаться на изменения кук и увидеть измененные и удаленные куки
Пример использования из статьи: синхронизируем состояние стора с состоянием куки
В общем, выглядит многообещающе. Ждем открытия без флага в Firefox и можно юзать. Но если хочется уже использовать, то должны быть рабочие полифилы.
https://fotis.xyz/posts/the-new-cookie-store-api/
#development #javascript #cookie
Внезапно узнал, что уже 4 года как существует новое API для работы с куками, которое давно доступно в Chrome, недавно стало доступно в Safari и все еще недоступно в Firefox - Cookie Store API
Новое API намного удобнее. Хотя любое API, по сравнению со старым, будет удобнее.
Первое, что бросается в глаза - это человеческий интерфейс для установки. Если вам нужно просто установить значение -
cookieStore.set("cookie1", "cookie1-value");
. Если вам нужна полная настройка:cookieStore.set({
name: 'theme',
value: 'dark',
path: '/',
partitioned: false,
sameSite: 'strict',
});
Второе, что бросается в глаза - это то, что все взаимодействие стало асинхронным
try {
await cookieStore.set("cookie1", "cookie1-value");
} catch (error) {
console.log(`Error setting cookie1: ${error}`);
}
Тут я не совсем понял смысла от асинхронщины, но методы будут бросать ошибки - что тоже хорошо.
Еще 1 фича не бросается в глаза, но она очень крутая - можно наконец-то подписаться на изменения кук и увидеть измененные и удаленные куки
cookieStore.addEventListener('change', (event) => {
console.log(event);
});
Пример использования из статьи: синхронизируем состояние стора с состоянием куки
cookieStore.addEventListener('change', (event) => {
const deleted = ev.deleted.find((c) => c.name === THEME_COOKIE_NAME);
if (deleted) {
setStoredTheme(undefined);
return;
}
const changed = ev.changed.find((c) => c.name === THEME_COOKIE_NAME);
if (changed) {
setStoredTheme(changed.value);
return;
}
})
В общем, выглядит многообещающе. Ждем открытия без флага в Firefox и можно юзать. Но если хочется уже использовать, то должны быть рабочие полифилы.
https://fotis.xyz/posts/the-new-cookie-store-api/
#development #javascript #cookie
Fotis Papadogeorgopoulos
The new Cookie Store API
Introducing the relatively new Cookie Store API, and what it means for web applications.
локальные ллм
Тут пару дней назад релизнулись новые типапроизводительные модели qwen3 и все их хвалят
- https://t.me/artalog/1633
- https://t.me/itbeard/1738
А мне как раз сегодня(уже через час) лететь куда-то. И так как в полёте всё равно делать особо нечего, то можно по идее попрограммировать.
Мой выбор упал на ollama для запуска моделей, так как я уже давно её использую и вроде как терпимо всё работает. Но в этот раз без приключений не обошлось.
1. Сначала был гемор со скачиванием 30b модели. У меня ломалось скачивание модели на середине, так как стояла не последняя версия ollama(это я уже узнал потом через час мучений)
2. Потом эта штука начала тормозить и вылетать, так как не хватало памяти. Спасибо, закрыл лишние программы
3. После чего оказалось, что ни RooCode, ни Cline или Continue нормально работать с ними не хотят. Просто шлют какой-то свой промпт и уходят в бесконечный цикл(см. скриншот)
И только aider из-за его простоты и тупости нормально +- работал с ollama+qwen:30b
Благо, что есть 2 товарища выше, которые не настолько упороты, чтобы предпочитать консольные тулы как я. Они посоветовали LM Studio.
И это просто сказка по сравнению с ollama. Оно и ставится из brew, и сама скачивает оптимизированную модель именно под M архитектуру(так называемую MLX) и одной кнопкой экспоузит сервер для внешних приложений, и графический чат имеет. Радости полные штаны от человека, который не хочет заморачиваться с этим всем openai compatibility.
Если хотите всё же попробовать локальные модели, то
И особо не заморачивайтесь. Потом, если понадобится(прямо если реально понадобится), то уже будете упарываться и копаться внутри. А так - опенсорс опять сделать вроде как нормальный продукт, хоть и со второй попытки.
P.S. MLX версия на моём M1 Max+64RAM занимает всего лишь 22гига памяти для 50k токенов контекста и выдаёт 60 токенов в секунду, что весьма быстро.
Тут пару дней назад релизнулись новые типапроизводительные модели qwen3 и все их хвалят
- https://t.me/artalog/1633
- https://t.me/itbeard/1738
А мне как раз сегодня(уже через час) лететь куда-то. И так как в полёте всё равно делать особо нечего, то можно по идее попрограммировать.
Мой выбор упал на ollama для запуска моделей, так как я уже давно её использую и вроде как терпимо всё работает. Но в этот раз без приключений не обошлось.
1. Сначала был гемор со скачиванием 30b модели. У меня ломалось скачивание модели на середине, так как стояла не последняя версия ollama(это я уже узнал потом через час мучений)
2. Потом эта штука начала тормозить и вылетать, так как не хватало памяти. Спасибо, закрыл лишние программы
3. После чего оказалось, что ни RooCode, ни Cline или Continue нормально работать с ними не хотят. Просто шлют какой-то свой промпт и уходят в бесконечный цикл(см. скриншот)
И только aider из-за его простоты и тупости нормально +- работал с ollama+qwen:30b
Благо, что есть 2 товарища выше, которые не настолько упороты, чтобы предпочитать консольные тулы как я. Они посоветовали LM Studio.
И это просто сказка по сравнению с ollama. Оно и ставится из brew, и сама скачивает оптимизированную модель именно под M архитектуру(так называемую MLX) и одной кнопкой экспоузит сервер для внешних приложений, и графический чат имеет. Радости полные штаны от человека, который не хочет заморачиваться с этим всем openai compatibility.
Если хотите всё же попробовать локальные модели, то
brew install --cask lm-studio
И особо не заморачивайтесь. Потом, если понадобится(прямо если реально понадобится), то уже будете упарываться и копаться внутри. А так - опенсорс опять сделать вроде как нормальный продукт, хоть и со второй попытки.
P.S. MLX версия на моём M1 Max+64RAM занимает всего лишь 22гига памяти для 50k токенов контекста и выдаёт 60 токенов в секунду, что весьма быстро.
Telegram
artalog
Протестировал новые модельки. Код выдает, нууу, нормальный. Очень хочу qwen3-4b для локального автокомплита, потом еще как-нибудь попытаюсь завести.
Бтв, LM Studio - супер удобная штука, как для локального чата, так и для сервера. Нормальный, т.е. фичастый…
Бтв, LM Studio - супер удобная штука, как для локального чата, так и для сервера. Нормальный, т.е. фичастый…
Андруша пишет код
локальные ллм Тут пару дней назад релизнулись новые типапроизводительные модели qwen3 и все их хвалят - https://t.me/artalog/1633 - https://t.me/itbeard/1738 А мне как раз сегодня(уже через час) лететь куда-то. И так как в полёте всё равно делать особо нечего…
Кроме того что я в поездку себе настроил локальные LLMки для работы(было вполне сносно), я взял с собой ещё одну игрушку: travel router Cudy TR300
Это роутер, размером с 8 коробков от спичек, который спокойно работает от павербанка. И я хотел проверить насколько он имеет смысл в моём путешествии, так как мы провели 8 дней в отдельном доме, а работу и прочие интернет-хотелки никто не отменял.
Из плюсов:
- Поддержка openwrt из коробки
- Я имел доступ к домашней сети через wireguard, что позволило мне иметь доступы к внутреннему серверу и использовать все наработки по типу резалок рекламы и автоматического обхода блокировок, которые я уже давно настроил на своём роутере.
- 2.4Ghz моего роутера пробивали стены на порядки лучше чем роутер, который стоял в том доме. Я спокойно сидел с улицы с ноутбуком, когда мои друзья не могли пользоваться Wi-Fi
- Не нужно подключать всю свою ораву устройств к новой сети. Ты просто пользуешься тем что привык, так как для тебя сеть та же самая
- Я попробовал роутер в аэропорту. И travelmate для openwrt позволяет пробивать все эти страницы по типу "нажмите на кнопку, чтобы получить интернет на 30 минут" автоматически. Очень удобно.
Из минусов:
- Пришлось почти что сразу сносить родную прошивку и ставить openwrt, так как мне нужна поддержка VPN до дома, а в родной прошивке поддержки не оказалось(хотя на сайте было обещание этого)
- Только 2 антенны. Я ожидал что их будет 4, чтобы я мог первую пару использовать для подключения к внешней сети, а другими раздавать свою сеть. В итоге пришлось подключиться по 5Ghz и раздавать 2.4Ghz. Не особо жалуюсь, но всё же неприятно
- Пришлось чуток изучать сети, так как openwrt совсем не френдли. Но минут 20 и chatgpt помогли мне настроить то что мне требуется
На тусовке я встретил ещё одну людину(Женя, привет). Он пользуется тревел роутером, но от Gl.inet. По его словам, там куда более дружелюбный интерфейс к дебилам как я. Из коробки и tailscale поднимается, и wifi-сети создаются, и всё чики-пуки. Но особой жалости что я не взял себе игрушку от них у меня нет, так как я ожидал что буду перешивать роутер для себя, так как openwrt куда развесистее штука.
Нужна ли эта штука каждому человеку? Кмк - нет. Но она прямо сильно упрощает жизнь. Если у вас в поездке хотя бы 2 ноутбука и несколько телефонов, то возможно стоит заложить 100 евро на будущие путешествия. Как минимум возможность не клацать эту дибильную кнопку "дай мне ещё 15 минут интернета" в кафешке стоит того.
Это роутер, размером с 8 коробков от спичек, который спокойно работает от павербанка. И я хотел проверить насколько он имеет смысл в моём путешествии, так как мы провели 8 дней в отдельном доме, а работу и прочие интернет-хотелки никто не отменял.
Из плюсов:
- Поддержка openwrt из коробки
- Я имел доступ к домашней сети через wireguard, что позволило мне иметь доступы к внутреннему серверу и использовать все наработки по типу резалок рекламы и автоматического обхода блокировок, которые я уже давно настроил на своём роутере.
- 2.4Ghz моего роутера пробивали стены на порядки лучше чем роутер, который стоял в том доме. Я спокойно сидел с улицы с ноутбуком, когда мои друзья не могли пользоваться Wi-Fi
- Не нужно подключать всю свою ораву устройств к новой сети. Ты просто пользуешься тем что привык, так как для тебя сеть та же самая
- Я попробовал роутер в аэропорту. И travelmate для openwrt позволяет пробивать все эти страницы по типу "нажмите на кнопку, чтобы получить интернет на 30 минут" автоматически. Очень удобно.
Из минусов:
- Пришлось почти что сразу сносить родную прошивку и ставить openwrt, так как мне нужна поддержка VPN до дома, а в родной прошивке поддержки не оказалось(хотя на сайте было обещание этого)
- Только 2 антенны. Я ожидал что их будет 4, чтобы я мог первую пару использовать для подключения к внешней сети, а другими раздавать свою сеть. В итоге пришлось подключиться по 5Ghz и раздавать 2.4Ghz. Не особо жалуюсь, но всё же неприятно
- Пришлось чуток изучать сети, так как openwrt совсем не френдли. Но минут 20 и chatgpt помогли мне настроить то что мне требуется
На тусовке я встретил ещё одну людину(Женя, привет). Он пользуется тревел роутером, но от Gl.inet. По его словам, там куда более дружелюбный интерфейс к дебилам как я. Из коробки и tailscale поднимается, и wifi-сети создаются, и всё чики-пуки. Но особой жалости что я не взял себе игрушку от них у меня нет, так как я ожидал что буду перешивать роутер для себя, так как openwrt куда развесистее штука.
Нужна ли эта штука каждому человеку? Кмк - нет. Но она прямо сильно упрощает жизнь. Если у вас в поездке хотя бы 2 ноутбука и несколько телефонов, то возможно стоит заложить 100 евро на будущие путешествия. Как минимум возможность не клацать эту дибильную кнопку "дай мне ещё 15 минут интернета" в кафешке стоит того.
Надо время от времени напоминать себе что корпорации тебе не друзья.
https://x.com/rbuckton/status/1922364558426911039
Сначала ты работаешь над переписыванием TS на гошечку, сидишь в комитете по развитию языка javascript, а потом тебя через пару месяцев сокращают, так как твою работу может заменить ИИ.
https://apnews.com/article/microsoft-layoffs-d1f2de54ebad6f099deac8fbd3375835
https://x.com/rbuckton/status/1922364558426911039
Сначала ты работаешь над переписыванием TS на гошечку, сидишь в комитете по развитию языка javascript, а потом тебя через пару месяцев сокращают, так как твою работу может заменить ИИ.
https://apnews.com/article/microsoft-layoffs-d1f2de54ebad6f099deac8fbd3375835
X (formerly Twitter)
Ron Buckton (@rbuckton) on X
After 18 years at Microsoft, with roughly a decade of that time working on TypeScript, I have unfortunately been let go in the latest round of layoffs. I need to take a few days to process before I start looking for work. Thanks to everyone who's been part…
https://openai.com/index/introducing-codex/
Openai уже превращается в настоящую корпорацию по типу гугла:
- есть cli тула для написания кода - codex
- по слухам планируют выкупить windsurf - ещё одна IDE
- выпускают ещё один продукт для кодинга, но в этот раз на удалённой машине.
А так же теперь у них есть целых 4 продукта под названием codex:
- старый codex, который даже не смог запуститься нормально. Существует только в анонсах
- codex как cli тула
- codex как продукт для облачной разработки
- codex как название модели.
Приятно что компания не изменяет себе в традициях
===
А если по сути: если вы заносите денег openai, то дадут пощупать бесплатно вскоре, а потом будут доить гоев
Openai уже превращается в настоящую корпорацию по типу гугла:
- есть cli тула для написания кода - codex
- по слухам планируют выкупить windsurf - ещё одна IDE
- выпускают ещё один продукт для кодинга, но в этот раз на удалённой машине.
А так же теперь у них есть целых 4 продукта под названием codex:
- старый codex, который даже не смог запуститься нормально. Существует только в анонсах
- codex как cli тула
- codex как продукт для облачной разработки
- codex как название модели.
Приятно что компания не изменяет себе в традициях
===
А если по сути: если вы заносите денег openai, то дадут пощупать бесплатно вскоре, а потом будут доить гоев
Не так давно openai добавила в chatgpt поддержку deep-research по гитхабу.
Я решил попробовать, так как мне пришла интересная мысль:
- Можно же проанализировать репозитории openai codex, cline, roocode, aider. Ведь из исходников можно вытащить интересные фичи, которые позволят оптимизировать пайплайн работы с нейронками для достижения лучшего результата.
И вот новость: подключать можно только свои репозитории. Причём форки за свои не считаются. Я ждал дня 2 и форки не появились. openai обещает появление в течении 5 минут же. Да, можно скачать репу и залить к себе, но пока я ленив для такого
Но у меня есть свои полузаброшенные проектики и я решил исследовать как реализовать одну геморную фичу: поддержку монореп для бандлера.
Для начала я составил промпт из своего ломанного английского с помощью o4-mini:
https://chatgpt.com/share/682af052-ac7c-8010-8312-fd50c1ad3256. Не пишите промпты руками. Используйте думающие нейронки для такого
И потом итоговый промпт отправил в дип ресёрч.
https://chatgpt.com/share/682aef60-f878-8010-a00d-76482f1099a9
Ответ получился чуть-чуть кривоватый, но хороший. Если бы я над этой темой не думал в фоне месяца 2, то точно посчитал бы его отличным. А так - подчерпнул чуток новых идей.
Как использовать эту тулу? Для себя я вижу следующие варианты: форкать популярные репы и просто спрашивать какую-то сложную шизу, в которой я не могу разобраться. Обычно истории коммитов достаточно для исследований
Я решил попробовать, так как мне пришла интересная мысль:
- Можно же проанализировать репозитории openai codex, cline, roocode, aider. Ведь из исходников можно вытащить интересные фичи, которые позволят оптимизировать пайплайн работы с нейронками для достижения лучшего результата.
И вот новость: подключать можно только свои репозитории. Причём форки за свои не считаются. Я ждал дня 2 и форки не появились. openai обещает появление в течении 5 минут же. Да, можно скачать репу и залить к себе, но пока я ленив для такого
Но у меня есть свои полузаброшенные проектики и я решил исследовать как реализовать одну геморную фичу: поддержку монореп для бандлера.
Для начала я составил промпт из своего ломанного английского с помощью o4-mini:
https://chatgpt.com/share/682af052-ac7c-8010-8312-fd50c1ad3256. Не пишите промпты руками. Используйте думающие нейронки для такого
И потом итоговый промпт отправил в дип ресёрч.
https://chatgpt.com/share/682aef60-f878-8010-a00d-76482f1099a9
Ответ получился чуть-чуть кривоватый, но хороший. Если бы я над этой темой не думал в фоне месяца 2, то точно посчитал бы его отличным. А так - подчерпнул чуток новых идей.
Как использовать эту тулу? Для себя я вижу следующие варианты: форкать популярные репы и просто спрашивать какую-то сложную шизу, в которой я не могу разобраться. Обычно истории коммитов достаточно для исследований
Подписки на AI
https://support.anthropic.com/en/articles/11145838-using-claude-code-with-your-pro-or-max-plan
В мире ничего не происходит вне AI мира, что даже скучно.
Тут не так давно Anthropic выпустили подписку. За фикс денег вы получаете практически безлимит для работы Claude Code.
И это реальное изменение в работе лично для меня.
- Jetbrains AI имеют небольшие лимиты, которые спокойно можно использовать за пару дней. Я, к примеру, исчерпал их за сутки, пиля небольшой проект(напишу об этом позже)
- Курсор имеет хороший тулинг, но всё ещё дорогой. Его 500 кредитов за 20 баксов заканчиваются буквально за сутки. А потом ты платишь просто за API. Потратить 100+ баксов за неделю можно спокойно
- Windsurf - примерно такая же ситуация как и с курсором. У них такая же бизнес модель
А claude позволяет сбрасывает лимиты каждые 5 часов. И в подписке за 100 баксов в месяц я не сумел исчерпать лимиты, полностью работая над проектом за эти 5 часов. Буквально, я имею безлимитный доступ к лучшим нейронкам на рынке за такую небольшую сумму.
Почему это важно? Я начинаю использовать нейронки по-максимуму. Из примеров:
- спрашивать о том как работает код. Мы держим код в монорепе и зачастую единственный способ узнать что делает тот или иной эндпоинт на бекенде - спросить у человека, который писал этот бекенд. С безлимитом к нейронкам я делаю очень просто: спрашиваю у клод кода или же просто беру мой запрос и спрашиваю "а почему не работает?". И после этого клод код анализирует эту джаву и гошечку и выдаёт мне ответ в чём я или бекендер не прав. Это очень экономит время, так как мне не нужно ждать ответа бекендера и отвлекать его.
- написание различных cli тулов. За эту неделю я написал экстрактор i18n ключей из нашей кодовой базы, чтобы понять какие ключи мы используем, а какие нет. Код писался практически полностью клод кодом. Результат можете увидеть тут: https://github.com/XaveScor/i18next-keys-extractor
Или же я продолжил работать над смартбандлом. Сейчас я наконец-то реализую монорепы: https://github.com/XaveScor/smartbundle/tree/144-monorepo-support. Тоже почти всё с помощью клод кода
- обновление зависимостей и поиск ошибок без гемора. Недавно вышел storybook@9 и я не сумел обновить его сполпинка. Простая фраза: "скачай исходники через гит и найди что падает" сразу выдало мне в чём проблема.
- Сложные рефакторинги. На удивление, клод код может делать и это. К примеру, у меня нормально получилось написать компонент и "найти все использования куда я могу воткнуть этот компонент". Причём клод код так же подсказал какие места потенциально хорошие, если я внесу несколько изменений
Мир реально изменился. Теперь я знаю что за мелкие деньги я могу делать почти что угодно. И я могу не играничивать себя в хотелках.
Единственное что мне хочется - это чтобы кто-то вытащил подписку из клодкода и засунул в Cline/RooCode. Или же чтобы OpenAI сделала тоже подписку на свои модели. Предсказуемые траты делают чудеса
https://support.anthropic.com/en/articles/11145838-using-claude-code-with-your-pro-or-max-plan
В мире ничего не происходит вне AI мира, что даже скучно.
Тут не так давно Anthropic выпустили подписку. За фикс денег вы получаете практически безлимит для работы Claude Code.
И это реальное изменение в работе лично для меня.
- Jetbrains AI имеют небольшие лимиты, которые спокойно можно использовать за пару дней. Я, к примеру, исчерпал их за сутки, пиля небольшой проект(напишу об этом позже)
- Курсор имеет хороший тулинг, но всё ещё дорогой. Его 500 кредитов за 20 баксов заканчиваются буквально за сутки. А потом ты платишь просто за API. Потратить 100+ баксов за неделю можно спокойно
- Windsurf - примерно такая же ситуация как и с курсором. У них такая же бизнес модель
А claude позволяет сбрасывает лимиты каждые 5 часов. И в подписке за 100 баксов в месяц я не сумел исчерпать лимиты, полностью работая над проектом за эти 5 часов. Буквально, я имею безлимитный доступ к лучшим нейронкам на рынке за такую небольшую сумму.
Почему это важно? Я начинаю использовать нейронки по-максимуму. Из примеров:
- спрашивать о том как работает код. Мы держим код в монорепе и зачастую единственный способ узнать что делает тот или иной эндпоинт на бекенде - спросить у человека, который писал этот бекенд. С безлимитом к нейронкам я делаю очень просто: спрашиваю у клод кода или же просто беру мой запрос и спрашиваю "а почему не работает?". И после этого клод код анализирует эту джаву и гошечку и выдаёт мне ответ в чём я или бекендер не прав. Это очень экономит время, так как мне не нужно ждать ответа бекендера и отвлекать его.
- написание различных cli тулов. За эту неделю я написал экстрактор i18n ключей из нашей кодовой базы, чтобы понять какие ключи мы используем, а какие нет. Код писался практически полностью клод кодом. Результат можете увидеть тут: https://github.com/XaveScor/i18next-keys-extractor
Или же я продолжил работать над смартбандлом. Сейчас я наконец-то реализую монорепы: https://github.com/XaveScor/smartbundle/tree/144-monorepo-support. Тоже почти всё с помощью клод кода
- обновление зависимостей и поиск ошибок без гемора. Недавно вышел storybook@9 и я не сумел обновить его сполпинка. Простая фраза: "скачай исходники через гит и найди что падает" сразу выдало мне в чём проблема.
- Сложные рефакторинги. На удивление, клод код может делать и это. К примеру, у меня нормально получилось написать компонент и "найти все использования куда я могу воткнуть этот компонент". Причём клод код так же подсказал какие места потенциально хорошие, если я внесу несколько изменений
Мир реально изменился. Теперь я знаю что за мелкие деньги я могу делать почти что угодно. И я могу не играничивать себя в хотелках.
Единственное что мне хочется - это чтобы кто-то вытащил подписку из клодкода и засунул в Cline/RooCode. Или же чтобы OpenAI сделала тоже подписку на свои модели. Предсказуемые траты делают чудеса
GitHub
GitHub - XaveScor/i18next-keys-extractor
Contribute to XaveScor/i18next-keys-extractor development by creating an account on GitHub.
Возможность убрать людей из своей работы мне кажется такой важной, что этот кейс я считаю самым главным открытием для меня.
И безлимит даёт прямо желание творить любую наркоманию, не смотря на траты. Думаю, что кучу ручной работы благодаря этой подписке можно будет автоматизировать.
И безлимит даёт прямо желание творить любую наркоманию, не смотря на траты. Думаю, что кучу ручной работы благодаря этой подписке можно будет автоматизировать.
OpenAI начинает ценовую войну, снижая цену на их флагманскую модель
Приятно, что все клиенты(курсор, виндсёрф, копайлот) мигом подстроились и снизили цены на неё в том числе.
Кроме того, OpenAI представили o3-pro, которая стала в 8 раз дешевле, чем их предыдущее поколение o1-pro.
Правда по первым обзорам https://www.latent.space/p/o3-pro, o3-pro это не "чатовая" модель. С ней надо жить абсолютно по другому: накидать кучу данных в контекст и ждать выхлоп. Общаться с ней смысла нет.
В итоге, пока что потребитель в плюсе. Ждём ответа от гугла и антропика, потому что теперь их модели до неприличия дорогие на фоне openAI.
o3
в 5 раз. Причём это выглядит настолько шизово, что древняя 4o теперь тупо дороже флагманской модели.Приятно, что все клиенты(курсор, виндсёрф, копайлот) мигом подстроились и снизили цены на неё в том числе.
Кроме того, OpenAI представили o3-pro, которая стала в 8 раз дешевле, чем их предыдущее поколение o1-pro.
Правда по первым обзорам https://www.latent.space/p/o3-pro, o3-pro это не "чатовая" модель. С ней надо жить абсолютно по другому: накидать кучу данных в контекст и ждать выхлоп. Общаться с ней смысла нет.
В итоге, пока что потребитель в плюсе. Ждём ответа от гугла и антропика, потому что теперь их модели до неприличия дорогие на фоне openAI.