Андруша пишет код
1.21K subscribers
117 photos
1 video
1 file
201 links
Download Telegram
И хочу ещё порекламировать нейронки, если вы ещё не.

Где-то 2-3 месяца назад гугл начал устраивать атракционы невиданной щедрости: по адресу aistudio.google.com, гугл позволял гонять в безлимитном режиме их самую новую нейронку gemini 2 в обмен на то, что они могут обучаться на данных которые им предоставили.

И почему я обожаю опенсорс. Потому что https://aider.chat/docs/usage/copypaste.html
Aider имеет функции, аналогов которых просто нет ни у кого. И вы можете бесплатно(спасибо гуглу) работать через мощнейшую нейронку почти без гемора.

Сейчас гугл немного прикрыли лавочку, так как релизнули gemini 2, но если не хочется платить, то вы можете продолжать использовать экспериментальную версию вместо релизной. Там хоть и появились лимиты, но они всё равно очень большие.

Прияём меня удивляет насколько свободная эта модель. У неё практически нет цензуры. Да, порно-рассказ про то как усама бен ладен заходит с автоматом в детский сад, она не сгенерирует, но если вы уберёте несовершенолетних из промпта и переименуете усаму в австрийского художника Митлера, то всё пойдёт как по маслу. Максимум что вам покажут - это плашку, что в тексте задетекчено насилие.

Я под большим впечатлением от того что творит гугл и всем рекомендую пользоваться их нейронкой пока она бесплатна. А если вы против обучения на ваших данных, то цены вас насмешат после openai.
👍143💩3🤡3❤‍🔥2
Тут произошла небольшая пушка, которая потенциально сулит нам микрореволюцией
https://x.com/sama/status/1889755723078443244

ТЛДР: обычных GPT моделей больше не будет. Будут только ризонинг.
Это революция, так как прямо сейчас самым эффективным способом работы является разделение работы на 2 части: с помощью ризонинга вы планируете работу и описываете её, а сам код пишет уже gpt модель. Пока что o3-mini на моей работе всё же хуже чем антропик по части написания кода. Но в будущем походу мы будем менять то как мы работаем и будем как-то подстраиваться под только ризонинг модели, так как GPT перестанут развиваться.

Практика показала, что OpenAI действует максимально бизнесово: не выпускают ничего пока их не догонят конкуренты. Не так давно появились модели от DeepSeek(которые, кмк, не дотягивают даже до o1-mini модели) и гугла(кмк, паритет), поэтому openai анонсирует новые модели.
Вполне возможно, я заменю клод 3.5 соннет на chatgpt 4.5 в своём пайплайне, но это не точно. Всё будет зависеть от точности и скорости работы. Но как минимум мы имеем подтверждение того, что опенаи считает, что конкуренты их уже догнали, так что не стесняйтесь смотреть на gemini 2.0.

Так же у меня есть планы записать небольшое видео на ютуб, в котором я подведу итоги как же в реальности работать программисту с кодом через нейронки и почему это ни в коем случае не кнопка "сделать красиво". Но оказалось, что запись видео и всего такого - чуток гемор для меня, поэтому хочется узнать скольки именно людям подобная фигня нужна. Просьба, поставьте палец вверх этому посту, если вам интересно подобное видео, так как тратить 3-4 часа своего времени просто так желания маловато.

Edited: Ну и если есть желание, чтобы я затронул какие-то конкретные вопросы - велком ту коммент.
👍1341🔥1💩1🤡1🌭1🍌1👻1
docs driven development
Пока я готовлю видео, поделюсь ещё одной мыслёй.

Как я писал ранее, люди очень плохи в том, чтобы формулировать задачи. Зачастую нам просто лень, так как мы подразумеваем, что контекст задачи есть в голове и у других людей и поэтому его не надо уточнять. Но это не так. И это проявляется как на практике, где время по согласованию задачи растёт по экспоненте от количества людей, так и с нейронками.

Первое, что я увидел - это был архитект мод: режим в котором ты сначала заставляешь нейронку формулировать задачу, а потом заставляешь выполнять задачу, относительно этой формулировки. И это работает, но не так хорошо как хотелось бы. У меня ни разу не получалось сделать задачу полностью с помощью этого метода. Нейрока тупо забывала свои же инструкции.

Поэтому я выработал другой подход: docs driven development
1. Генерим какую-то документацию к библиотеке
2. Скармливаем документацию нейронке и говорим выполнить задачу по ней
3. Смотрим что она предлагает и активно спорим, если она что-то делает не так
4. В момент, когда мы понимаем, что нейронка делает как нам хочется, запрещаем ей решать задачу и говорим ей исправить документацию: нейронка должна описать почему она не поняла задачу только по доке и что нужно в этой документации исправить
5. Обрываем сессию и возвращаемся ко второму шагу.

Почему документация важна? Потому что я прихожу к тому, что с нейронками эффективно можно жить только в монорепе с кучей мелких библиотек. Увы, и никак иначе. И документация нужна для того, чтобы нейронки понимали как работают соседние модули.

Подход выше мне упрощает работу очень сильно, так как по документации можно сразу сгенерить и тесты любых видов, и отдавать эту либу людям, что упрощает работу других людей. Одни плюсы.

Из минусов: я пока не уверен, что это прямо правильный путь. В интернете тупо 0 инфы о таком подходе. Как будто я первый кто до этого додумался. Но, главное что оно работает
👍15🤔5🤡2💩1😐1
Андруша пишет код
Полезные ссылки: aider.chat - рекомендую прочитать всё от корки до корки. Это концентрированная дока про то как работают клиенты к нейронкам https://docs.cline.bot - дока по Cline. Менее полезная, с моей колокольни, но тоже важный источник данных https://cline.bot/blog…
https://platform.openai.com/docs/guides/reasoning-best-practices

Ну и оказывается у openai тоже есть несколько годных статей про ИИшки в дополнение к вышеописанных разделам.

ТЛДР: как выбрать нужную модель для задачи.

Если вы не умеете формулировать задачу, то вам к ризонинг модели. Если можете - вам достаточно ГПТ.

А почему так - по ссылке выше.
👍82💩1🥱1
Я стараюсь не материться в канале, но они чо ебанулись с такими ценами? Какие 75/150 баксов?

https://openai.com/api/pricing/

А я считал 15 долларов у антропика космосом
😁11🥰2😱2🤡2💩1
https://yandex.cloud/ru/docs/foundation-models/

Я тут в рамках видоса попробовал YandexGPT, так как по идее они должны быть лучше для кириллических текстов чем конкуренты. Всё же Яндекс специализируется на русскоязычном рынке. И это правда так:
- у них лучше токенизация(до 25% процентов эффективнее чем openAI)
- их тексты не такие машинные, на мой взгляд(этот текст почти полностью сгенерирован YandexGPT с моими небольшими правками)
- за счёт лучшей токенизации результат получается дешевле.

И я бы перелез бы на их нейронку для, к примеру, текстов в этом бложике, но блин:
- У них собственный протокол общения с сервером
- Из SDK доступен только питон и HTTP. Всё остальное извольте писать самому. Использовать уже де-факто стандартный openAI API - не, это не для Яндекса. Ведь все создатели тулов точно прогнутся под Яндекс. Не то что какой-то Антропик, к примеру. Или DeepSeek, или Grok, или кто угодно другой.
- Совершенно ублюдочная система монетизации: есть не только токены, но и юниты, которые как-то между собой связаны. И вот после этого приседай с математикой, чтобы примерно прикинуть затраты
- Документация - это рак. Удачи узнать размер контекстного окна у какой-нибудь из моделей. Знаете, где я нашёл его? Верно. В ченжлоге. Пососите OpenAI, которые практически на главной вывешивают все тарифы. https://openai.com/api/pricing/
- Ну и контекстное окно в 32к токенов - это смех.
- Демо токенизации - это тоже идиотизм. Вот почему openai сделали демку https://platform.openai.com/tokenizer, а у вас только поход через апи? Вы напрямую хвастаетесь в пресс-релизе о том что у вас зашибенная токенизация русского языка.

И самое тупое, что почти всё - это пролёты в маркетинговой части. Такое чувство, что целью было максимально вбить палки в колёса, чтобы желание полностью было отбито. И у меня оно почти что отбито. Если в GPT5, релиз которого обещали через пару месяцев, поддержка русского языка будет на уровне, то Яндексовую модель можно будет выкидывать на помойку всем, кто не находится под страхом санкций и всего такого
👍14😁2🤡2💩1💯1
Напоминание о важности результата

У нас в проекте есть кодген openAPI схемы, который генерирует нам типобезопасный код для работы с API. Т.е. мы теперь вместо написания fetch(...) можем напрямую писать getUser() в коде и не заморачиваться над тем как корректно отсылать запросы.

Всё было хорошо пока не пришла эра ИИ. Наш кодген генерировал по 1 файлу на сервис. И этот файл мог достигать монструозных размеров: до 100-150к токенов на файл. И никакой клиент просто не вытягивал подобное: CLine вылетал с превышением контекста, а всякие курсоры просто забивали на его контент. В общем, решение нашлось - можно разбить файл на кучу файлов, каждый из которых будет содержать ровно по 1 функции.

Есть ещё один важный нюанс: мы используем Bazel для того чтобы поддерживать нашу монорепу. И у него есть один нюанс: все его задачи обязаны явно описывать output-файлы. Причём поддержки директорий тупо нет в нормальном исполнении. А в плане выше невозможно предугадать какие файлы будут созданы из-за того, что у каждого сервиса бекенда разное количество эндпоинтов. Или же можно, но тогда пришлось бы тупо дублировать логику в базере и в кодгене.

И тут пришло в голову отвратительнейшее решение: создать 100500 файлов 1.ts, 2.ts, ..., N.ts и руками подобрать N. Тогда мы точно будем знать какие файлы будут сгенерены и сможем указать их в параметрах задачи базеля.
Для сервисов, у которых эндпоинтов меньше N просто оставляем лишние файлы пустыми.
Решение максимально кривое и отвратительное, но оно работает. И я сэкономил наверно неделю времени, которое мог бы потратить на нормальное решение.

После этой задачи я чуток прикинул то что делал раньше и понимаю, что мог бы сэкономить кучу времени, если бы не работал над красотой и обходом костылей. Но если поправить костыль не так сложно(до 1 дня), то зачастую я просто не замечаю сколько времени я трачу на подобный рефакторинг.
Возможно, моё мнение сильно изменилось после того как я начал управлять ИИшкой и забивать на качество кода. Возможно, пора забивать и на качество своих решений, а не только на качество решений ИИшки.
👍10💩72🤡1😭1
Claude MAX

Cursor IDE сейчас одна из самых продвинутых IDE с возможностью пошерудить нейронками с точки зрения цена/качество. Всего лишь за 20 баксов вы получаете как агента, так и продвинутый автокомплит, так как свякие прибамбахи типа RAG'а для документации и подобного.

Но есть нюанс: курсор, как и все остальные продукты, ходит в API за денюжку за каждый запрос(а точнее за X токенов). И предоставлять безлимитное использование нейронками, если тебе каждый запрос попадает в копеечку - это очень странно. Особенно на фоне недавнего анонса Claude Code, который спокойно может жрать токены миллионами и тратить деньги безлимитно.

И даже если у них специальные бизнес-контракты с провайдерами нейронок с 99.9% скидками, то они всё равно пролетают по лимитам, так как поехавших и отправляющих запросы к нейронкам 24/7 вайбкодеров предостаточно. Поэтому у них есть не только особые контракты, но и, теперь подтверждённые, лимиты на использование нейронок. Непонятно что именно, но я, исходя из использования, как и другие(достаточно пошариться по сети) считаю, что это лимиты на размеры контекстного окна. Но это не точно.

Теперь же Cursor представляет особый тариф Claude MAX. По огромной цене 0.05$ за запрос или за MCP call. Что является просто огромной суммой для такого уровня услуг. Но зато у вас наконец-то есть возможность ходить к claude без ограничений. Эта сумма большая, так как в процентах 70-80 случаев прямой поход к claude будет на порядки дешевле. И это если не учитывать MCP вызовы.
И представление этого решения является максимально странным, так как это не ответ ни на что. Конкуренты не показывали ничего на что надо так отвечать и мне кажется, что у курсора проблемы с бизнес моделью, когда каждый платный пользователь просто уводит их в минус.

А со своей стороны я рекомендую пользоваться Cline или RooCode, которые не придумывают разные непрозрачности, чтобы сэкономить на качестве вашей работы. По простой причине - это опенсорс и они не хотят от вас денег. А в качестве бекенда можно спокойно использовать Github Copilot, который по такой же подписке даёт безлимитное количество запросов.

P.S. из интересного, в zed тоже не так давно появилась интеграция с копайлотом. Возможно, его можно как-то вытащить и заиспользовать у себя в работе, раз майки одобряют его работу в разных приложениях. Но это уже другая история
👍112🤔2🤡2💩1
https://goblin.tools

Набор бесплатных тулов, которые с помощью ИИшки делает "магию". Мне больше всего нравится тудушка: явно расписывает шаги, которые требуется выполнить для достижения цели.

Отключать мозг и просто выполнять что говорят становится ещё проще
👍15💩4🥴3🤡1
удалил(-а) Вас из группы

UPD: если вы пропустили смишнявку на 1 апреля, то она выглядела так
🤡69🤣15💩5😁3🤯3😱2🎉2🥴21🥰1
Если вы находитесь в другом городе и устали, нужен интернет и розетка, то попробуйте на карте поискать ближайшую публичную библиотеку.

Если вы в последний раз были в ней лет 20-30 назад и у вас остались совковые впечатления, то всё поменялось. Сейчас библиотеки - это бесплатные мини коровкинги без переговорок.
Так что не стесняйтесь. Вам будут только рады.
👍305💩2🤡2
Сегодня решил чуток повайбкодить и опять обделался, так как приходится включать мозг(

Особенно разочаровало то, что дизигнеры всё же нужны и не отправляются в отдел кадров. Запрос к чатгпт или же гуглу простой:

Нарисуй схематическое упражнение "rope press-down". В схеме должен быть мускулистый мужчина. Мужчина слева. Тренажёр справа. У мужчины должны быть подсвечены трицепсы красным, так как они работают во время упражнения. Бицепсы же не должны подсвечиваться.


Итог: получаем что-то похожее(в случае чатгпт) и что-то не очень похожее(в случае гугла). И вот уточнения перестают помогать. Картинка или портится полностью, или же делает что-то не то.
Впечатления полностью совпадают с программированием: 80% работы выполняется, а остальное приходится руками дорабатывать напильником.
Человеки, увы, пока что ещё нужны. Специфичность - это пока что то в чём мы превосходим железки.
😁151💩1🤡1💯1
Разработка дорожает, милорд.

https://github.blog/news-insights/product-news/github-copilot-agent-mode-activated/#premium-model-requests

Гитхаб такие молодцы: и агентов выкатили, и MCP поддержали, и лимиты ввели на запросы.
Теперь можно сказать покедова безлимитным моделям через copilot. Все нормальные модели только за денюжку. Причём деньги какие-то космические в базовом тарифе. Если курсор или windserf даёт 500 запросов, то copilot всего лишь 300.

И нормальное количество(1500) только в подписке за 40 баксов в месяц.
Только есть один нюанс: в нейронку напрямую вы можете ходить с полным контекстом, а в копайлот - до 60к токенов.

Теперь я совершенно не вижу смысла в подписке за 10 баксов. Это просто деньги на ветер.
👍92🤡2🤬1😢1💩1
Deep-reseach

Если делать что-то чуть сложнее тупой вёрстки и покраски кнопок, то, увы, приходится включать мозг и время от времени гуглить, чтобы уточнить информацию или какие-то гипотезы.
Но, ура, теперь мозг можно включать ещё чуть меньше и автоматизировать эту бесячую фазу поиска информации.

DeepReseach - это, наверное, самая важная фича нейронок, которая у нас есть. Это штука, которая ищет в интернете за вас в куче источников и позволяет скомпилировать ответ на вопрос, который вы задали.
Я сейчас время от времени допиливаю свой бандлер для библиотек и сейчас работаю над поддержкой монореп. И deep-research зашёл как никогда хорошо

https://g.co/gemini/share/7a58c2e5ce60
https://chatgpt.com/share/67f2e174-9dd4-8010-bc52-87cc8e5b2670
https://x.com/i/grok/share/28OICLkiQD4cGKhQOWqnI5kUt

Я задал один и тот же вопрос gemini и chatgpt. На моё удивление, гугл справился раза в 3 быстрее, посетил 200 сайтов и дал почти что корректный ответ. Чатгпт же работал долго, посетил 20 сайтов и дал на 100% верный ответ.
Но есть одно НО: гугл бесплатный и, вроде как, безлимитный. А чатгпт стоит 20 баксов в месяц и даёт 10 запусков в месяц.

Так что если вы что-то ищите по своим вопросам, возможно, стоит просто пойти в gemini и попросить нейронку поискать за вас.

UPD: добавил ссылку на результат грока на тот же запрос. Получилось весьма недурно. На уровне chatgpt, кмк
👍112🔥2💩1🤡1
Тут последний крупный игрок, наконец-то вступил в гонку агентов AI.
https://blog.jetbrains.com/blog/2025/04/16/jetbrains-ides-go-ai/
Самое главное: они включили платный tier в All Products Pack. Так что если у вас такой тариф, то вперёд пробовать.

По моему мнению, они рвут cursor и windsurf и уж точно copilot. Причём Junie мне кажется выигрышным в этом отношении, так как они первые кто продаёт подход, а не просто набор тулов.
Поясню:
Junie на каждую команду строит пайплайн решения задачи(показывая его пользователю) и выполняет его шаг за шагом. Остальные же агенты просто являются черным яшиком, поведение которого ты предсказать никак не можешь.
И это даёт огромное преимущество, так как ты можешь заранее предугадать и исправить ошибки системы, а не пытаться потом править нагорячую.

Но у релиза минусы тоже есть. Лендинг просто отвратительный. Для меня главные вопросы: стоимость и лимиты.
И ни на один из них текущий лендинг ответа не даёт(
Есть такие-то кредиты, которые тратятся непонятно как.
Есть 2 подписки, которые отличаются только количеством кредитов(а что за кредиты всё ещё непонятно).

Так же непонятно что с ценами. Я обычно покупаю All Products Pack, но теперь AI Pro включен в эту подписку. А AI Ultimate стоит уже 20 баксов в месяц. Ну, и покупать ещё одну полноценную подписку, хотя у меня есть усеченная, желания мало. Переплачивать неохота.

Но Антон Архипов(Advocate в JetBrains) уже сказал, что это временные проблемы и будут исправлены за 2-3 недели.
👍12🔥3💩2🤡2
Там openai за последние дни презентовала целую россыпь новых моделей

4.1 - новая версия GPT модели, которая лучше 4o в программировании, но хуже 4.5 в остальных задачах.
Самое главное достоинство этой модели - это контекстное окно в 1M токенов. Как минимум за счёт этого она может быть лучше 3.7 Sonnet в программировании

o3 - замена o1, которая и умнее(по словам openai), но и дешевле по апи: 40 баксов аутпута против 60. Ещё пару поколений и можно будет свободно гонять oX модели через апи. Доступна уже в приложении чатгпт вместо o1.
Что я заметил: у меня она думала спокойно 2 минуты, что плюс. o1 у меня всегда думала максимум 1 минуту

o4-mini - более дешевая и умный(по словам openai) аналог o3-mini. Из минусов: всё то же контекстное окно в 200к токенов. Т.е. с помощью неё не поконтруировать длинные и можные промпты. С этой точки зрения gemini 2.5pro вне конкуренции.

Так же openai представили https://github.com/openai/codex, который является конкурентом, очевидно, claude code. Теперь, похоже что, провайдеры будут конкурировать не только моделями, но и клиентами к ним.

=======

Для тех кто не вошёл в эту всю движуху по ai и всему такому, я горячо рекомендую попробовать гугловую модель gemini 2.5pro и Сline/RooCode. Или же windsurf, которые на неделю раздают модели openai бесплатно.
У гугла есть программа на Google Cloud, где они новым пользователям дают 300 баксов на 3 месяца. Этого с лихвой хватит чтобы наиграться и понять прелесть современного агентного программирования
👍10💩3🤡3🔥1🤮1