AI4Dev — AI for Development
3.09K subscribers
92 photos
15 videos
5 files
161 links
Что надо знать, чтобы остаться востребованным ИТ специалистом в мире с LLM?

• Обзоры продуктов, фреймворков и способы взаимодействия с LLM для разработки софта

• Реальные кейсы, pet и бизнес проекты с LLM

• Публичные лекции

В будущее берут не всех!
Download Telegram
Наткнулся на интересный пост:
Каждый день меня спрашивают: "А правда ли ИИ помогает инженерам с большими/сложными/legacy кодовыми базами?"
И знаете что? Однозначно да, если всё делать правильно!
Студенты курсов AI  для разработчиков поделились со мной своим опытом, как они это делают на практике:

Инженер 1:
Первым делом — разберитесь, как устроена кодовая база, спрашивая об этом ИИ. При этом ИИ заодно тоже её изучает.
Например, в Cursor вы можете @ Codebase (или @ какую-то часть кода) и попросить:
• "Сделай Mermaid-диаграммы последовательности и потоков для понимания связей между всеми важными файлами проекта"
• "Результат можно загрузить в  https://mermaid.live/ для просмотра"
• "Дай мне команды для терминала — как запускать, тестировать и останавливать приложение локально и в проде"
• "Расскажи, как ещё можно использовать это приложение, и где найти документацию"
• "Напиши документацию, чтобы я мог начать работать с этой кодовой базой. Сделай это рекурсивно — по директориям, поддиректориям, и пусть всё связывается между собой"
Дальше используйте обычный процесс разработки, но с помощью ИИ:
• Тикет в Jira → ИИ читает, ищет важную информацию, делает выжимку
• Изучение кода → ИИ читает код и пишет саммари на важные части
• Создаем branch → ИИ анализирует код и предлагает исправления
• Тесты → Дайте ИИ взглянуть на существующую инфраструктуру тестов и попросите создать новые тесты для вашей фичи
• Запустите тесты  → ИИ помогает исправить несостыковки
• Сделайте PR, при необходимости воспользуйтесь услугами ИИ
• И так далее
 
Сам пост тут, там еще от 4 инженеров есть советы  по использованию AI.

PS: Думаю на английском промты будут лучше работать
Media is too big
VIEW IN TELEGRAM
Зачем искусственный интеллект науке? Об этом рассказал доктор технических наук Владимир Крылов в своей новой лекции, предложив авторскую интерпретацию внутренних причин появления ИИ как результата научной деятельности человека.

В эфире рассмотрели:
🟠акселерацию процессов проникновения методов ИИ в науку;
🟠возможности управления контролируемыми галлюцинациями, которые лежат в основе познания мира;
🟠новые ИИ-инструменты исследований и их влияние на работу научных сотрудников и на современные формализации структуры науки.

Запись лекции доступна здесь и на других площадках:

➡️ YouTube
➡️ ВКонтакте
➡️ ЯндексМузыка
Please open Telegram to view this post
VIEW IN TELEGRAM
Микроскоп ИИ выявил сложные возможности планирования и рассуждения Клода. При генерации поэзии модель планирует несколько слов вперед, сначала выбирая соответствующие рифмующиеся слова, а затем конструируя каждую строку, чтобы вести к этим целям . Для многошаговых задач рассуждения, таких как определение столицы штата, где находится Даллас, Клод последовательно активирует представления, сначала связывая «Даллас находится в Техасе», а затем «столица Техаса — Остин» . Решение математических задач демонстрирует параллельную обработку с одним путем для приближения и другим для точного расчета . Эти результаты бросают вызов предположению, что LLM просто предсказывают от токена к токену, демонстрируя более сложный внутренний процесс.
Слышали про релиз диффузионных LLM компанией Inception Labs? В этот четверг, 3 апреля, в 12:00 доктор технических наук Владимир Крылов расскажет, как диффузионные LLM повлияют на сферу AI.

В эфире рассмотрим:
🟠Как устроены LLM, опирающиеся не на алгоритмы последовательного предсказания следующего токена, а на алгоритмы диффузии, обычно применяемые для генерации изображений?
🟠Насколько быстрее dLLM Mercury Coder — Mini и Small — справляются с генерацией кода и текста?
🟠Как работает диффузионная текстовая модель LLaDA, сделанная командой GSAI-ML из Китайского народного университета?

Подключайтесь и задавайте вопросы лектору! Их можно оставить в чате на YouTube или в комментариях к этому посту.
Please open Telegram to view this post
VIEW IN TELEGRAM
Live stream started
Live stream finished (24 minutes)
Media is too big
VIEW IN TELEGRAM
Как диффузионные LLM повлияют на сферу AI? Об этом рассказал доктор технических наук Владимир Крылов в своей новой лекции.

В эфире рассмотрели:
🟠Как устроены LLM, опирающиеся не на алгоритмы последовательного предсказания следующего токена, а на алгоритмы диффузии, обычно применяемые для генерации изображений?
🟠Насколько быстрее dLLM Mercury Coder — Mini и Small — справляются с генерацией кода и текста?
🟠Как работает диффузионная текстовая модель LLaDA, сделанная командой GSAI-ML из Китайского народного университета?

Запись лекции доступна здесь и на других площадках:

➡️ YouTube
➡️ ВКонтакте
➡️ ЯндексМузыка
Please open Telegram to view this post
VIEW IN TELEGRAM
Сегодня Cursor стал, наверное, самым распространенным ИИ инструментом, применяемым программистами. И вот вдруг у многих он перестал работать. Пользователи Cursor только что уперлись в стену. Одна строка, зарытая в 485-строчном JSON-файле одного из расширений языковой службы Microsoft для VSCode, нарушила его совместимость с Cursor. Сообщество теперь вспоминает фразу из темной истории Microsoft: принять, расширить, погасить . Но так ли все плохо на самом деле? Прочитайте https://tomaszs2.medium.com/microsoft-quietly-blocked-cursor-from-using-its-vscode-extension-heres-the-line-of-code-that-8d664caf0de5 Вот эта строка : "license_terms": "The C/C++ extension may be used only with Microsoft Visual Studio, Visual Studio for Mac, Visual Studio Code, Azure DevOps, Team Foundation Server, and successor Microsoft products and services to develop and test your applications." в файле vscode-pptools/Extension /src /nativeStrings.json в файле на github. Выход из ситуации очевиден - магазин расширений Microsoft для VSCode — не единственное место, где их можно получить, и вы можете получить расширения откуда угодно, например, из Open VSX . Cursor будет работоспособным. Но нельзя быть на 100% уверенным в том, что нас ждет в будущем.
Зачем ML-системам распознавать салон вашего автомобиля?
Расскажет Виктор Кочеганов — кандидат физико-математических наук, руководитель ML-направления в ГК "Фрактал".

В эфире:
🟣Почему штрафы за скорость — это "прошлый век" и какие задачи компьютерного зрения решаются сегодня для повышения безопасности на дорогах?
🟣Какие ограничения накладывает real-time production на ML-алгоритмы?
🟣Действительно ли опасно разговаривать по телефону за рулем или не пристегиваться в автомобиле? Что говорит статистика?
🟣Какие этапы разработки проходит ML-алгоритм для фото- и видеофиксации нарушений ПДД?

Запускаем трансляцию 11 апреля в 14:00.

Подключайтесь и задавайте вопросы Виктору! Их можно оставить в чате на YouTube или в комментариях к этому посту.
Please open Telegram to view this post
VIEW IN TELEGRAM
Вышла Firebase Studio — новая IDE от Google
Но нас она не впечатлила, и вот почему:
1. Firebase — это не новинка. Раньше это был набор сервисов для мобильной разработки: база данных, авторизация, хостинг. Теперь к этому добавили облачную среду разработки с AI.

2. Внутри — форк VS Code с расширением Gemini. По промту генерируется шаблон проекта (React, Next и т.п.), создаётся пустое приложение, и уже на нем AI пытается реализовать ваш запрос. Визуальных билдеров компонентов нет — весь no-code сводится к генерации по описанию.

3. На практике всё пока довольно сыровато. Генерация кода ограничена и поверхностна — на глаз 250–500 строк. Только модели от Google, режим работы не “thinking”, как у Cursor с Claude или Gemini 2.5. Поддержки A2A пока нет, MCP тоже. Как IDE — пока уступает альтернативам.

Попробовать можно бесплатно, но на наш взгляд это не “Google Cursor на максималках”, а скорее Firebase с AI-пристройкой, которую еще рано рассматривать всерьёз
Live stream started
Live stream finished (1 hour)
Поскольку новостей по теме AI-программирования становится все больше, решили попробовать формат еженедельного дайджеста «Vibe Coding News». Сегодня собрали в него такие новости:

OpenCodeReasoning Dataset от Nvidia — в открытом доступе. Крупнейший на сегодняшний день (735К примеров на python охватывающие 28К задач) синтетический датасет, ориентированный на задачи, требующие рассуждений при программировании. Датасет предназначен для обучения моделей с учителем (supervised fine-tuning).

Codeium переименовались в Windsurf —т.к. Виндсерф теперь их главное направление деятельности, а их AI-агент теперь доступен в JetBrains IDE.

В Aider (агент-программист) в роли редактора используется DeepSeek R1 в паре с Gemini 2.5 Pro в роли архитектора, чтобы минимизировать проблемы с оркестрацией изменений в коде. Gemini 2.5 Pro — способна создавать рабочие фрагменты кода по сложным запросам и применяется в Aider для редактирования и генерации до 15 файлов в контексте 300K токенов. При этом в Aider выявлены проблемы с /architect-режимом: изменения прерываются при добавлении новых файлов. Пользователи отключают авто-коммиты, чтобы избежать коммита непроверенного кода.

Microsoft представила новый подход к синтезу кода, разбивая задачи “программирования по примеру” (programming by example - PBE) на подзадачи, чтобы устранить ошибки LLM. Статья: https://arxiv.org/pdf/2503.15540

Optimus Alpha — новая модель оптимизированная для программирования опубликована в OpenRouter. Что скрывается за этим именем пока не понятно, но несмотря на 1M токенов в контексте, пользователи жалуются на частые галлюцинации в коде.

Вышла Firebase Studio — об это писали сегодня выше.

DeepCoder 14B — новая модель кодирования от UC Berkeley, полностью открытая модель генерации кода на 14B параметров сопоставима с OpenAI o3-mini и o1, с открытым исходным кодом. Обучена с применением RL на Deepseek-R1-Distilled-Qwen-14B, используя 32 H100 в течение 2,5 недель. Стоимость обучения около $26,880. Доступны исходный код модели, датасет, тренировочный скрипт и подробный блог. MIT-лицензия, совместима с vLLM, TGI и Transformers. Обеспечивает 60.6% на LiveCodeBench и 1936 на CodeForces.
Нашли интересную ветку про вайбкодинг в канале @partially_unsupervised и собрали для вас все самое интересное из поста и комментариев, опыт после использования 100 млн токенов в Claude Code:

Вайбкодинг (генерация кода с помощью AI) — мощный инструмент для разработчиков, который ускоряет работу, но только если применять его правильно.

Где применять вайбкодинг:
• Задачи формата «сделай аналогично существующему коду».
• Простые задачи в незнакомых доменах (например, быстро набросать фронтенд).
• Типовой IO-layer, API-хендлеры, роутеры.
• Сценарии, где сложность заключается в знании большого количества команд и опций (например, AWS CLI).
• Быстрая визуализация с помощью библиотек (bokeh, plotly, seaborn и пр.).

Где лучше не применять:
• Сложный алгоритмический код (поломка в корнер-кейсе гарантирована).
• Метапрограммирование, проектирование фреймворков, дизайн API.
• Работа с новыми библиотеками (даже с документацией на выходе чаще всего плохо).
• Security-sensitive задачи.

🔄 Особенности процесса:
• Если после нескольких попыток диалог с моделью уходит не туда — лучше начать с нуля или переключить модель.
• Не забывайте регулярно останавливаться и рефакторить. Вайбкодинг ведёт к появлению лишних сущностей и неаккуратной структуре.
• Важна аккуратная статическая проверка и тщательное версионирование. Используйте mypy, линтеры и SonarQube.

⚙️ Для эффективной работы нужно дописывать правила в CLAUDE.md (.cursorrules и т.п.), подключать релевантные MCP и регулярно анализировать ошибки AI. Например, вот кусок моего глобал конфига:
Python style guide:
1) when catching exceptions, use logger.exception("message"), not logger.error(str(e)).
2) do not use mocks unless explicitly asked!
3) ensure types are correct, e.g. def hello(name: str = None) is WRONG, def hello(name: str | None = None) is correct.
4) use logger = logging.getLogger(__name__) when declaring a logger
5) prefer match + case over if + elif + else
6) using hasattr is typically a sign of bad design!



🤖 Главный бонус — активный агентский режим. Используйте AI не только для написания кода, но и для отладки, анализа логов и разбора ошибок в CI/CD.

🚨Предупреждение:
• Не доверяйте AI слепо. Сеньор должен понимать и нести ответственность за каждый коммит, даже если код был сгенерирован AI.

💡Дополнительные советы из практики:
• Для сложных запросов начинайте с описания и обсуждения задачи с AI, прежде чем просить генерировать код.
• Используйте разные AI-модели для разных задач и не бойтесь переключаться между ними.
• Прописывайте часто используемые решения и подходы в отдельный файл и загружайте его в контекст для ускорения типовых операций (например, SQL-запросы).
• Голосовой ввод (например, с помощью whisper или VoiceInk) значительно ускоряет постановку задач.
• Создание собственных CLI-инструментов для частых задач заметно экономит время и повышает удобство работы.

Звучит разумно? Делитесь своими светлыми идеями про вейп вайбкодинг в коментах. Ну, или темными!
Media is too big
VIEW IN TELEGRAM
Зачем ML-системам распознавать салон вашего автомобиля? Об этом рассказал Виктор Кочеганов — кандидат физико-математических наук и руководитель ML-направления в ГК "Фрактал".

В эфире рассмотрели:
🟣Почему штрафы за скорость — это "прошлый век" и какие задачи компьютерного зрения решаются сегодня для повышения безопасности на дорогах?
🟣Какие ограничения накладывает real-time production на ML-алгоритмы?
🟣Действительно ли опасно разговаривать по телефону за рулем или не пристегиваться в автомобиле? Что говорит статистика?
🟣Какие этапы разработки проходит ML-алгоритм для фото- и видеофиксации нарушений ПДД?

Запись лекции доступна здесь и на других площадках:

➡️ YouTube
➡️ ВКонтакте
➡️ ЯндексМузыка
Please open Telegram to view this post
VIEW IN TELEGRAM
Vibe Coding News за прошедшую неделю:

• В API доступна новая линейка моделей GPT-4.1: GPT-4.1, GPT-4.1 mini и GPT-4.1 nano. Улучшена генерация кода, следование инструкциям и увеличено контекстное окно до 1 миллиона токенов. GPT-4.1 показывает 54% на SWE-bench (версия без reasoning), это на 21% лучше 4o.

• OpenAI выпустила Codex CLI — open-source агент вызываемый из командной строки. «Читает, изменяет, запускает код прямо на вашей локальной машине, т.е. ваши исходники не покидают ваше окружение» - написано на сайте OpenAI, не понятно кого пытались обмануть, т.к. ниже честно признаются, что промт и контекст конечно отправляются удаленным моделям. Хорошая новость - агент мультимодальный, т.е. на вход принимается текст, скриншоты, диаграммы. По умолчанию работает с o4-mini, может и o3.

• Aider теперь поддерживает o3/o4-mini, Grok-3, Optimus и GPT-4.1. При этом у пользователей есть вопросы к частым перезапросам контекста при добавлении файлов.

Не забыли чего-нибудь важного?
Рекомендуем к прочтению: "Claude Code: лучшие практики программирования с агентами" — статья от 18 апреля на сайте Anthropic. Много любопытных советов — от настройки среды до запуска параллельных сессий. Некоторые из них кажутся универсальными и применимы и за пределами Claude Code.

Например, на этапе поиска решения полезно просить ИИ составить план, а в формулировке такого запроса использовать слово "think" - оно запускает расширенный режим рассуждений. При этом можно так же использовать варианты think -> think hard -> think harder -> ultrathink — они задают разный уровень «бюджета на размышления», влияя на глубину анализа.

Думаем, не перевести ли всю статью? Поставьте 🔥или напишите в комментариях, если интересно.

UPD
Уже есть на Хабре перевод:
https://habr.com/ru/articles/902422/
DEV Community опубликовало план как максимально использовать возможности ИИ агентов при разработке полномасштабных проектов и переносить vibe coding в текущие процессы. Рекомендую https://dev.to/wasp/a-structured-workflow-for-vibe-coding-full-stack-apps-352l
В эту пятницу, 25 апреля, в 12:00 Анна Авдюшина расскажет об архитектуре современных AI-агентов, использующих большие языковые модели. В основе — систематический обзор, в котором выделены 18 архитектурных паттернов для построения таких агентов.

Анна Авдюшина преподаёт на факультете «Программная инженерия и компьютерная техника» и работает инженером в центре «Сильный ИИ в промышленности» университета ИТМО.

Вместе разберём:
🔵как агенты интерпретируют расплывчатые цели пользователей и превращают их в планы действий;
🔵каким образом они могут рефлексировать, запрашивать помощь у других агентов или человека и принимать коллективные решения;
🔵какие подходы позволяют повысить надёжность, объяснимость и гибкость работы агентов.

Подключайтесь! Узнаете, как проектировать надёжных и объяснимых агентов на базе LLM.
Please open Telegram to view this post
VIEW IN TELEGRAM