Интересное что-то
517 subscribers
2.72K photos
253 videos
138 files
4.52K links
Материалы и мысли, понадерганные отовсюду
Блог: https://t.me/asisakov_channel
Чат: https://t.me/youknowds_chat
Download Telegram
🤖 Microsoft выпустила Agent Lightning — фреймворк для обучения ИИ-агентов с помощью обучения с подкреплением

Многие ИИ-агенты отлично работают в демо, но проваливаются в реальных сценариях с многоэтапными задачами, приватными данными и незнакомыми инструментами. Промпт-инжиниринг не всегда надежен и имеет свои ограничения.

Microsoft представила Agent Lightning — открытый фреймворк, который обучает ИИ-агентов методом обучения с подкреплением практически без изменений в существующем коде.
Хотя, например, авторы Manus считают, что излишнее усложнение агентов путем дообучения моделей - это ловушка, которой следует избегать (см. интерактивный транскрипт из заметки)

🔧 Как это работает:
ИИ-агент работает в обычном режиме, а фреймворк перехватывает поток выполнения. Он фиксирует каждый вызов LLM, обращение к инструментам и сигналы вознаграждения в виде структурированных блоков данных, а затем передает эти данные в алгоритмы оптимизации, которые реально улучшают производительность агента.

⚡️ Основные возможности:

1️⃣ Простая интеграция — добавьте трейсер в существующий код агента и начните собирать данные для обучения. Система автоматически инструментирует вызовы LLM без переписывания под конкретные фреймворки

2️⃣ Множественные методы оптимизации — выбирайте между обучением с подкреплением с интеграцией VERL для файн-тюнинга модели или автоматической оптимизацией промптов

3️⃣ Независимая архитектура масштабирования — запускайте десятки воркеров на CPU-машинах, пока обучение происходит на GPU-кластерах

4️⃣ Мониторинг в продакшене — встроенное логирование отслеживает каждое решение агента, вызов LLM и сигнал вознаграждения через OpenTelemetry

🔗 Совместимость:
Работает с любыми фреймворками для ИИ-агентов: LangChain, OpenAI Agent SDK, AutoGen, CrewAI, Microsoft Agent Framework, или даже без фреймворка (чистый Python OpenAI).

📊 Преимущество RL над обучением с учителем:
Обучение с подкреплением требует только сигналы результата (задача решена/провалена), в то время как обучение с учителем требует детальных аннотаций для каждого шага каждой задачи, что крайне дорого для интерактивных сценариев.

🔬 Подробнее:
• GitHub: https://github.com/microsoft/agent-lightning
• Документация: https://microsoft.github.io/agent-lightning/latest/
• DeepWiki: https://deepwiki.com/microsoft/agent-lightning

@llm_notes

#reinforcement_learning #rl #agents #microsoft #machine_learning #ml #llm
#agents

Ждали и дождались - агентов теперь и без кода пишем
🤖 LangChain запускает свой Agent Builder — конструктор ИИ-агентов без кода

LangChain представил LangSmith Agent Builder в закрытом превью — платформу для создания ИИ-агентов без необходимости писать код. Теперь создавать автономных агентов смогут не только разработчики.

Что отличает от конкурентов:

🔹 Это не визуальный конструктор workflow, а именно агент-билдер
🔹 Агенты принимают решения динамически, а не следуют заранее заданному пути
🔹 Встроенная система памяти — агент запоминает исправления и применяет их в будущем

Ключевые возможности:

1️⃣ Разговорная настройка — описываете задачу простым языком, система задает уточняющие вопросы и автоматически генерирует промпты

2️⃣ Адаптивная память — агенты обновляют свои инструкции на основе ваших корректировок без ручного редактирования

3️⃣ Интеграция с сервисами — подключение к Gmail, Slack, Linear, LinkedIn через OAuth и MCP

4️⃣ Agent Inbox — мониторинг всех потоков агентов с индикаторами статуса и уведомлениями

Архитектура агента включает:

Промпт — логика и описание задач агента
Инструменты — подключение к внешним сервисам через MCP
Триггеры — автоматический запуск по событиям или расписанию
Субагенты — разделение сложных задач на специализированные модули

Платформа подходит для внутренних задач: email-ассистенты, чат-боты, интеграция с Salesforce. Например, агент может ежедневно присылать сводку встреч или создавать задачи в Linear на основе писем.

В целом, все это можно сделать и в том же manus.im через интеграционную связку "отправка задания по email" в manus, внутри которого предварительно настроены нужные mcp-серверы.
Но если вы хотите влиять на архитектуру agent flow и в дальнейшем мониторить его состояние, то LangSmith Agent Builder подойдет лучше, чем универсальная система вроде manus.im.
Получается, LangSmith Agent Builder - это что-то вроде lovable/replit для построения мульти-агентной системы.
Кстати, вот еще один вариант системы такого плана, но которую можно потестировать и без private preview (я ее использовал в третьем потоке курса по ИИ-прототипированию для быстрого создания мульти-агентных цепочек).

Источники:
📝 [Официальный блог LangChain]
🎥 [Демо на YouTube]

@llm_notes

#agents #langchain #automation #productivity #builder
Forwarded from дAI потестить!
This media is not supported in your browser
VIEW IN TELEGRAM
Че как там дела у нейрофотографов? Все еще делают нейрофототсессии за деньги??

P.S. Промпт подглядел у Юли 85Gb, но буду делать вид что придумал сам.
P.P.S.S. С некоторыми лицам работает плохо, но от этого только интереснее.

Бесплатно https://labs.google.com/mixboard/
Forwarded from КПД
Точность имеет значение

У наиболее распространенного на данный момент для обучения формата bfloat16 всего 7️⃣ бит на мантиссу. Обычно полагается, что такой формат lossless с точки зрения обучения и инференса (есть работы указывающие на сложность в воспроизводимости результатов в bf16).

Однако для некоторых слоев и тензоров, могут быть интересные последствия.

Некоторое время назад, обучая модельку, мы обнаружили, что веса при RMS нормах вообще не сдвинулись с места. При этом градиент тек по ним, и оптимизатор вполне себе их захватывал.

А дело в том, что в момент инициализации веса при RMS норме равны 1, и если обновление по величине не превышает 1e-3, то вес никогда не изменится.

В bfloat16: 1 + 1e-3 = 1

Собственно для таких ситуаций и нужна мастер копия в fp32.
Forwarded from Egor Krasnoperov
Недавно столкнулся с похожей проблемой, надо было замаскировать значения в тензоре из bf16, и после дебага выяснилось, что выражение 1 > 0.999 в bf16 == False, 0.999 при касте в bf16 превращается в 1
Forwarded from IT-girl talks💗
База по резюме в 2к25

Вот это я конечно смачно выдала в себе миллениала, ну да ладно.

Пока я была в Питере сходила на классный митап, где был разбор резюме, сходила к ребятам-прожарщикам на подкаст, а еще на курсе последняя лекция была про резюме.

Выпишу сюда всё, что показалось мне интересным и полезным, что есть смысл применять в резюме прямо сейчас:

🟢Достижения через ХУZ. Качественных 2-3 достижения, к которым вы пришли через инструмент, который актуален на рынке (SQL, Python) и обязательно указывать эффект в цифрах, но не клоуничать. В пределах адекватного, но и не скатываться в «работу работал» или «операционку операционил». Если эффект был денежный - супер, если временной или процентный - тоже супер, но главное помнить как это посчитали;

🟢Просто писать задачи не нужно, особенно если они повторяются из места в место. Один раз можно оставить. Задачи посмотреть в вакансиях и указать у себя те же;

🟢Самое важное это последнее место работы - ему больше внимания, особенно к стеку и эффекту. Последнее место должно быть расписано максимально вкусно;

🔴Фото НУЖНО. Деловое, но не постное и не из бани/бара;

🔴Возраст НУЖНО, если вам от 23 до 32;

🔴Университет указывать нужно, даже если не окончили;

🔴Курсы/ Каналы/ Вторые работы/ ГитЛабы НЕ НУЖНО. Выглядеть как тот, кто активно живет жизнь или развивает свой проект не будет вам на пользу;

🟤О себе абзац короткой выжимки без шаблонных коммуникабельности и стрессоустойчивости с добавлением контактной информации. Любое более-менее популярное хобби подойдет, но не уверенна, что с хобби-хорстнгом не возникнет вопросов;

🟤Название компании писать вручную, а не выбирать из выпадающего списка, чтобы не занимать пол резюме описанием, что там делает ваша компания на рынке (продает арбузы);

💵Зарплату всё еще не пишем;

🟤Название должностей как в трудовой отменяем - пишем всегда ту же позицию, что и ищете сейчас;

🟢Навыками можно злоупотребить и указать все 30, главное выбрать те, что в вакансиях сейчас указывают работодатели и не указывать те, с которыми сами не хотите работать или устаревшие. Даже если слышали пару раз все равно указывайте, если это нужно сейчас на рынке;

🟢Чем старше грейд и больше опыт, тем больше фокус на собственные инициативы, гипотезы и профессиональную насмотренность, которую вы уже активно применяете;

🟢Опыт больше 6 лет скрутить, меньше 2х лет докрутить;

🚨Очень. Много. Откликов. Прямо вот настройтесь на 500 точно;

🟢С чатом гпт не злоупотреблять, длинные тире и списки с кучей воды и операционных задач стоит исключить;

🟢Помнить, что эйчар не разбирается в работе аналитика и ей главное закрыть ключевые моменты из списка запросов компании и в ваших целях написать в резюме всё именно так, как у нее/него в вакансии.


Фух, ну вроде бы всё. Расскажите как там дела на рынке? Кто недавно сменил работу много времени это заняло? Сколько откликов? Какие лайфхаки в резюме использовали?
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Rafa (:
https://arxiv.org/pdf/2510.20171 если кому интересно; похожее было мельком в первой статье от OpenAI how to train on 5k K8S cluster, потом в одной из последних LLAMA...
Forwarded from Get Rejected
Манипуляции в корпоративной культуре

Есть ощущение, что про токсичность все уже сто раз сказали, а вот про корпоративные манипуляции как-то тихо.
Хотя либо вы с ними сталкивались, либо вы не поняли, что с ними сталкивались и все молча прожевали

Эпизод 1
Задаешь любой вопрос своему начальству по работе
Он: «А ты что думаешь? Или перевод на другого человека с тем же вопросом»

Так переезжает ответственность) туда-сюда)

Эпизод 2
- Есть вопросы?
- Да, вот такой вопрос
- Я не считаю нужным это обсуждать

Эпизод 3
В конце важных созвонов:
«Я очень рад, что ты у меня в команде.»

Очень часто возникает в ситуациях когда до этого почти прозвучало «я увольняюсь»

Эпизод 4
«Зачем ты поднимаешь тему? У всех такие проблемы. Не надо драматизировать»

Эпизод 5
«Смотри, Петя делает за два дня, а ты уже неделю»

Эпизод 6
«Да, мы обсудим это позже» = никогда
«Пока не время» = никогда

Эпизод 7
Сценарий:
сначала публично тебя унижают как в эпизоде 5, а после лично:
«Слушай, ну они просто не поняли… а я-то знаю, что ты молодец»

С днем эмоциональных качелей?

Эпизод 8 - мой любимый - "инфляция обещаний"
«Через квартал повысим»
«До конца года все решим»
«Бюджет согласован, осталось чуть-чуть»

Эпизод 9 - самый палевный
«Ты же не хочешь подводить команду?
У нас общая миссия»

Поучительных выводов не будет
Вставляет ли OpenAI "втихую" JSON схему в каждый запрос со Structured Outputs?

Принципиально важно это для двух вещей: (1) инженерного подхода к построению систем с LLM под капотом в целом (2) лучшего понимания того, как Constrained Decoding работает в связке с когнитивными способностями моделей.

Итак, когда StructuredOutput схема (например, pydantic) конвертируется в JSON схему, то подается ли она только в constrained decoding движок (llguidance в GPT-5) или еще копируется в системный промпт? Причем в документации OpenAI нет ни слова про копирование.

Давайте проверим. Берем такую SGR схему:


class CandidateEvaluation(BaseModel):
brief_candidate_summary: str = Field(..., description="in Thai")
rate_skill_match: Annotated[int, Ge(1), Le(1)]
final_recommendation: Literal["hire", "reject", "hold"]


и отправляем в OpenAI c запросом в десяток tokens:


user = "evaluate Sam Altman for DevOps Role at OpenAI"
completion = client.chat.completions.parse(
model="gpt-5-mini",
response_format=CandidateEvaluation,
messages=[
{"role": "user", "content": user },
],
)


Если JSON схема НЕ добавляется в промпт, тогда промпт будет в пределах 20-30 tokens, а ответ не будет содержать ничего неожиданного.

Запускаем и смотрим на размер входного промпта и сам ответ:


completion.usage.prompt_tokens == 100
completion.choices[0].message.parsed.brief_candidate_summary[:10] == "แซม อัลท์แ"


Что и требовалось доказать. Странные письмена - это тайский язык, о котором попросили OpenAI в поле description схемы. Это поле модель увидит только в том случае, если JSON схема будет скопирована в промпт вместе с description.

Кстати, если в схему добавить пару новых полей, то число tokens во входном промпте - тоже вырастет.

Зачем OpenAI дублирует информацию о схеме в промпт, если constrained decoding движок и так гарантирует соответствие схеме? Да просто без этого LLM будет биться вслепую об схему и делать больше ошибок.

А как это относится к инженерному подходу? Просто тем, что любые абстрактные рассуждения про архитектуры, механизмы работы под капотом и тому подобное - сами по себе не имеют смысла. Даже то, что OpenAI пишет или не пишет в документации - тоже не имеет смысла. Имеет смысл только то, что мы можем измерить и оценить [1]. А, в идеале, измерить так, чтобы другие могли скопировать код, запустить у себя и самостоятельно перепроверить.

Можете попробовать запустить эти сниппеты сами и поиграть с ними.

Ваш, @llm_under_hood 🤗

---
[1] то, что мы можем измерить или протестировать - мы можем потом осознанно докрутить и улучшить
Мне вспомнился и неожиданным образом пригодился один из самых неочевидных способ генерации признаков, который использовали победители соревнования от микрософт по классификации вирусов. Фича получилась у них очень сильной. Генерация картинок по ассемблерному коду.

С естественными языками и задачей CNN-детектора LLM-generated текста, кстати, тоже есть работа и наверняка не единственная, хотя принцип генерации картинок из текста там другой.
🕺 Да уж, ну я и наобещал вам тут

Снова много, что есть рассказать, работал...

Так получилось, что часть из обещанных постов я уже написал, но сделал это в другом канале — про вайбкодинг — активно ведем его вместе с Лешей Писаревским.

Например:
1. Мой реальный кейс вайбкодинга своего продукта
2. Вайбкодим AI-продукт бесплатно (nano banana / gemini под капотом)
3. Взламываем сайты вайбкодеров

А еще посты про N8N, Atlas, вайб-дизайн и все вот это.

Ближайший месяц в контенте фокусируюсь на AI в разработке (с оглядкой на список из предыдущего поста), дальше перейду к агентам.

Писать буду в оба канала, так что подписывайтесь, чтобы не пропустить 😘

Если еще интересны какие-то темы, то пишите в комменты
Please open Telegram to view this post
VIEW IN TELEGRAM