Forwarded from max.sh
Новый курс по Agentic AI
Сегодня UC Berkeley стартует бесплатный MOOC курс по агентам.
Страница курса https://agenticai-learning.org/f25 с расписанием.
Каждую неделю новая лекция, квиз на усвоение материала. Вроде бы, даже какие-то домашки, но это не точно.
Ведут лекции рисерчеры из разных топовых лаб. Название первых блоков очень базовое (LLM Agents Overview, LLM with Tool Use, Agent Stack & Infrastructure) и ни о чем не говорит. Посмотрим, какое будет содержание.
Я смотрел несколько лекций предыдущей итерации, писал тут, общий фокус был на reasoning моделях и кодогенерации. Мне понравилось. Планирую активнее смотреть в этот раз и мб выкроить время поучаствовать в хакатоне.
#образование
Сегодня UC Berkeley стартует бесплатный MOOC курс по агентам.
Страница курса https://agenticai-learning.org/f25 с расписанием.
Каждую неделю новая лекция, квиз на усвоение материала. Вроде бы, даже какие-то домашки, но это не точно.
Ведут лекции рисерчеры из разных топовых лаб. Название первых блоков очень базовое (LLM Agents Overview, LLM with Tool Use, Agent Stack & Infrastructure) и ни о чем не говорит. Посмотрим, какое будет содержание.
Я смотрел несколько лекций предыдущей итерации, писал тут, общий фокус был на reasoning моделях и кодогенерации. Мне понравилось. Планирую активнее смотреть в этот раз и мб выкроить время поучаствовать в хакатоне.
#образование
agenticai-learning.org
Agentic AI MOOC
MOOC, Fall 2025
Forwarded from adapt compete evolve or die
Все больше меня захватывает ai-хайп, показали мне (спасибо!) книжку с разными рецептами про агентов Выглядит неплохо, есть MCP, A2A, HIDL, мультиагентность и прочее модное. Воды много, но готовые интересные рецепты есть.
Тизерная задача в Alfa CTF по сути состоит в том, что надо уговорить ai-агента ChatGPT-5-nano совершить деструктивные команды (дать тебе рута, реверс шелл, rm -rf /). Я впечатлился тому насколько он хорошо защищен. Типа, скрываешь команду через base64, он ее расшифровывает, аккуратно выполняет все echo, так что в echo не спрятать абьюз. И это при том, что его запромптили выполнять все твои команды. Реверс шелл я таки получил, даже не понял почему сработало, но рута не смог.
Тизерная задача в Alfa CTF по сути состоит в том, что надо уговорить ai-агента ChatGPT-5-nano совершить деструктивные команды (дать тебе рута, реверс шелл, rm -rf /). Я впечатлился тому насколько он хорошо защищен. Типа, скрываешь команду через base64, он ее расшифровывает, аккуратно выполняет все echo, так что в echo не спрятать абьюз. И это при том, что его запромптили выполнять все твои команды. Реверс шелл я таки получил, даже не понял почему сработало, но рута не смог.
Google Docs
Agentic Design Patterns
Agentic Design Patterns 👉 🧠 ✅ I’m excited to share that my new book, "Agentic Design Patterns: A Hands-On Guide to Intelligent AI Agents," is officially out! 👉 🧠 ✅ In a field moving at lightning speed, this book focuses on the durable, fundamental patterns…
Forwarded from .ml
Многие, кто обучал большие модели искусственного интеллекта, сталкивались с ситуацией, когда необходимы данные из множества источников. Но если источники совсем не из одной корпорации, то из-за GDPR или законах о защите персональных данных нет возможности обмениваться данными напрямую.
Как быть, если нужно обучать большие модели, но нельзя собирать всю информацию в одном месте?
Решение —федеративное обучение . Это система, в которой центральное устройство (сервер) объединяет усилия множества участников (устройства): каждый совершает операции на своих данных, а сервер собирает только результаты, не забирая саму информацию.
В зависимости от специфики задачи, данные на устройствах могут храниться по-разному. На основе того, как делится матрица признаков между участниками, можно выделить два подвида федеративного обучения:
📌 Горизонтальное федеративное обучение (HFL)
Суть: у разных участников данные имеют одинаковые фичи (одинаковые столбцы), но разные строки (разные пользователи/наблюдения).
📌 Вертикальное федеративное обучение (VFL)
Суть: у разных участников есть одни и те же сэмплы (одни и те же строки), но разные признаки (разные столбцы).
При этом нельзя сказать, что примеры выше оторваны от реальности. Например, Google применяет федеративное обучение для улучшения работы клавиатуры Gboard. Вместо сбора всех данных о нажатиях на своих серверах, центральное устройство получает только агрегированные обновления модели. То есть, обучение происходит прямо на устройствах пользователей, но без нарушения приватности.
💜 Этот пост написал Сергей Станко, ML-инженер в Точка Банк.
Как быть, если нужно обучать большие модели, но нельзя собирать всю информацию в одном месте?
Решение —
В зависимости от специфики задачи, данные на устройствах могут храниться по-разному. На основе того, как делится матрица признаков между участниками, можно выделить два подвида федеративного обучения:
📌 Горизонтальное федеративное обучение (HFL)
Суть: у разных участников данные имеют одинаковые фичи (одинаковые столбцы), но разные строки (разные пользователи/наблюдения).
Пример: несколько банков обучают модель для предсказания мошеннических транзакций. У всех есть одинаковые признаки по транзакциям (сумма, время, место, категория операции и т.п.), но набор клиентов у каждого банка свой. Объединяя данные через HFL, они получают более устойчивую модель, не раскрывая данные клиентов напрямую.
📌 Вертикальное федеративное обучение (VFL)
Суть: у разных участников есть одни и те же сэмплы (одни и те же строки), но разные признаки (разные столбцы).
Пример: банк и страховая компания имеют одних и тех же клиентов. У банка есть финансовые характеристики (история транзакций, кредитный рейтинг), у страховой — медицинская история и страховые выплаты. Объединив признаки в VFL, они могут построить более точную модель для оценки рисков по клиенту.
При этом нельзя сказать, что примеры выше оторваны от реальности. Например, Google применяет федеративное обучение для улучшения работы клавиатуры Gboard. Вместо сбора всех данных о нажатиях на своих серверах, центральное устройство получает только агрегированные обновления модели. То есть, обучение происходит прямо на устройствах пользователей, но без нарушения приватности.
💜 Этот пост написал Сергей Станко, ML-инженер в Точка Банк.
Forwarded from Neural Info
Отличное (при этом достаточно короткое) видео про различные виды оптимизаций стандартного MHA (Multi-Head Attention). В видео рассказывается про MLA (Multi-Head Latent Attention), который был представлен в статье про DeepSeek-V3, помимо MLA кратко рассматриваются более ранние оптимизации механизма внимания: MQA (Multi-Query Attention), GQA (Grouped-Query Attention), а также KV-cache.
YouTube
How DeepSeek Rewrote the Transformer [MLA]
Thanks to KiwiCo for sponsoring today’s video! Go to https://www.kiwico.com/welchlabs and use code WELCHLABS for 50% off your first monthly club crate or for 20% off your first Panda Crate!
MLA/DeepSeek Poster at 17:12 (Free shipping for a limited time…
MLA/DeepSeek Poster at 17:12 (Free shipping for a limited time…
Forwarded from Лечим эйай
Как я читаю резюме
Пропал на месяц, прошу меня простить, буду стараться не повторять подобных ошибок. При этом вас становится с каждым днем все больше, а значит степень ответственности повышается.
Как вы могли заметить, я очень люблю тему найма, сегодняшний пост будет также посвящен этой теме.
За годы просмотра резюме я выработал определенные паттерны "скрининга", которые меня почти никогда не подводят.
Итак, как я ранжирую резюме с точки зрения нанимающего менеджера (точно у всех свои правила, рассказываю о себе). Предполагаю, что вы можете быть где-то со мной не согласны - приглашаю в комментарии. И давайте обусловимся, что речь именно про найм ML специалистов.
Город проживания
Начинаю я с места проживания, какой бы современный мир ни был толерантный к удаленке - я в приоритет ставлю людей, с которыми я могу видеться в офисе.
Образование
Да, для меня образование важно. Простите меня, но людей без высшего образования я сразу закрываю. При этом да, люди из топовых вузов часто выделяются на собеседовании, корреляция эмпирически подтверждена, приоритет у таких людей выше. Безусловно, сильный плюс - наличие оконченной аспирантуры.
Компании
Обращаю внимание на опыт работы в BigTech, тут "работа на зачетку" в моем случае работает. Также смотрю на опыт в MedTech компаниях, в нашей области наличие такого опыта всегда дает очень большой задел на старте.
Опыт
1. Сформированный паттерн поведения в переходах всегда настораживает. Если человек меняет компании раз в полгода - это сильно смущает, но даже если человек сменил 4 компании, и в каждой работал ровно по два года, это тоже для меня не хороший знак. 1-2 коротких перехода при этом не проблема, все бывает в жизни.
2. Сильно напрягает, когда в резюме пишут конкретные архитектуры моделей, вместо решаемых задач. Написать Resnet, вместо классификации, или YOLO, вместо детекции - явный признак начинающего.
3. ML метрики в резюме - тоже признак джуна. Замер качества - это таинство, которое невозможно считать при знакомстве с резюме, поэтому это выносить не имеет смысла. Опять же это мой личный опыт, но работает 9 из 10 раз. При этом отметить влияние на бизнес метрики - определенно плюс.
4. Мало информации. Резюме должно завлекать, и существует множество методологий, как это делать. В свое время мне рассказали о методологии STAR, так что все уже за нас придумали умные мира сего. Это сложный навык, но хорошо описанный опыт - основа для приглашения на собеседование.
5. Занесение задач с курсов в качестве релевантного опыта. Курсы - это супер, я положительно отношусь к желанию повышать свою квалификацию, но для этого есть отдельный раздел резюме. Года три назад в каждом втором резюме мне попадалась "классификация Симпсонов", осталось для меня именем нарицательным для описания "плохого резюме".
6. GAN в резюме к беде. Не спрашивайте...
7. Очень приветствую наличие статей.
О себе
Этот блок я пробегаюсь наискосок. В нем я не ищу тот факт, что вы умеете "работать в команде" и "коммуникабельный". Ищу особые навыки. C1 в японском, организатор больших мероприятий, кмс по горным лыжам. Если человек достиг в чем-то высокого результата - он способен достигать его многократно и в других сферах.
Безусловно, во всех таких правилах есть исключения, но мне показалось ценным поделиться этим с вами.
Кстати о птичках. Сейчас у нас идет найм CV и NLP специалистов, а также Data Analyst, пишите мне в личку, если хотите узнать детали и присоединиться к классной MedTech компании.
@lechim_ai
Пропал на месяц, прошу меня простить, буду стараться не повторять подобных ошибок. При этом вас становится с каждым днем все больше, а значит степень ответственности повышается.
Как вы могли заметить, я очень люблю тему найма, сегодняшний пост будет также посвящен этой теме.
За годы просмотра резюме я выработал определенные паттерны "скрининга", которые меня почти никогда не подводят.
Итак, как я ранжирую резюме с точки зрения нанимающего менеджера (точно у всех свои правила, рассказываю о себе). Предполагаю, что вы можете быть где-то со мной не согласны - приглашаю в комментарии. И давайте обусловимся, что речь именно про найм ML специалистов.
Город проживания
Начинаю я с места проживания, какой бы современный мир ни был толерантный к удаленке - я в приоритет ставлю людей, с которыми я могу видеться в офисе.
Образование
Да, для меня образование важно. Простите меня, но людей без высшего образования я сразу закрываю. При этом да, люди из топовых вузов часто выделяются на собеседовании, корреляция эмпирически подтверждена, приоритет у таких людей выше. Безусловно, сильный плюс - наличие оконченной аспирантуры.
Компании
Обращаю внимание на опыт работы в BigTech, тут "работа на зачетку" в моем случае работает. Также смотрю на опыт в MedTech компаниях, в нашей области наличие такого опыта всегда дает очень большой задел на старте.
Опыт
1. Сформированный паттерн поведения в переходах всегда настораживает. Если человек меняет компании раз в полгода - это сильно смущает, но даже если человек сменил 4 компании, и в каждой работал ровно по два года, это тоже для меня не хороший знак. 1-2 коротких перехода при этом не проблема, все бывает в жизни.
2. Сильно напрягает, когда в резюме пишут конкретные архитектуры моделей, вместо решаемых задач. Написать Resnet, вместо классификации, или YOLO, вместо детекции - явный признак начинающего.
3. ML метрики в резюме - тоже признак джуна. Замер качества - это таинство, которое невозможно считать при знакомстве с резюме, поэтому это выносить не имеет смысла. Опять же это мой личный опыт, но работает 9 из 10 раз. При этом отметить влияние на бизнес метрики - определенно плюс.
4. Мало информации. Резюме должно завлекать, и существует множество методологий, как это делать. В свое время мне рассказали о методологии STAR, так что все уже за нас придумали умные мира сего. Это сложный навык, но хорошо описанный опыт - основа для приглашения на собеседование.
5. Занесение задач с курсов в качестве релевантного опыта. Курсы - это супер, я положительно отношусь к желанию повышать свою квалификацию, но для этого есть отдельный раздел резюме. Года три назад в каждом втором резюме мне попадалась "классификация Симпсонов", осталось для меня именем нарицательным для описания "плохого резюме".
6. GAN в резюме к беде. Не спрашивайте...
7. Очень приветствую наличие статей.
О себе
Этот блок я пробегаюсь наискосок. В нем я не ищу тот факт, что вы умеете "работать в команде" и "коммуникабельный". Ищу особые навыки. C1 в японском, организатор больших мероприятий, кмс по горным лыжам. Если человек достиг в чем-то высокого результата - он способен достигать его многократно и в других сферах.
Безусловно, во всех таких правилах есть исключения, но мне показалось ценным поделиться этим с вами.
Кстати о птичках. Сейчас у нас идет найм CV и NLP специалистов, а также Data Analyst, пишите мне в личку, если хотите узнать детали и присоединиться к классной MedTech компании.
@lechim_ai
Forwarded from Yandex for Developers
Мы спросили об этом у Данилы Урванцева, инженера по информационной безопасности в Городских сервисах Яндекса. В карточках собрали его мысли про точки входа в сообщество, интересные задачи, OSCP и профессиональный рост.
Ссылки, упомянутые в карточках:
Подписывайтесь:
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Заметки LLM-энтузиаста
Media is too big
VIEW IN TELEGRAM
🧠 Контекст-инжиниринг для AI-агентов: 5 ключевых принципов
На выходных посмотрел очень интересный видео-подкаст с участием Лэнса Мартина из LangChain (автора самой популярной открытой версии Deep Research), в котором обсуждались вопросы управления контекстом в агентах - искусство давать LLM ровно тот контекст, который нужен для следующего агентного шага 🎯 Не обошлось и без сравнения моно- и мульти-агентных подходов (см. заметку)
Ниже привожу краткие тезисы, а на скрепке подготовил видео-нарезку основных тезисов с субтитрами на русском языке (8 минут).
Более полная интерактивная версия конспекта доступна по ссылке (а классический вариант конспекта здесь)
🔧 Пять столпов контекст-инжиниринга:
1️⃣ Offloading (Выгрузка)
• Не тащить всё в контекст — сохранять данные отдельно
• В историю записывать краткие сводки с возможностью подгрузки
• Экономия токенов и денег 💰
2️⃣ Context Isolation (Изоляция)
• Мультиагенты хороши для "чтения", один агент — для "письма"
• Параллельные задачи изолировать, связанные — объединять
3️⃣ Retrieval (Извлечение)
• llm.txt с качественными описаниями часто лучше сложного RAG
• Агентный поиск без индексации может превосходить векторный поиск
• Ключ успеха — хорошие описания файлов 📝
4️⃣ Reducing Context (Сжатие)
• Суммаризация на границах инструментов
• Баланс между экономией токенов и потерей информации
• Сохранять возможность восстановить исходник
5️⃣ Caching (Кеширование)
• Снижает стоимость и задержки
• Не решает проблему "context rot" от длинного контекста ⚠️
🔍 Context rot — деградация качества ответов LLM при слишком длинном контексте. Модель "теряется" в большом объёме информации и хуже понимает, что важно для текущей задачи 📉
💡 Практические инсайты:
• Работа с памятью через человека — пользователь явно сохраняет важное, система учится предпочтениям
• Горький урок AI — используй структурный подход сегодня, но будь готов отказаться от него завтра
• MCP-стандарты снижают когнитивную нагрузку
⚡️ Золотые правила:
• Избегай наивного накопления всего контекста
• Качественная суммаризация лучше агрессивного сжатия
• Простые решения часто превосходят сложные
• Фреймворки должны легко "разбираться"
Философия: "Добавляй структуру, чтобы работало сегодня, и будь готов отказаться от нее завтра" 🚀
P.S. мне также очень понравились ссылки на дополнительные материалы в описании к ролику, некоторы из них я включил в эту заметку
@llm_notes
#context_engineering #agents #langchain #langgraph #llm_optimization
На выходных посмотрел очень интересный видео-подкаст с участием Лэнса Мартина из LangChain (автора самой популярной открытой версии Deep Research), в котором обсуждались вопросы управления контекстом в агентах - искусство давать LLM ровно тот контекст, который нужен для следующего агентного шага 🎯 Не обошлось и без сравнения моно- и мульти-агентных подходов (см. заметку)
Ниже привожу краткие тезисы, а на скрепке подготовил видео-нарезку основных тезисов с субтитрами на русском языке (8 минут).
Более полная интерактивная версия конспекта доступна по ссылке (а классический вариант конспекта здесь)
🔧 Пять столпов контекст-инжиниринга:
1️⃣ Offloading (Выгрузка)
• Не тащить всё в контекст — сохранять данные отдельно
• В историю записывать краткие сводки с возможностью подгрузки
• Экономия токенов и денег 💰
2️⃣ Context Isolation (Изоляция)
• Мультиагенты хороши для "чтения", один агент — для "письма"
• Параллельные задачи изолировать, связанные — объединять
3️⃣ Retrieval (Извлечение)
• llm.txt с качественными описаниями часто лучше сложного RAG
• Агентный поиск без индексации может превосходить векторный поиск
• Ключ успеха — хорошие описания файлов 📝
4️⃣ Reducing Context (Сжатие)
• Суммаризация на границах инструментов
• Баланс между экономией токенов и потерей информации
• Сохранять возможность восстановить исходник
5️⃣ Caching (Кеширование)
• Снижает стоимость и задержки
• Не решает проблему "context rot" от длинного контекста ⚠️
🔍 Context rot — деградация качества ответов LLM при слишком длинном контексте. Модель "теряется" в большом объёме информации и хуже понимает, что важно для текущей задачи 📉
💡 Практические инсайты:
• Работа с памятью через человека — пользователь явно сохраняет важное, система учится предпочтениям
• Горький урок AI — используй структурный подход сегодня, но будь готов отказаться от него завтра
• MCP-стандарты снижают когнитивную нагрузку
⚡️ Золотые правила:
• Избегай наивного накопления всего контекста
• Качественная суммаризация лучше агрессивного сжатия
• Простые решения часто превосходят сложные
• Фреймворки должны легко "разбираться"
Философия: "Добавляй структуру, чтобы работало сегодня, и будь готов отказаться от нее завтра" 🚀
P.S. мне также очень понравились ссылки на дополнительные материалы в описании к ролику, некоторы из них я включил в эту заметку
@llm_notes
#context_engineering #agents #langchain #langgraph #llm_optimization