Интересное что-то
517 subscribers
2.72K photos
253 videos
139 files
4.52K links
Материалы и мысли, понадерганные отовсюду
Блог: https://t.me/asisakov_channel
Чат: https://t.me/youknowds_chat
Download Telegram
Forwarded from Neural Info
Отличное (при этом достаточно короткое) видео про различные виды оптимизаций стандартного MHA (Multi-Head Attention). В видео рассказывается про MLA (Multi-Head Latent Attention), который был представлен в статье про DeepSeek-V3, помимо MLA кратко рассматриваются более ранние оптимизации механизма внимания: MQA (Multi-Query Attention), GQA (Grouped-Query Attention), а также KV-cache.
Forwarded from Лечим эйай
Как я читаю резюме
Пропал на месяц, прошу меня простить, буду стараться не повторять подобных ошибок. При этом вас становится с каждым днем все больше, а значит степень ответственности повышается.
Как вы могли заметить, я очень люблю тему найма, сегодняшний пост будет также посвящен этой теме.

За годы просмотра резюме я выработал определенные паттерны "скрининга", которые меня почти никогда не подводят.
Итак, как я ранжирую резюме с точки зрения нанимающего менеджера (точно у всех свои правила, рассказываю о себе). Предполагаю, что вы можете быть где-то со мной не согласны - приглашаю в комментарии. И давайте обусловимся, что речь именно про найм ML специалистов.

Город проживания
Начинаю я с места проживания, какой бы современный мир ни был толерантный к удаленке - я в приоритет ставлю людей, с которыми я могу видеться в офисе.

Образование
Да, для меня образование важно. Простите меня, но людей без высшего образования я сразу закрываю. При этом да, люди из топовых вузов часто выделяются на собеседовании, корреляция эмпирически подтверждена, приоритет у таких людей выше. Безусловно, сильный плюс - наличие оконченной аспирантуры.

Компании
Обращаю внимание на опыт работы в BigTech, тут "работа на зачетку" в моем случае работает. Также смотрю на опыт в MedTech компаниях, в нашей области наличие такого опыта всегда дает очень большой задел на старте.

Опыт
1. Сформированный паттерн поведения в переходах всегда настораживает. Если человек меняет компании раз в полгода - это сильно смущает, но даже если человек сменил 4 компании, и в каждой работал ровно по два года, это тоже для меня не хороший знак. 1-2 коротких перехода при этом не проблема, все бывает в жизни.
2. Сильно напрягает, когда в резюме пишут конкретные архитектуры моделей, вместо решаемых задач. Написать Resnet, вместо классификации, или YOLO, вместо детекции - явный признак начинающего.
3. ML метрики в резюме - тоже признак джуна. Замер качества - это таинство, которое невозможно считать при знакомстве с резюме, поэтому это выносить не имеет смысла. Опять же это мой личный опыт, но работает 9 из 10 раз. При этом отметить влияние на бизнес метрики - определенно плюс.
4. Мало информации. Резюме должно завлекать, и существует множество методологий, как это делать. В свое время мне рассказали о методологии STAR, так что все уже за нас придумали умные мира сего. Это сложный навык, но хорошо описанный опыт - основа для приглашения на собеседование.
5. Занесение задач с курсов в качестве релевантного опыта. Курсы - это супер, я положительно отношусь к желанию повышать свою квалификацию, но для этого есть отдельный раздел резюме. Года три назад в каждом втором резюме мне попадалась "классификация Симпсонов", осталось для меня именем нарицательным для описания "плохого резюме".
6. GAN в резюме к беде. Не спрашивайте...
7. Очень приветствую наличие статей.

О себе
Этот блок я пробегаюсь наискосок. В нем я не ищу тот факт, что вы умеете "работать в команде" и "коммуникабельный". Ищу особые навыки. C1 в японском, организатор больших мероприятий, кмс по горным лыжам. Если человек достиг в чем-то высокого результата - он способен достигать его многократно и в других сферах.

Безусловно, во всех таких правилах есть исключения, но мне показалось ценным поделиться этим с вами.
Кстати о птичках. Сейчас у нас идет найм CV и NLP специалистов, а также Data Analyst, пишите мне в личку, если хотите узнать детали и присоединиться к классной MedTech компании.

@lechim_ai
Forwarded from Yandex for Developers
📎 Как ИБ-инженеру прокачать свою карьеру

Мы спросили об этом у Данилы Урванцева, инженера по информационной безопасности в Городских сервисах Яндекса. В карточках собрали его мысли про точки входа в сообщество, интересные задачи, OSCP и профессиональный рост.

Ссылки, упомянутые в карточках:

📌 Таблица с задачками, которые стоит порешать перед OSCP

🔍 Материалы для подготовки к собеседованиям для специалистов по ИБ

🔥 Week Offer Security для специалистов-безопасников с опытом от 2 лет. Ивент пройдёт 11–17 октября:

🔴 До 8 октября зарегистрируйтесь и отправьте заявку
🔴 11–12 октября пройдите две технические секции
🔴 13–17 октября познакомьтесь с командами и получите офер

Подписывайтесь:
💬 @Yandex4Developers
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
🧠 Контекст-инжиниринг для AI-агентов: 5 ключевых принципов

На выходных посмотрел очень интересный видео-подкаст с участием Лэнса Мартина из LangChain (автора самой популярной открытой версии Deep Research), в котором обсуждались вопросы управления контекстом в агентах - искусство давать LLM ровно тот контекст, который нужен для следующего агентного шага 🎯 Не обошлось и без сравнения моно- и мульти-агентных подходов (см. заметку)

Ниже привожу краткие тезисы, а на скрепке подготовил видео-нарезку основных тезисов с субтитрами на русском языке (8 минут).
Более полная интерактивная версия конспекта доступна по ссылке (а классический вариант конспекта здесь)

🔧 Пять столпов контекст-инжиниринга:

1️⃣ Offloading (Выгрузка)
• Не тащить всё в контекст — сохранять данные отдельно
• В историю записывать краткие сводки с возможностью подгрузки
• Экономия токенов и денег 💰

2️⃣ Context Isolation (Изоляция)
• Мультиагенты хороши для "чтения", один агент — для "письма"
• Параллельные задачи изолировать, связанные — объединять

3️⃣ Retrieval (Извлечение)
• llm.txt с качественными описаниями часто лучше сложного RAG
• Агентный поиск без индексации может превосходить векторный поиск
• Ключ успеха — хорошие описания файлов 📝

4️⃣ Reducing Context (Сжатие)
• Суммаризация на границах инструментов
• Баланс между экономией токенов и потерей информации
• Сохранять возможность восстановить исходник

5️⃣ Caching (Кеширование)
• Снижает стоимость и задержки
• Не решает проблему "context rot" от длинного контекста ⚠️

🔍 Context rot — деградация качества ответов LLM при слишком длинном контексте. Модель "теряется" в большом объёме информации и хуже понимает, что важно для текущей задачи 📉

💡 Практические инсайты:

Работа с памятью через человека — пользователь явно сохраняет важное, система учится предпочтениям
Горький урок AI — используй структурный подход сегодня, но будь готов отказаться от него завтра
MCP-стандарты снижают когнитивную нагрузку

⚡️ Золотые правила:
• Избегай наивного накопления всего контекста
• Качественная суммаризация лучше агрессивного сжатия
• Простые решения часто превосходят сложные
• Фреймворки должны легко "разбираться"

Философия: "Добавляй структуру, чтобы работало сегодня, и будь готов отказаться от нее завтра" 🚀

P.S. мне также очень понравились ссылки на дополнительные материалы в описании к ролику, некоторы из них я включил в эту заметку

@llm_notes

#context_engineering #agents #langchain #langgraph #llm_optimization
Forwarded from ML Baldini • Nikita Boyandin (Nikita Boyandin)
Пособесимся?)🥵

Пока ваш любимый матрос галер пытается понять как из 24 часов сделать 40, чтобы успеть все сделать, ему предложили пособесится в AI стартап эксортницей в Дубайск part-time. На самом деле, middle ml разраб позиция с 2 годами опыта.

Условия 🍟
Полный remote в Дубай или Грузию, команда из 40 человек, делают что-то по безопасности с помощью ИИ. По зп-5к вечно зеленых, ну и какие то опционы при очень хорошей работе(блиииииин, без печенек в офисе).

Задачи на собесе🪥
Поскольку интервью было вводное, ни кодинга, ни MLSD, не было. Первый вопрос был классическим: Чем LSTM отличается от трансформера? Я ответил просто - механизмом внимания и немного добавил архитектуры. В фото более полноценный ответ.

А вот вторая задача оказалась нетривиальной: требовалось классифицировать тип приложения по зашифрованному трафику, проходящему через VPN. Сначала я рассматривал два подхода — либо извлекать признаки и обучать классические модели машинного обучения, либо пытаться решать задачу end-to-end с помощью трансформеров. На практике оказалось, что решение проще: достаточно было применить нейронную сеть и позволить ей автоматически выявлять зависимости в представлении трафика — в результате модель на сыром или слегка предобработанном представлении трафика успешно выделяла информативные паттерны для классификации.

Что думаю?🤨
Очень интересно понимать свою вилку в стартапах и что я могу получить в валюте, так что если вам зайдет такой формат и будет много реакций и комментов, то я расчехлю свой OPEN_TO_WORK, а пока буду оптимизировать лишний час между работой, учебой и туалетом💗
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from ML Baldini • Nikita Boyandin (Nikita Boyandin)
Материалы к стажкам по машинному обучению😀

В этом посте я попытался собрать все учебные материалы, по которым я когда либо учился и которые как-то мне помогли в получении работы и опыта.💪

Статистика
Курсы Карпова на stepik
Часть1, Часть2
Книжка "Статистика и котики"

Основы Python
"Поколение Python": курс для начинающих
Хендбук по Python от Яндекса
"Поколение Python": курс для продвинутых
"Поколение Python": ООП (нужен далее для глубокого обучения)

Библиотеки по Python
Курс kaggle по Pandas
Курс по matplotlib и seaborn

Основные алгоритмы по машинному обучению
Учебник по машинному обучению
Intro to Machine Learning
Intermediate Machine Learning

Машинное обучение(полноценные курсы)
Deep Learning School
Введение в соревновательный Data Science
Курс вышки по мл

SQL
SQLbolt
Курс sql на степик
Sql academy
Курс Карпова по sql

Алгоритмы
Основы алгоритмов
Курс ИТМО по алгоритмам на codeforces
Алгоритмы и структуры данных от ИТМО

A/B и uplift тестирование
Курс по a/b тестированию от вышки
Курс по uplift-моделированию

MLOps (для стажки на ml-engineer могут спросить)

Окончательная подготовка перед собеседованием
Конспекты по каждому модулю от karpov.courses

Надеюсь на вашу поддержку и очень верю, что этот пост для вас будет очень полезен💗
Please open Telegram to view this post
VIEW IN TELEGRAM
ByteRover 2.0: Git для памяти ИИ-агентов и 15 новых MCP-инструментов 🚀

Команда ByteRover выпустила обновление версии 2.0 своего решения для управления памятью ИИ-агентов по разработке. Систему можно использовать со всеми популярными coding-агентами: Claude Code, Cursor, Codex, GitHub Copilot и т.д. (см. скрин)

Сейчас, например, очень популярна комбинация Codex (планирование и основной кодинг с GPT-5 Codex в режиме High-Reasoning) + Claude Code (Sonnet 4.0 или Opus 4.1 для devops и mcp части кодинга) и данный инструмент позволяет "шарить" контекст между Codex и Claude Code, что очень удобно.

Ключевые нововведения:

🔄 Git для памяти ИИ
• Версионный контроль для памяти агентов
• Полная история изменений с временными метками
• Возможность отката к предыдущим версиям
• Функция форкинга баз памяти для экспериментов
• Детекция конфликтов в памяти при дублировании
• Совместная работа команды с отслеживанием авторства изменений

📝 Context Composer
Новый инструмент для создания контекста агентов:
• Загрузка документов, PDF, изображений
• Чат-интерфейс для взаимодействия с агентом
• Парсинг файлов в переиспользуемые воспоминания
• Интеграция со Slack, Jira, Figma, Google Drive

🛠 15 специализированных MCP-инструментов:

1️⃣ Knowledge Management - хранение паттернов кода и знаний с релевантным скорингом
2️⃣ Onboarding Tools - генерация и обновление справочников проектов
3️⃣ Plan Management - структурированные планы реализации с отслеживанием задач
4️⃣ Module Management - документирование модулей кодовой базы с техническими деталями
5️⃣ Reflection Tools - самооценка качества контекста агентом

Простая настройка ⚙️
• Создание workspace памяти
• Установка расширения в Cursor, Windsurf или другие AI IDE
• Добавление ключа workspace и email
• Автоматическое сохранение и восстановление памяти между сессиями

Альтернатива: Cipher 🔓
Для тех, кто предпочитает open-source решения, доступен Cipher - открытый слой памяти для coding-агентов (про другой oss вариант на базе OpenMemory MCP писал в заметке)

Возможности Cipher:
• Единый слой памяти для всех coding-агентов
• Интеграция через MCP сервер
• Поддержка OpenAI, Anthropic, OpenRouter
• Векторные базы: Milvus, Quadrant
• Ручное создание детализированных воспоминаний для проектов
• Автоматическое извлечение спецификаций и правил проекта

Настройка Cipher:
• Клонирование репозитория с GitHub
• Конфигурация в cipher.yml (MCP серверы, LLM провайдер, API ключи)
• Запуск в MCP режиме (default или aggregator)
• Интеграция с Cursor, Claude Code и другими IDE

Cipher решает ту же проблему потери контекста, но предоставляет полный контроль над данными и возможность кастомизации под специфические нужды команды.

🔗 ByteRover: https://www.byterover.dev/
🔗 Cipher GitHub: https://github.com/cipherdevs/cipher

@llm_notes

#byterover #cipher #memory #agents #mcp