Интересное что-то
517 subscribers
2.72K photos
253 videos
139 files
4.52K links
Материалы и мысли, понадерганные отовсюду
Блог: https://t.me/asisakov_channel
Чат: https://t.me/youknowds_chat
Download Telegram
Forwarded from max.sh
Новый курс по Agentic AI

Сегодня UC Berkeley стартует бесплатный MOOC курс по агентам.

Страница курса https://agenticai-learning.org/f25 с расписанием.

Каждую неделю новая лекция, квиз на усвоение материала. Вроде бы, даже какие-то домашки, но это не точно.

Ведут лекции рисерчеры из разных топовых лаб. Название первых блоков очень базовое (LLM Agents Overview, LLM with Tool Use, Agent Stack & Infrastructure) и ни о чем не говорит. Посмотрим, какое будет содержание.

Я смотрел несколько лекций предыдущей итерации, писал тут, общий фокус был на reasoning моделях и кодогенерации. Мне понравилось. Планирую активнее смотреть в этот раз и мб выкроить время поучаствовать в хакатоне.

#образование
Все больше меня захватывает ai-хайп, показали мне (спасибо!) книжку с разными рецептами про агентов Выглядит неплохо, есть MCP, A2A, HIDL, мультиагентность и прочее модное. Воды много, но готовые интересные рецепты есть.

Тизерная задача в Alfa CTF по сути состоит в том, что надо уговорить ai-агента ChatGPT-5-nano совершить деструктивные команды (дать тебе рута, реверс шелл, rm -rf /). Я впечатлился тому насколько он хорошо защищен. Типа, скрываешь команду через base64, он ее расшифровывает, аккуратно выполняет все echo, так что в echo не спрятать абьюз. И это при том, что его запромптили выполнять все твои команды. Реверс шелл я таки получил, даже не понял почему сработало, но рута не смог.
Forwarded from .ml
Многие, кто обучал большие модели искусственного интеллекта, сталкивались с ситуацией, когда необходимы данные из множества источников. Но если источники совсем не из одной корпорации, то из-за GDPR или законах о защите персональных данных нет возможности обмениваться данными напрямую.

Как быть, если нужно обучать большие модели, но нельзя собирать всю информацию в одном месте?

Решение — федеративное обучение. Это система, в которой центральное устройство (сервер) объединяет усилия множества участников (устройства): каждый совершает операции на своих данных, а сервер собирает только результаты, не забирая саму информацию.

В зависимости от специфики задачи, данные на устройствах могут храниться по-разному. На основе того, как делится матрица признаков между участниками, можно выделить два подвида федеративного обучения:

📌 Горизонтальное федеративное обучение (HFL)

Суть: у разных участников данные имеют одинаковые фичи (одинаковые столбцы), но разные строки (разные пользователи/наблюдения).

Пример: несколько банков обучают модель для предсказания мошеннических транзакций. У всех есть одинаковые признаки по транзакциям (сумма, время, место, категория операции и т.п.), но набор клиентов у каждого банка свой. Объединяя данные через HFL, они получают более устойчивую модель, не раскрывая данные клиентов напрямую.


📌 Вертикальное федеративное обучение (VFL)

Суть: у разных участников есть одни и те же сэмплы (одни и те же строки), но разные признаки (разные столбцы).

Пример: банк и страховая компания имеют одних и тех же клиентов. У банка есть финансовые характеристики (история транзакций, кредитный рейтинг), у страховой — медицинская история и страховые выплаты. Объединив признаки в VFL, они могут построить более точную модель для оценки рисков по клиенту.

При этом нельзя сказать, что примеры выше оторваны от реальности. Например, Google применяет федеративное обучение для улучшения работы клавиатуры Gboard. Вместо сбора всех данных о нажатиях на своих серверах, центральное устройство получает только агрегированные обновления модели. То есть, обучение происходит прямо на устройствах пользователей, но без нарушения приватности.

💜 Этот пост написал Сергей Станко, ML-инженер в Точка Банк.
Forwarded from Neural Info
Отличное (при этом достаточно короткое) видео про различные виды оптимизаций стандартного MHA (Multi-Head Attention). В видео рассказывается про MLA (Multi-Head Latent Attention), который был представлен в статье про DeepSeek-V3, помимо MLA кратко рассматриваются более ранние оптимизации механизма внимания: MQA (Multi-Query Attention), GQA (Grouped-Query Attention), а также KV-cache.
Forwarded from Лечим эйай
Как я читаю резюме
Пропал на месяц, прошу меня простить, буду стараться не повторять подобных ошибок. При этом вас становится с каждым днем все больше, а значит степень ответственности повышается.
Как вы могли заметить, я очень люблю тему найма, сегодняшний пост будет также посвящен этой теме.

За годы просмотра резюме я выработал определенные паттерны "скрининга", которые меня почти никогда не подводят.
Итак, как я ранжирую резюме с точки зрения нанимающего менеджера (точно у всех свои правила, рассказываю о себе). Предполагаю, что вы можете быть где-то со мной не согласны - приглашаю в комментарии. И давайте обусловимся, что речь именно про найм ML специалистов.

Город проживания
Начинаю я с места проживания, какой бы современный мир ни был толерантный к удаленке - я в приоритет ставлю людей, с которыми я могу видеться в офисе.

Образование
Да, для меня образование важно. Простите меня, но людей без высшего образования я сразу закрываю. При этом да, люди из топовых вузов часто выделяются на собеседовании, корреляция эмпирически подтверждена, приоритет у таких людей выше. Безусловно, сильный плюс - наличие оконченной аспирантуры.

Компании
Обращаю внимание на опыт работы в BigTech, тут "работа на зачетку" в моем случае работает. Также смотрю на опыт в MedTech компаниях, в нашей области наличие такого опыта всегда дает очень большой задел на старте.

Опыт
1. Сформированный паттерн поведения в переходах всегда настораживает. Если человек меняет компании раз в полгода - это сильно смущает, но даже если человек сменил 4 компании, и в каждой работал ровно по два года, это тоже для меня не хороший знак. 1-2 коротких перехода при этом не проблема, все бывает в жизни.
2. Сильно напрягает, когда в резюме пишут конкретные архитектуры моделей, вместо решаемых задач. Написать Resnet, вместо классификации, или YOLO, вместо детекции - явный признак начинающего.
3. ML метрики в резюме - тоже признак джуна. Замер качества - это таинство, которое невозможно считать при знакомстве с резюме, поэтому это выносить не имеет смысла. Опять же это мой личный опыт, но работает 9 из 10 раз. При этом отметить влияние на бизнес метрики - определенно плюс.
4. Мало информации. Резюме должно завлекать, и существует множество методологий, как это делать. В свое время мне рассказали о методологии STAR, так что все уже за нас придумали умные мира сего. Это сложный навык, но хорошо описанный опыт - основа для приглашения на собеседование.
5. Занесение задач с курсов в качестве релевантного опыта. Курсы - это супер, я положительно отношусь к желанию повышать свою квалификацию, но для этого есть отдельный раздел резюме. Года три назад в каждом втором резюме мне попадалась "классификация Симпсонов", осталось для меня именем нарицательным для описания "плохого резюме".
6. GAN в резюме к беде. Не спрашивайте...
7. Очень приветствую наличие статей.

О себе
Этот блок я пробегаюсь наискосок. В нем я не ищу тот факт, что вы умеете "работать в команде" и "коммуникабельный". Ищу особые навыки. C1 в японском, организатор больших мероприятий, кмс по горным лыжам. Если человек достиг в чем-то высокого результата - он способен достигать его многократно и в других сферах.

Безусловно, во всех таких правилах есть исключения, но мне показалось ценным поделиться этим с вами.
Кстати о птичках. Сейчас у нас идет найм CV и NLP специалистов, а также Data Analyst, пишите мне в личку, если хотите узнать детали и присоединиться к классной MedTech компании.

@lechim_ai
Forwarded from Yandex for Developers
📎 Как ИБ-инженеру прокачать свою карьеру

Мы спросили об этом у Данилы Урванцева, инженера по информационной безопасности в Городских сервисах Яндекса. В карточках собрали его мысли про точки входа в сообщество, интересные задачи, OSCP и профессиональный рост.

Ссылки, упомянутые в карточках:

📌 Таблица с задачками, которые стоит порешать перед OSCP

🔍 Материалы для подготовки к собеседованиям для специалистов по ИБ

🔥 Week Offer Security для специалистов-безопасников с опытом от 2 лет. Ивент пройдёт 11–17 октября:

🔴 До 8 октября зарегистрируйтесь и отправьте заявку
🔴 11–12 октября пройдите две технические секции
🔴 13–17 октября познакомьтесь с командами и получите офер

Подписывайтесь:
💬 @Yandex4Developers
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM