Интересное что-то
517 subscribers
2.72K photos
253 videos
139 files
4.52K links
Материалы и мысли, понадерганные отовсюду
Блог: https://t.me/asisakov_channel
Чат: https://t.me/youknowds_chat
Download Telegram
Forwarded from Kali Novskaya
🌸FAANG Собеседования. Часть 2, рефералы 🌸
#собеседования

Начали серию постов про собеседования — давайте продолжим. Сегодня поговорим про то, как вообще добраться до этапа собеседования.

TL;DR лучше сделать меньше попыток, но более качественных и таргетировангых, чем подаваться массово на 500 позиций. Часть вакансий и так не настоящая, а часть вы делите с внутренними и внешними кандидатами — так что нужно быть таргетированным и быстрым.

🟣Резюме

Делается под вакансию и страну! Сделайте под самые интересные для вас вакансии отдельные версии: резюме для позиции Researcher'а и для ML Eng выглядит по-разному!
Из резюме сразу должно быть видно, что у вас N лет опыта, легальный статус, виза таланта и т.д. — плюс все чем можете похвастаться. 100500 цитирований, членство в орг комитете престижной конференции, опенсорс проект на 1000 контрибьюторов. Сейчас не страшно быть over qualified для вакансии.

Если в вакансии хотят опыт RL, и у вас он есть, надо добавить прямо в шапку, что вы experienced in reinforcement learning.
Если есть и статьи на тему, сделайте секцию "Publications" и поместите их туда.

🟣Получаем Referrals

Реферрал — это формальный или неформальный способ быть рекомендованным на позицию кем-то из текущих сотрудников. Эта рекомендация очень важна! Чем ближе рекомендующий к команде вакансии — тем лучше, поэтому эффективность реферраллов я бы отсортировала так:
— реферралы внутри команды, реферралы из вашего нетворка
— просто общие Linkedin-контакты из компании,
— случайные русскоязычные люди из компании, которым будет понятен ваш бэкграунд (МФТИ,  ШАД...),
— просто случайные люди из компании.

Пишите людям прямо, что вы очень интересуетесь позицией, считаете, что подходите на неё, и хотели бы реферрал — заодно можете поболтать и спросить что-то про культуру работы в компании. Вам могут рассказать более подробно про команду, чем она занимается, есть ли в целом проблемы у организации и какие.

Помимо Linkedin, для FAANG существует ещё один полезный инструмент: Blind.

Blind — это приложение для анонимного чата о работодателях, что-то вроде двача с Glassdoor. Там принято просить реферрал непосредственно у сотрудников компании, некоторые люди делают это ради бонуса.

🟣Chechez le manager

Вакансию изучили, реферралы получили, теперь следующая стадия — найти нанимающего менеджера и написать ему. Часто название команды/орга содержится в вакансии, и можно найти менеджера/директора с таким описанием по Linkedin.

Такой подход тоже в целом позитивно выделит вас из списка кандидатов, потому что вы облегчаете работу всех по найму мотивированного человека в компанию.
Напишите пару строчек о себе, почему вас надо взять, и что вас уже зареферили. Пришлите резюме. Если прямо очень хотите в компанию, то через неделю напишите ещё раз — свои мысли про что-то из продуктов компании, последних релизов, что бы вы улучшили, и т.д.

🟣Куда подаваться?

Рынок в целом не очень, поэтому лучше всего целиться в 3 категории — крупные компании, средние компании и стартапы, — даже если вы сомневаетесь, хотите ли туда.
Воркшоп ICML 2022 по офферам и поиску работу (посмотрите!) это явно предлагает.

В самом лучшем случае у вас будет несколько офферов, и вы используете оффер стартапа, чтобы улучшить оффер от большой компании. Или используете оффер большой компании, чтобы получить оффер больше от компании среднего размера с хорошим work-life balance. Но про это — в следующий раз!

🌸Кстати, наш карьерный стрим теперь выложен в записи!
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from grokaem себя
Понедельничное нетех обсуждения. Метод, которому меня научила PHD студентка и который немного поменял мой подход к жизни в целом.

#grokaem_seby_thoughts

За день у меня может быть масса теорий и гипотез, которые я хотела бы проверить. Вот только в день у меня как минимум два проекта. Я очень не люблю держать все в голове. Стараюсь уходить домой без раздумий о задачах. Да, какой-то баг или мысль может как дементор меня преследовать и испариться с быстрым решением где-то в душе, но вот помнить все - нет, спасибо, у меня есть жизнь вне этого всего.

И вот проблема с которой я столкнулась: появляется идея - я ее записываю и забываю, а что хотел сказать автор? Ну проверишь ты это и что?

Поэтому новый паттерн для всех гипотез, которые у меня появляются:
🏔
Гипотеза:
Результат, который я ожидаю:
Как проверить:

🏔

И необходимо не лениться, а заполнять полностью и нормальными словами! Так я могу вернуться и понять, а что я вообще хотела проверить и почему. Это в разы ускоряет процессы

Да, это кажется очевидным, но почему-то все наставники, что у меня были, не заставляли меня это делать, а зря! Пример такой записи в комментариях.
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Треним Лоры для Flux 1.0 [dev] бесплатно

Люблю опенсорс. А ещё больше нонпрофит проекты, основанные на опенсорсе (да, OpenAI?).

Ежедневно выходит куча проектов с исходным кодом, о которых я даже не успеваю писать, но ведь, кроме обзора статей, хочется ещё и потыкаться самостоятельно. А установка у таких проектов обычно муторная — кто-то всё ещё с сетапом Comfy мучается.

Так вот, Tost.AI — сайт, на котором можно потыкать новые модельки и пайплайны по типу Live Portrait, до которого у меня так и не дошли руки.

Там же можно натренировать свою LoRa и делать всякие ништяки. Кстати, LoRa на Flux выходят бомбические. По набору из 6 фотографий можно консистентно генерить один и тот же объект. Детали реального объекта передаются настолько точно, что сохраняется даже текст (салют креативным фотографам).

Можно, например, по фотографиям из white бокса сделать фото продукта с моделью (или на модели), или красивую картинку где-то в необычной локации и пр.

Тут стоит отметить, что, хоть веса под non-profit лицензией, вы полностью владеете картинками, которые генерит Flux:
d. Outputs. We claim no ownership rights in and to the Outputs. You are solely responsible for the Outputs you generate and their subsequent uses in accordance with this License. You may use Output for any purpose (including for commercial purposes), except as expressly prohibited herein. You may not use the Output to train, fine-tune or distill a model that is competitive with the FLUX.1 [dev] Model.



Делаем так (см. видос):
1. Заходим, регистрируемся на tost.ai
2. В первой плашке выбираем Train Lora
3. Придумываем триггер-ворд
4. Подгружаем файлы через кнопку Add
5. Жмём Enter и ждём минут 30
6. Качаем файл safetensor
LoRa готова, теперь можно генерить!

Для этого:
1. В первой плашке идём в Text to Image, во второй — Flux 1 Dev. Custom Lora
2. Загружаем файл LoRa, ждём, пока обновится ссылка
3. Далее всё как обычно, главное не забыть триггер-ворд

Жду ваши тесты в комментариях!

UPD: Добавили Flux.1 Dev - ControlNet inpating

Tost.ai
Лицензия FLUX.1 [Dev]

#tutorial
@ai_newz
🏓 Открытые матрицы компетенций аналитиков

Еще 10 лет назад аналитики как полноценного направления практически не существовало – не было каких-либо стандартов индустрии. В последние годы рынок аналитики (помимо того, что он сформировался) становится более прозрачным – компании открыто говорят о том, как и кого они нанимают ✏️

Как я уже писал в своем посте про найм аналитиков в СНГ и заграницей: у Яндекса есть целая страница, посвященная найму аналитиков, где описаны этапы отбора и ссылки на подготовку. У Авито тоже есть страница, где лежат видео, статьи и сами вакансии. У Тинька тоже есть сайт с курсами, книгами и вопросами 🎈

Яндекс и Авито пошли дальше и опубликовали свое понимание грейдов аналитиков. Яндекс сделал это через статью от Жени Козлова, который много лет руководил аналитикой Такси и Маркета. Авито опубликовали свою матрицу компетенций на Гитхаб, где лежат статьи и по другим профессиям 🤖

Картинка в этом посте – часть таблички из статьи Жени. Это саммари, которое лучше смотреть после прочтения статьи – там подробно расписаны скиллы и ожидания от каждого грейда. Академическая база, постановка задач, контекст, проактивность, рефелксия, глубина решений – все в статье 🪜

Подобные документы позволяют еще на этапе интервью самому оценить себя. Внутри корпорации иногда сложно унифицировать понимания грейдов: в одном бизнес юните аналитик 1 (миддл) – бывший стажер или просто начинающий миддл, в другом – опытный аналитик, который точно не начинающий миддл. А платят всем одинаково 😊

Что думаете про подобные матрицы компетенций и грейдирование в корпорациях в целом? Как работает оценка кандидатов в знакомых вам компаниях без подобной систематизации? 🥳

@tagir_analyzes
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Kogut Ivan Tutoring
Practical ML Digest
2️⃣
#MLПост #PMD

ℹ️ В этот раз дайджест будет полностью (почти) про LLMки. В сегодняшних докладах: может ли модель общаться вместо нас с друзьями и коллегами, RAG системы и нужны ли все еще люди разметчики данных. Погнали!

"Притворяемся собой и друзьями, обучая LLM на сообщениях из Telegram"
Год: 2024
Спикер: Александр Смирнов, Household Robots@Entrepreneur First
Посмотреть: Ютуб

Кто смотрел сериал Клон?)
Спикер взял и по приколу обучил Mistral 7B уже зафайнтюненную на чат и дообучил 2 способами: Full Finetune и LORA. Ресурсы на обучение (GPU) взял на сервисе vast.ai, я сам про такой не слышал (так как не узнавал, где гпухи в аренду брать можно)
Доклад технически ничего нового не привносит, самое интересное - это результат.
Получилось хорошо копировать стиль, модель имеет такой же бэкграунд, понимает с кем и как общаться. И мнение модели по каким-то развернутым вопросам совпадает с человеком, на чьих данных она была обучена
Плохо с текущими событиями, их надо как-то до модели доносить, естественно. Также, чем длиннее переписка (>10 сообщений), тем хуже модель становится - начинает что-то переспрашивать и так далее (думаю пользователи Алисы что-то такое ловили). И что самое плохое - проблема с безопасностью ваших данных, то есть узнать у нее какие-то ваши реквизиты или какой-то секрет очень просто.
Также, Александр оставил гитхаб, если кто-то хочет тоже самое повторить со своими переписками)

"ML Александр Алерон Миленькин. Надо ли строить бизнес вокруг ML (Про LLM, RAG-системы, насмотренность и виртуальных помощников)"
Год: 2024
Спикер: Александр (Алерон) Миленькин - ML лидер в Dodo Brands
Послушать подкаст: Яндекс Музыка

Не только же видео смотреть, подкасты в дорогу на тренировку тоже хороши!

Нет смысла делать бизнес ради ML, имеет смысл делать ML, чтобы бустануть бизнес


Что такое RAG (Retrieval Augmented Generation) система, на задаче голосового заказчика из Dodo рассказано из каких этапов состоит. Упоминание популярного фреймворка для RAG (и в принципе работы с LLM) - LangChain. Обсуждается почему нельзя ограничиться просто промптингом (все в промпт пихать)

Зачем нужна насмотренность, особенно сейчас. То есть знание просто идеи (best practice), даже если никогда это не делал, уже ускоряет путь от продуктовой идеи до готового продукта. Сейчас, когда появляются все новые и более крутые, простые в использовании инструменты, это чуть ли не самое нужное качество по моему мнению)

Еще под конец ушли в обсуждение VR и прикольную идею для него выдвинули: помещать человека в ситуацию из учебников по английскому (в аэропорту, заселение в отель и прочие) и чтобы он в этой ситуации отрабатывал разговорный английский. Звучит очень бодро, тогда английский в разы быстрее можно будет выучить. Ждем такую штуку

"Использование LLM в разметке данных: можно ли убрать людей?"
Год: 2024
Спикер: Дмитрий Антипов, тимлид разработки в Сбере, АБТ
Посмотреть: ВК

Думаю не для кого не секрет, что уже очень часто LLM используют для разметки данных, что б обучить модель поменьше и для других целей.

Докладчик же выделил несколько ролей LLM в качестве помощников в разметке:
🔄 Чернорабочий. С помощью него сложные/монотонные задания для человека превратить в легкие. Например, генерация названий заменить на выбор лучшего названия и т.д.
🔄 Разметчик. Тут все понятно, просто даем задание модели и она его размечает. Да, она может ошибаться, но и люди разметчики много ошибаются. Лучше в начале самим проверить, насколько хорошо LLM справляется конкретно с вашей разметкой
🔄 Модератор. Выбирает лучший ответ среди нескольких моделей или людей, тем самым минимизирует вероятность плохой разметки. При этом, можно еще попросить модель объяснять выбор, что б потом человеку удобнее было проверять
🔄 Эксперт. Тут было очень кратко про то, что можно использовать для каких-то вопросов "А сколько это займет, а сгенерируй инструкцию..." и бла-бла-бла, как будто не оч полезно

И вывод ко всему этому такой, что модели очень сильно помогают уже сейчас в разметке, но от людей пока избавиться все же нельзя (ура!)
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Kogut Ivan Tutoring
Рабочие будни. Парсинг товаров
#ЖизаПост

После вопроса на семинаре ШАДа о нашей команде в Яндексе я понял, что особо не рассказывал в канале, чем занимаюсь/занимался на работе 😅
Пора это исправить! Дисклеймер: все-все-все рассказать не удастся - NDA, сами понимаете)

Напомню, что я работаю в команде Товарного Поиска (это не Маркет, а часть Поиска). Как и у любого поиска у нас есть база, а именно - база товаров. И в этом посте хочу рассказать кратко о процессе, который привносит больший вклад в базу. Речь пойдет о парсинге.

Представьте перед собой страницу с товаром какого-нибудь онлайн магазина. Из нее нужно достать такие важные поля как цена, название, картинка и так далее. Как это сделать (подумайте сами, а затем открывайте спойлер)

Сразу расскажу наше итоговое решение. HTML страницу можно представить как дерево, а нужная нам информация лежит в каких-то вершинах этого дерева. Давайте тогда классифицировать каждую вершину на то, содержит ли она нужные данные или нет. Придумаем кучу признаков для вершины: про ее положение в дереве, про информацию в соседних вершинах и про контент в самой вершине. Большинство факторов считаются алгоритмически, вот вам и ДП по дереву. Конечно, еще по тексту в вершине считается нейросеть, выход которой мы назвали текстовым признаком. В итоге на этом многообразии признаков учим Catboost и классификатор готов

Этот проект начался еще до моего попадания в штат и конкретно я парсил данные для fashion категорий и улучшал precision и recall для базовых полей. Удалось поделать следующее: создание толокерских заданий, обучение Catboost, обучение BERT и дистилляция в DSSM, запуск, оптимизация этого дела на C++ и придумывание с реализацией эвристик на дереве на тех же плюсах 👨‍💻

Конечно, я не рассказал еще интересности этой задачи: более простые способы парсинга с их + и -, как обходить нужные страницы и так далее. Про это можно послушать в докладе одного из моих руклей на Highload 2022 (как давно это было) - ссылка ▶️
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Knowledge Accumulator
Efficiently Modeling Long Sequences with Structured State Spaces [2021] - как дотер стал нейросетью

Для тех, кто не знает - я не особый любитель длинных математических статей. В целом, я не умею с адекватной скоростью читать и воспринимать много линала. Наверняка в телеграме существует большое количество умных постов про S4 с кратким пересказом его математики, и если вы из тех, кто способен такое воспринимать, поздравляю - данный пост не для вас.

Я постарался, вооружившись гайдом, уловить основной смысл данной архитектуры, где она находится по отношению с известными широким кругам. Итак, поехали.

Представим, что существует "ячейка памяти" - хранилище-вектор, который обновляется с учётом предыдущего состояния ячейки, последнего входа и каких-то обучаемых параметров. Помимо памяти есть функция выхода, которая берёт новое состояние памяти, последний вход и выдаёт выход наружу.

Мы уже знаем реализации подобных абстракций. Простейшая RNN, GRU/LSTM - все мы их любим, но у них есть жирная проблема - их нужно считать шаг за шагом, а значит, нельзя применить много компьюта и обработать кучу информации за раз, так, как это умеют трансформеры, но сами трансформеры фэйлятся на огромных контекстах.

Итак, помимо RNN и GRU существует State Space Model - ещё один формат ячейки памяти (в его основе всего лишь парочка матричных умножений), но у него есть крутая особенность. Вычисление рода "прогнать SSM на последовательности", оказывается, можно переформулировать в другую функцию - свёртку, для которой можно предпосчитать веса. При добавлении ещё одного фокуса (FFT) эту свёртку можно считать быстрее, чем втупую, что в итоге позволяет по сути быстро применять SSM на всей последовательности.

Далее, у SSM есть 2 проблемы - они херово работают, и хвалёное "быстро посчитать" на самом деле не такое уж и быстрое.

Чтобы решить первое, был придуман магический гиппопотам - инициализация одной из матриц внутри SSM таким образом, чтобы она была изначально ближе к пространству чего-то разумного.

Вкратце, вторая проблема заключается в том, что для подсчёта весов свёртки нужно умножать много матриц, а нам вообще-то лень - бумага нынче дорогая. Для этого придумывают магический костыль - Diagonal Plus Low-Rank. Я не стал разбираться в деталях, если вам интересно, отсылаю к разбору, но одну из матриц просто (нихера не просто в реальности) представляют не как обучаемую матрицу весов, а как результат операций над другими обучаемыми сущностями.

В результате, объединив описанные хаки, и получается S4 - хитрая и быстрая вариация "RNN"-ки, которую успешно применяют на сверхдлинных последовательностях.

Замечу, что это не первая статья, которую я обозреваю, в которой засчёт убирания нелинейностей удаётся всё очень сильно ускорить и упростить - напомню про RetNet. Нет никаких гарантий, что "мощность" архитектуры достигается как раз засчёт этих нелинейностей.

Кроме того, скажу честно - я банально не верю, что прорывные архитектуры будут основаны на какой-то сложной математике. Через пару лет окажется, что есть какая-нибудь суперпростая штука, которая делает всё то же самое даже лучше. Это не исключает, что математика будет вдохновлять на прогресс и в какой-то момент натолкнёт ресёрчеров на нечто крутое, но само это крутое будет очень простым.

@knowledge_accumulator
Обзор типов баз данных: какие типы БД существуют, в каких задачах используются ?

Сегодня поговорим про базы данных и рассмотрим типы БД, преимущества и недостатки каждого типа. Знание специфики применения различных типов баз данных позволяет аналитику лучше ориентироваться в архитектуре системы, а также принимать участие в проработке архитектуры решения.

Поэтому собрал в карточках краткую теорию по основным типам БД. Изучайте, делитесь с друзьями и сохраняйте в избранное, чтобы не потерять полезную информацию 😉

#study_analysis