Forwarded from Б/У ml (Толик Мастрюков)
Слева BST , справа идея из статьи. Наглядное сравнение почему 1 метод быстрее другого
Forwarded from max.sh
В продолжение поста выше хочу привести ещё несколько интересных, на мой взгляд, нетехнических мыслей из блога Джейсона. Автор рефлексирует над принципами рисерч: как его стоит вести, какой путь выбирать, какие ожидания на сегодняшний от AI-исследователей.
Короткая сводка наиболее откликающихся мыслей в хронологическом порядке изложения автора:
[Research I enjoy]
Автор критически смотрит на свои ранние публикации и находит их слишком специфичными, «заточенными» под одну задачу. Например, применить модель к конкретному сетапу или выбить прирост в пару процентов на конкретном бенчмарке с помощью сложного не обобщаемого метода. Такие работы обычно не находят отклик в сообществе и не двигают прогресс. Поэтому, если тема слишком узкая, то какой бы крутой ни была реализация, импакт всё равно будет незначительным.
Рисерч, который откликается автору и которым он пытается заниматься:
(1) строится вокруг общих, переиспользуемых идей (новая архитектура, новый метод, новый рецепт предобучения),
(2) направлен на достижение AGI,
(3) нацелен задать вектор влияния на сообщество.
Статья про CoT-Prompting является идеальным примером реализации этой мысли.
[Practicing AI Research]
Умение делать рисерч — это тренируемая способность. Автор выделяет четыре ключевых навыка, из которых состоит рисерч:
⚫️ Отбор идей. Вырабатывание собственного «вкуса», проработка концепций и выбор тем, в которые веришь и которые соответствуют твоим принципам. Автор предпочитает обобщённые идеи, без ухода в излишнюю специфику. Как правило, это оказывается «hot topic», над которой и так всё работают, и ты стараешься сделать лучше остальных.
⚫️ Дизайн экспериментов и их реализация. У исследования должен быть чёткий набор Research Questions, на которые в ходе работы будут найдены ответы. Хорошая практика — регулярно обсуждать прогресс с коллегами.
⚫️ Работа над статьей. Простым языком изложить суть работы, ключевые результаты, объяснить, почему эта работа важна для сообщества и как применить идеи на практике.
⚫️ Максимизация импакта. Журналы, конференции, блогпосты, twitter, подкасты — все инструменты хороши, чтобы «прорекламировать» миру свою работу и показать её значимость.
Все эти навыки прокачиваются при должной консистентности. Среда играет огромную роль: работа в сильной научной группе ускоряет процесс, помогая выработать «вкус» к идеям, научиться шейрить результаты и эффективно работать в команде.
[Dopamine cycles in AI research]
AI-исследователи заканчивают свой день (или неделю) либо в хорошем настроении, либо в плохом — всё зависит от того, сработала ли сегодня гипотеза, в которую ты веришь.
Да — супер, допаминовый скачок.
Нет — фрустрация, уходишь в дебаг и допаминовую просадку.
Так или иначе, ресерч создаёт асимметричные по длительности допаминовые циклы, и нужно иметь навыки саморегуляции, чтобы не отлететь.
[AI research is a max-performance domain]
Что значит «max-performance domain»? Для того чтобы быть топ-исследователем, достаточно выдающихся результатов лишь в одном аспекте своей работы. Обучить лучшую модель или создать прорывной алгоритм — и ты уже востребован, в то время как все смежные компетенции (навыки спикера, разработчика, прохождения кодинг-интервью) не имеют значения и прощаются.
И не обязательно делать прорыв каждый год — раз в несколько лет достаточно, потому что метрика исследователя:
Отрасли, где результаты имеют большой импакт на мир сегодня (сейчас AI, в прошлом веке — ядерная и квантовая физика), позволяют исследователям оперировать в таком уникальном режиме.
---
Многие из этих мыслей вдохновлены принципами, озвученными Ричардом Хэммингом в 1986 году. You and Your Research, by Richard Hamming. Рекомендую.
Короткая сводка наиболее откликающихся мыслей в хронологическом порядке изложения автора:
[Research I enjoy]
Автор критически смотрит на свои ранние публикации и находит их слишком специфичными, «заточенными» под одну задачу. Например, применить модель к конкретному сетапу или выбить прирост в пару процентов на конкретном бенчмарке с помощью сложного не обобщаемого метода. Такие работы обычно не находят отклик в сообществе и не двигают прогресс. Поэтому, если тема слишком узкая, то какой бы крутой ни была реализация, импакт всё равно будет незначительным.
Рисерч, который откликается автору и которым он пытается заниматься:
(1) строится вокруг общих, переиспользуемых идей (новая архитектура, новый метод, новый рецепт предобучения),
(2) направлен на достижение AGI,
(3) нацелен задать вектор влияния на сообщество.
Статья про CoT-Prompting является идеальным примером реализации этой мысли.
[Practicing AI Research]
Умение делать рисерч — это тренируемая способность. Автор выделяет четыре ключевых навыка, из которых состоит рисерч:
Все эти навыки прокачиваются при должной консистентности. Среда играет огромную роль: работа в сильной научной группе ускоряет процесс, помогая выработать «вкус» к идеям, научиться шейрить результаты и эффективно работать в команде.
[Dopamine cycles in AI research]
AI-исследователи заканчивают свой день (или неделю) либо в хорошем настроении, либо в плохом — всё зависит от того, сработала ли сегодня гипотеза, в которую ты веришь.
Да — супер, допаминовый скачок.
Нет — фрустрация, уходишь в дебаг и допаминовую просадку.
Так или иначе, ресерч создаёт асимметричные по длительности допаминовые циклы, и нужно иметь навыки саморегуляции, чтобы не отлететь.
[AI research is a max-performance domain]
Что значит «max-performance domain»? Для того чтобы быть топ-исследователем, достаточно выдающихся результатов лишь в одном аспекте своей работы. Обучить лучшую модель или создать прорывной алгоритм — и ты уже востребован, в то время как все смежные компетенции (навыки спикера, разработчика, прохождения кодинг-интервью) не имеют значения и прощаются.
И не обязательно делать прорыв каждый год — раз в несколько лет достаточно, потому что метрика исследователя:
лучшие пять работ (не обязательно научных публикаций) за карьеру, а не средний результат.
Отрасли, где результаты имеют большой импакт на мир сегодня (сейчас AI, в прошлом веке — ядерная и квантовая физика), позволяют исследователям оперировать в таком уникальном режиме.
---
Многие из этих мыслей вдохновлены принципами, озвученными Ричардом Хэммингом в 1986 году. You and Your Research, by Richard Hamming. Рекомендую.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from C++95
#notes_from_underground
Пересматривал видос про коробки от хлопьев любимого блогера детства, решил с ChatGPT сделать свою коробку🍜
Записки из подполья №2✍️
1️⃣ Обзор технических блогов по HFT-конторам 💳
Что пишут в своих блогах компании, которые занимаются HFT + бонус
https://telegra.ph/Obzor-tehnicheskih-blogov-po-HFT-kontoram-06-24
2️⃣ "Нижний интернет" нашей сферы 👨🔬
Обзор треш-стримеров и анонимных площадок
https://telegra.ph/Nizhnij-internet-nashej-sfery-06-25
Пересматривал видос про коробки от хлопьев любимого блогера детства, решил с ChatGPT сделать свою коробку
Записки из подполья №2
Что пишут в своих блогах компании, которые занимаются HFT + бонус
https://telegra.ph/Obzor-tehnicheskih-blogov-po-HFT-kontoram-06-24
Обзор треш-стримеров и анонимных площадок
https://telegra.ph/Nizhnij-internet-nashej-sfery-06-25
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Находки в опенсорсе
minimal vscode: открываем окна
https://www.youtube.com/watch?v=frZkPK_1Ui4
Нет, не от духоты, ее в видео как раз не будет 🌚️️️️
Видео короткое, динамичное, практичное.
Перед тем как учиться пользоваться vscode, необходимо:
1. Её поставить
2. Научиться её открывать
3. Располагать её на рабочем пространстве
В видео поговорили про:
- Brewfile и синхронизацию программ / плагинов
- Hotkey managers на примере https://github.com/koekeishiya/skhd
- Тайловые менеджеры окон: https://github.com/rxhanson/Rectangle
- Красивости вроде https://topnotch.app и https://hazeover.com
Все материалы для всех операционных систем тут: https://github.com/sobolevn/the-best-python-course/blob/main/minimal_vscode/links/1-open-vscode.md
Большое спасибо за такой отклик и поддержку 🧡, видео про отключение лишних панелей навигации уже в работе. Скоро будет!
Обсуждение: какие тайловые менеджеры используете вы?
| Поддержать | YouTube | GitHub | Чат |
https://www.youtube.com/watch?v=frZkPK_1Ui4
Нет, не от духоты, ее в видео как раз не будет 🌚️️️️
Видео короткое, динамичное, практичное.
Перед тем как учиться пользоваться vscode, необходимо:
1. Её поставить
2. Научиться её открывать
3. Располагать её на рабочем пространстве
В видео поговорили про:
- Brewfile и синхронизацию программ / плагинов
- Hotkey managers на примере https://github.com/koekeishiya/skhd
- Тайловые менеджеры окон: https://github.com/rxhanson/Rectangle
- Красивости вроде https://topnotch.app и https://hazeover.com
Все материалы для всех операционных систем тут: https://github.com/sobolevn/the-best-python-course/blob/main/minimal_vscode/links/1-open-vscode.md
Большое спасибо за такой отклик и поддержку 🧡, видео про отключение лишних панелей навигации уже в работе. Скоро будет!
Обсуждение: какие тайловые менеджеры используете вы?
| Поддержать | YouTube | GitHub | Чат |
YouTube
Гайд по кастомизации vscode: тайлы и менеджеры горячих клавиш
Максимальная продуктивность и минимализм в visual studio code!
Ссылки на материалы:
- Все конфиги тут: https://github.com/sobolevn/dotfiles
- Все ссылки из выпуска тут: https://github.com/sobolevn/the-best-python-course/blob/main/minimal_vscode/links/1-open…
Ссылки на материалы:
- Все конфиги тут: https://github.com/sobolevn/dotfiles
- Все ссылки из выпуска тут: https://github.com/sobolevn/the-best-python-course/blob/main/minimal_vscode/links/1-open…
Forwarded from Data Blog
Привет, друзья!
Хорошо, когда на что-то можно посмотреть. Виузальные образы помогают понять объект, но ещё лучше — когда можно с объектом что-то сделать.
С трепетной любовью вообще отношусь к хорошим визуализациям работы моделей, а тут вот появилась очень свежая и очень красивая — InTraVisTo.
Из названия — Inside Transformer Visualisation Tool — посвящена трансформерам.
Визуализация построена следующим образом:
* Декодинг скрытых состояний при помощи Logit Lens (у меня про него есть туториал) и построение Heatmap;
* Построение Sankey-диаграммы — диаграммы потоков, которая показывает распространение информации через блоки внимания и FFN.
! Кроме как посмотреть можно интерактивно делать инъекции.
То есть заменить скрытый вектор в любой позиции и на любой глубине внедрением токена, выбранного из словаря. Глобально — это как пушкой по воробьям, но попробовать поиграть с тем, как вмешательство в конкретный вектор влияет на модель — можно.
Поддерживает разные модели (Mistral, Llama) и режимы декодирования (input/output/смешанный).
Работает в GUI.
Попробовать: GitHub
Попробовать, но не поднимать: демка
Хорошо, когда на что-то можно посмотреть. Виузальные образы помогают понять объект, но ещё лучше — когда можно с объектом что-то сделать.
С трепетной любовью вообще отношусь к хорошим визуализациям работы моделей, а тут вот появилась очень свежая и очень красивая — InTraVisTo.
Из названия — Inside Transformer Visualisation Tool — посвящена трансформерам.
Визуализация построена следующим образом:
* Декодинг скрытых состояний при помощи Logit Lens (у меня про него есть туториал) и построение Heatmap;
* Построение Sankey-диаграммы — диаграммы потоков, которая показывает распространение информации через блоки внимания и FFN.
! Кроме как посмотреть можно интерактивно делать инъекции.
То есть заменить скрытый вектор в любой позиции и на любой глубине внедрением токена, выбранного из словаря. Глобально — это как пушкой по воробьям, но попробовать поиграть с тем, как вмешательство в конкретный вектор влияет на модель — можно.
Поддерживает разные модели (Mistral, Llama) и режимы декодирования (input/output/смешанный).
Работает в GUI.
Попробовать: GitHub
Попробовать, но не поднимать: демка
Forwarded from Data Blog
И если вы тоже фанат, то вот — из других визуализаций ещё есть
1. BertViz
2. Interactive-GPT-2
3. LM Transparency Tool
4. Transformer explainer — очень похожая на InTraVisTo, но у последней больше выбор моделей и есть упомянутая инъекция.
1. BertViz
2. Interactive-GPT-2
3. LM Transparency Tool
4. Transformer explainer — очень похожая на InTraVisTo, но у последней больше выбор моделей и есть упомянутая инъекция.
Forwarded from Data Blog
Друзья, привет!
Коллеги выложили запись нашего вчерашнего подкаста
об интерпретируемости. За час мы обсудили актуальные направления в области интерпретируемости классических моделей и LLM и накидали гипотез.
Гости подкаста:
➡️Максим Костриця – DS Researcher в Raft, магистр ФКН ВШЭ
➡️Тимур Низамов, разработчик @LLAMATOR, магистрант Talent Hub ИТМО
➡️Честер, вроде бы он заходил, и я :)
Тайм-коды:
00:00:00 интро
00:04:21 как развивалась область интерпретируемости?
00:08:23 концептуальные слои
00:16:55 поведенческий и репрезентативный анализ
00:27:09 механистическая интерпретируемость
00:33:22 Sparse Autoencoders и результаты исследования Максима по влиянию на "токсичные" нейроны модели
01:01:10 в чём идея Circuit Tracing?
01:03:20 подведение итогов: есть ли тренд на интерпретируемость и к чему это может привести?
01:11:49 QA
Полезные ссылки по теме, упомянутые в подкасте:
https://habr.com/ru/articles/885076/ — туториал про зонды
https://arxiv.org/pdf/2507.12950 — кейсы XAI в радиологии
https://www.lesswrong.com/posts/jGuXSZgv6qfdhMCuJ/refusal-in-llms-is-mediated-by-a-single-direction
https://www.anthropic.com/news/golden-gate-claude
https://monitor.transluce.org/dashboard/chat
https://www.neuronpedia.org/
https://platform.goodfire.ai/
https://transformer-circuits.pub/
Ссылка на ютуб: https://www.youtube.com/watch?v=M9jVLiFXs04
Коллеги выложили запись нашего вчерашнего подкаста
об интерпретируемости. За час мы обсудили актуальные направления в области интерпретируемости классических моделей и LLM и накидали гипотез.
Гости подкаста:
➡️Максим Костриця – DS Researcher в Raft, магистр ФКН ВШЭ
➡️Тимур Низамов, разработчик @LLAMATOR, магистрант Talent Hub ИТМО
➡️Честер, вроде бы он заходил, и я :)
Тайм-коды:
00:00:00 интро
00:04:21 как развивалась область интерпретируемости?
00:08:23 концептуальные слои
00:16:55 поведенческий и репрезентативный анализ
00:27:09 механистическая интерпретируемость
00:33:22 Sparse Autoencoders и результаты исследования Максима по влиянию на "токсичные" нейроны модели
01:01:10 в чём идея Circuit Tracing?
01:03:20 подведение итогов: есть ли тренд на интерпретируемость и к чему это может привести?
01:11:49 QA
Полезные ссылки по теме, упомянутые в подкасте:
https://habr.com/ru/articles/885076/ — туториал про зонды
https://arxiv.org/pdf/2507.12950 — кейсы XAI в радиологии
https://www.lesswrong.com/posts/jGuXSZgv6qfdhMCuJ/refusal-in-llms-is-mediated-by-a-single-direction
https://www.anthropic.com/news/golden-gate-claude
https://monitor.transluce.org/dashboard/chat
https://www.neuronpedia.org/
https://platform.goodfire.ai/
https://transformer-circuits.pub/
Ссылка на ютуб: https://www.youtube.com/watch?v=M9jVLiFXs04
Forwarded from Поступашки - ШАД, Стажировки и Магистратура
Полный цикл отбора на стажировку в Яндекс (Бэкенд 2025)
Многие выпускник наших курсов по бэкенду в качестве старта карьеры выбрали Яндекс, и уже либо работают там и идут к высоким позициям, либо отбираются летом на стажировку. Наш выпускник согласился дать "интервью" о том, как прошел его полный цикл отбора. Мы слегка отредактировали его и добавили полезные ссылки!
Вступительный контест
Сам контест и в том числе его разбор (видео + код) выложили на курсах по алгоритмам и по бэкенду. Там было 6 задач из которых мне самостоятельно удалось придумать 4, остальные две просто катнул с разбора и попросил ГПТ переписать немного код, чтобы антиплагиат и не задетектил сходства с решениями остальных ребят. В принципе там приглашали на следующий этап и с 4мя задачами даже. Тут кстати важно отметить, что иногда вам попросту по какой-то причине долго могут не присылать приглашение на собес, и если наглости вам не занимать, то можете найти контакты HR и написать ей, бывали кейсы когда это срабатывало.
Алгоритмическая секция
В качестве первой задачи дали простую задачу, написал довольно быстро: проверить на палиндромность строку.
Вторая задача звучала так: дана строка требуется найти максимальную длину подстроки, являющуюся палиндромом. Эта задача встречалась в списке поступашек здесь, но я не помнил как она решается, поэтому пришлось думать на месте. Вначале предложил алгоритм за n^3 (просто полный перебор), чтобы потянуть время и подумать над более эффективным, а не просто молчать. Это сработало, интервьювер даже дал подсказку, намекая на динамическое программирование и я додумал алгоритм за n^2. После того как его реализовали, он предложил, в качестве доп вопроса подумать про то как можно прикрутить хеши к проверке на палиндромность и уже затем вывел на решение за n logn, думаю это просто была его инициатива, т к оставалось свободное время.
Техническое собеседование
На тех собес позвали почти сразу. В качестве первой задания дали, алго задачку на стэк. Задача заключалась в том, чтобы проверить на правильную скобочную последовательность строку, которая состояла из трех видов скобок. Далее интервьюер потребовал реализовать класс стэк на Cи. С этой задачей мне повезло, потому что она встречалась у меня на вузовском курсе. Далее дали задачу на хеш таблицы (требовалось отсортировать элементы по количеству вхождений их копий в массив), а потом поговорили про устройство unordered_map и vector.
Собеседование с командой
Через две недели после технического интервью мне пишет HR и говорит, что она согласовала финальные собеседования с двумя командами.
Собеседование с первой командой прошло в устной форме. Я не написал ни единой строчки кода. По большей части мы разговаривали про вуз, какие там курсы проходили, их тематики, про мой опыт, который, кстати, ограничивался лишь вузовскими курсами и пет проектами курса поступашек. И, соответственно, интервьюер потребовал рассказать про пару пет проектов курса (их я кстати просто скопировал, предварительно разобравшись).
Во второй команде собеседование более формально прошло, большую часть интервью мы писали код. А именно он потребовал сразу сходу реализовать lru cachе из питона аналог в c++. И оставшиеся минут 10 собеседования, лид рассказал про спектр задач, но уточнил что мест нет.
Приглашения пришли через неделю в обе команды, и я сразу решил выбрать первую команду, из-за наличия штатных мест, хотя вторая команда была поинтереснее.
@postypashki_old
Многие выпускник наших курсов по бэкенду в качестве старта карьеры выбрали Яндекс, и уже либо работают там и идут к высоким позициям, либо отбираются летом на стажировку. Наш выпускник согласился дать "интервью" о том, как прошел его полный цикл отбора. Мы слегка отредактировали его и добавили полезные ссылки!
Вступительный контест
Сам контест и в том числе его разбор (видео + код) выложили на курсах по алгоритмам и по бэкенду. Там было 6 задач из которых мне самостоятельно удалось придумать 4, остальные две просто катнул с разбора и попросил ГПТ переписать немного код, чтобы антиплагиат и не задетектил сходства с решениями остальных ребят. В принципе там приглашали на следующий этап и с 4мя задачами даже. Тут кстати важно отметить, что иногда вам попросту по какой-то причине долго могут не присылать приглашение на собес, и если наглости вам не занимать, то можете найти контакты HR и написать ей, бывали кейсы когда это срабатывало.
Алгоритмическая секция
В качестве первой задачи дали простую задачу, написал довольно быстро: проверить на палиндромность строку.
Вторая задача звучала так: дана строка требуется найти максимальную длину подстроки, являющуюся палиндромом. Эта задача встречалась в списке поступашек здесь, но я не помнил как она решается, поэтому пришлось думать на месте. Вначале предложил алгоритм за n^3 (просто полный перебор), чтобы потянуть время и подумать над более эффективным, а не просто молчать. Это сработало, интервьювер даже дал подсказку, намекая на динамическое программирование и я додумал алгоритм за n^2. После того как его реализовали, он предложил, в качестве доп вопроса подумать про то как можно прикрутить хеши к проверке на палиндромность и уже затем вывел на решение за n logn, думаю это просто была его инициатива, т к оставалось свободное время.
Техническое собеседование
На тех собес позвали почти сразу. В качестве первой задания дали, алго задачку на стэк. Задача заключалась в том, чтобы проверить на правильную скобочную последовательность строку, которая состояла из трех видов скобок. Далее интервьюер потребовал реализовать класс стэк на Cи. С этой задачей мне повезло, потому что она встречалась у меня на вузовском курсе. Далее дали задачу на хеш таблицы (требовалось отсортировать элементы по количеству вхождений их копий в массив), а потом поговорили про устройство unordered_map и vector.
Собеседование с командой
Через две недели после технического интервью мне пишет HR и говорит, что она согласовала финальные собеседования с двумя командами.
Собеседование с первой командой прошло в устной форме. Я не написал ни единой строчки кода. По большей части мы разговаривали про вуз, какие там курсы проходили, их тематики, про мой опыт, который, кстати, ограничивался лишь вузовскими курсами и пет проектами курса поступашек. И, соответственно, интервьюер потребовал рассказать про пару пет проектов курса (их я кстати просто скопировал, предварительно разобравшись).
Во второй команде собеседование более формально прошло, большую часть интервью мы писали код. А именно он потребовал сразу сходу реализовать lru cachе из питона аналог в c++. И оставшиеся минут 10 собеседования, лид рассказал про спектр задач, но уточнил что мест нет.
Приглашения пришли через неделю в обе команды, и я сразу решил выбрать первую команду, из-за наличия штатных мест, хотя вторая команда была поинтереснее.
@postypashki_old
Forwarded from Поступашки - ШАД, Стажировки и Магистратура
Полный цикл отбора на стажировку в Яндекс (Бэкенд 2025)
Многие выпускник наших курсов по бэкенду в качестве старта карьеры выбрали Яндекс, и уже либо работают там и идут к высоким позициям, либо отбираются летом на стажировку. Наш выпускник согласился дать "интервью" о том, как прошел его полный цикл отбора. Мы слегка отредактировали его и добавили полезные ссылки!
Вступительный контест
Сам контест и в том числе его разбор (видео + код) выложили на курсах по алгоритмам и по бэкенду. Там было 6 задач из которых мне самостоятельно удалось придумать 4, остальные две просто катнул с разбора и попросил ГПТ переписать немного код, чтобы антиплагиат и не задетектил сходства с решениями остальных ребят. В принципе там приглашали на следующий этап и с 4мя задачами даже. Тут кстати важно отметить, что иногда вам попросту по какой-то причине долго могут не присылать приглашение на собес, и если наглости вам не занимать, то можете найти контакты HR и написать ей, бывали кейсы когда это срабатывало.
Алгоритмическая секция
В качестве первой задачи дали простую задачу, написал довольно быстро: проверить на палиндромность строку.
Вторая задача звучала так: дана строка требуется найти максимальную длину подстроки, являющуюся палиндромом. Эта задача встречалась в списке поступашек здесь, но я не помнил как она решается, поэтому пришлось думать на месте. Вначале предложил алгоритм за n^3 (просто полный перебор), чтобы потянуть время и подумать над более эффективным, а не просто молчать. Это сработало, интервьювер даже дал подсказку, намекая на динамическое программирование и я додумал алгоритм за n^2. После того как его реализовали, он предложил, в качестве доп вопроса подумать про то как можно прикрутить хеши к проверке на палиндромность и уже затем вывел на решение за n logn, думаю это просто была его инициатива, т к оставалось свободное время.
Техническое собеседование
На тех собес позвали почти сразу. В качестве первой задания дали, алго задачку на стэк. Задача заключалась в том, чтобы проверить на правильную скобочную последовательность строку, которая состояла из трех видов скобок. Далее интервьюер потребовал реализовать класс стэк на Cи. С этой задачей мне повезло, потому что она встречалась у меня на вузовском курсе. Далее дали задачу на хеш таблицы (требовалось отсортировать элементы по количеству вхождений их копий в массив), а потом поговорили про устройство unordered_map и vector.
Собеседование с командой
Через две недели после технического интервью мне пишет HR и говорит, что она согласовала финальные собеседования с двумя командами.
Собеседование с первой командой прошло в устной форме. Я не написал ни единой строчки кода. По большей части мы разговаривали про вуз, какие там курсы проходили, их тематики, про мой опыт, который, кстати, ограничивался лишь вузовскими курсами и пет проектами курса поступашек. И, соответственно, интервьюер потребовал рассказать про пару пет проектов курса (их я кстати просто скопировал, предварительно разобравшись).
Во второй команде собеседование более формально прошло, большую часть интервью мы писали код. А именно он потребовал сразу сходу реализовать lru cachе из питона аналог в c++. И оставшиеся минут 10 собеседования, лид рассказал про спектр задач, но уточнил что мест нет.
Приглашения пришли через неделю в обе команды, и я сразу решил выбрать первую команду, из-за наличия штатных мест, хотя вторая команда была поинтереснее.
@postypashki_old
Многие выпускник наших курсов по бэкенду в качестве старта карьеры выбрали Яндекс, и уже либо работают там и идут к высоким позициям, либо отбираются летом на стажировку. Наш выпускник согласился дать "интервью" о том, как прошел его полный цикл отбора. Мы слегка отредактировали его и добавили полезные ссылки!
Вступительный контест
Сам контест и в том числе его разбор (видео + код) выложили на курсах по алгоритмам и по бэкенду. Там было 6 задач из которых мне самостоятельно удалось придумать 4, остальные две просто катнул с разбора и попросил ГПТ переписать немного код, чтобы антиплагиат и не задетектил сходства с решениями остальных ребят. В принципе там приглашали на следующий этап и с 4мя задачами даже. Тут кстати важно отметить, что иногда вам попросту по какой-то причине долго могут не присылать приглашение на собес, и если наглости вам не занимать, то можете найти контакты HR и написать ей, бывали кейсы когда это срабатывало.
Алгоритмическая секция
В качестве первой задачи дали простую задачу, написал довольно быстро: проверить на палиндромность строку.
Вторая задача звучала так: дана строка требуется найти максимальную длину подстроки, являющуюся палиндромом. Эта задача встречалась в списке поступашек здесь, но я не помнил как она решается, поэтому пришлось думать на месте. Вначале предложил алгоритм за n^3 (просто полный перебор), чтобы потянуть время и подумать над более эффективным, а не просто молчать. Это сработало, интервьювер даже дал подсказку, намекая на динамическое программирование и я додумал алгоритм за n^2. После того как его реализовали, он предложил, в качестве доп вопроса подумать про то как можно прикрутить хеши к проверке на палиндромность и уже затем вывел на решение за n logn, думаю это просто была его инициатива, т к оставалось свободное время.
Техническое собеседование
На тех собес позвали почти сразу. В качестве первой задания дали, алго задачку на стэк. Задача заключалась в том, чтобы проверить на правильную скобочную последовательность строку, которая состояла из трех видов скобок. Далее интервьюер потребовал реализовать класс стэк на Cи. С этой задачей мне повезло, потому что она встречалась у меня на вузовском курсе. Далее дали задачу на хеш таблицы (требовалось отсортировать элементы по количеству вхождений их копий в массив), а потом поговорили про устройство unordered_map и vector.
Собеседование с командой
Через две недели после технического интервью мне пишет HR и говорит, что она согласовала финальные собеседования с двумя командами.
Собеседование с первой командой прошло в устной форме. Я не написал ни единой строчки кода. По большей части мы разговаривали про вуз, какие там курсы проходили, их тематики, про мой опыт, который, кстати, ограничивался лишь вузовскими курсами и пет проектами курса поступашек. И, соответственно, интервьюер потребовал рассказать про пару пет проектов курса (их я кстати просто скопировал, предварительно разобравшись).
Во второй команде собеседование более формально прошло, большую часть интервью мы писали код. А именно он потребовал сразу сходу реализовать lru cachе из питона аналог в c++. И оставшиеся минут 10 собеседования, лид рассказал про спектр задач, но уточнил что мест нет.
Приглашения пришли через неделю в обе команды, и я сразу решил выбрать первую команду, из-за наличия штатных мест, хотя вторая команда была поинтереснее.
@postypashki_old
Forwarded from Задачи DS - Собеседования, Соревнования, ШАД
Изи стажка в VKВидео✅️
#vk
В начало
Делюсь отзывом о стажировке от выпускника наших курсов. Учусь на 4 курсе бизнес-информатики в ВШЭ. Всё началось с моего друга, он уже работал в вк и дал контакт своего эйчара. Я отправил резюме, и через месяц мне пришла обратная связь на почту... кхе-кхе
и просьба связаться с hr. Списались в tg. Было сказано, мол будет алгоритмическая задачка и теория по ML, но я бы сузил до алгоритмическая задачка и рекомендашки
По сути вышло 3 этапа: созвон с эйчаром, тех-собес на 1.5 часа, финал с командой
Тех.собес
1.собеседующий рассказал, почему пошёл в вк (кстати, лично я кайфанул от прикольной фичи в офисе, такой как безлимитная кола(стоит автомат как в бургер кинге:), иногда засиживался на кофе-поинтах в ноуте из-за этого)
2.Алгоритмическая таска
Дан массив чисел и число k. Нужно вернуть k самых частых элементов
по решению: считаем частоту чисел через хеш-мапу, сортируем пары (число, частота) по убыванию частоты, берём первые k элементов, O(NlogN) асимптотика
3.Блок с рекомендашками
написать функцию, которая вычисляет Precision@K
пользователи часто добавляют айтемы в "смотреть позже", но не смотрят их. Как можно улучшить рекомендации?
можно ранжировать айтемы по вероятности клика(CTR, например), учитывая контекст: время, устройство и историю просмотров, после чего делать A/B-тесты и добавлять разнообразие(избегаем застревания в одной категории), повышая вовлечённость
написать формулы метрик ранжирования, которые помню(написал MAP, nDCG, MRR), обсудили ранговую корреляцию+ попросил рассказать основные подходы к построению рекомендательных систем
Финал
ребята рассказали о себе, я поделился своими пет-проектами; в целом, словили общий вайб
через 3 дня дали офер
По стажке
понравился опыт, лично я дорабатывал алгоритмы рекомендаций, крутил данные, проверял гипотезы и даже пару раз устроил небольшой баг в A/B-тестах (но быстро поправил!)
+ немного помогал внедрять фичи в бекенд
вообще, если попадёте, рекомендую ходить на митапы и задавать глупые(как вам кажется) вопросы, быстрее освоитесь:)
зп: 80к гросс, 3 месяца
@zadachi_ds_chat
#vk
В начало
Делюсь отзывом о стажировке от выпускника наших курсов. Учусь на 4 курсе бизнес-информатики в ВШЭ. Всё началось с моего друга, он уже работал в вк и дал контакт своего эйчара. Я отправил резюме, и через месяц мне пришла обратная связь на почту... кхе-кхе
Ваше резюме заинтересовало
и просьба связаться с hr. Списались в tg. Было сказано, мол будет алгоритмическая задачка и теория по ML, но я бы сузил до алгоритмическая задачка и рекомендашки
По сути вышло 3 этапа: созвон с эйчаром, тех-собес на 1.5 часа, финал с командой
Тех.собес
1.собеседующий рассказал, почему пошёл в вк (кстати, лично я кайфанул от прикольной фичи в офисе, такой как безлимитная кола(стоит автомат как в бургер кинге:), иногда засиживался на кофе-поинтах в ноуте из-за этого)
2.Алгоритмическая таска
Дан массив чисел и число k. Нужно вернуть k самых частых элементов
по решению: считаем частоту чисел через хеш-мапу, сортируем пары (число, частота) по убыванию частоты, берём первые k элементов, O(NlogN) асимптотика
3.Блок с рекомендашками
написать функцию, которая вычисляет Precision@K
def precision_at_k(recommended_items, relevant_items, K):
top_k = recommended_items[:K]
relevant_in_top_k = [item for item in top_k if item in relevant_items]
return len(relevant_in_top_k) / K if K > 0 else 0.0
пользователи часто добавляют айтемы в "смотреть позже", но не смотрят их. Как можно улучшить рекомендации?
можно ранжировать айтемы по вероятности клика(CTR, например), учитывая контекст: время, устройство и историю просмотров, после чего делать A/B-тесты и добавлять разнообразие(избегаем застревания в одной категории), повышая вовлечённость
написать формулы метрик ранжирования, которые помню(написал MAP, nDCG, MRR), обсудили ранговую корреляцию+ попросил рассказать основные подходы к построению рекомендательных систем
Финал
ребята рассказали о себе, я поделился своими пет-проектами; в целом, словили общий вайб
через 3 дня дали офер
По стажке
понравился опыт, лично я дорабатывал алгоритмы рекомендаций, крутил данные, проверял гипотезы и даже пару раз устроил небольшой баг в A/B-тестах (но быстро поправил!)
+ немного помогал внедрять фичи в бекенд
вообще, если попадёте, рекомендую ходить на митапы и задавать глупые(как вам кажется) вопросы, быстрее освоитесь:)
зп: 80к гросс, 3 месяца
@zadachi_ds_chat
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Поступашки - ШАД, Стажировки и Магистратура
Стажировка Data Science в Альфа-Банке (2025)
Выпускник нашего курса по DS поделился своим опытом стажировки. Текст немного отредактирован.
Лонг стори шорт, зашёл на страницу программы Альфа будущее, вакансии там обновляются регулярно, начал следить за позициями по DS. Через пару недель нашёл подходящую. Требования стандартные: питон, SQL, основы ml, pandas, scikit-learn, а также любой фреймворк для глубокого обучения.
Отправил резюме с github-ссылкой. Указал два проекта: предсказание цен на недвижимость на kaggle и классификатор текстов на pytorch (BERT+дообучение на датасете с отзывами). Коммерческого опыта не было. Ответили через 20 минут с тестовым заданием.
Тест: теория ml (бэггинг против бустинга, когда используется f-score и прочая мл база), SQL:
1.написать запрос с JOIN для объединения данных о клиентах и их транзакциях
2.оконная функция для расчёта скользящего среднего дохода,
pandas для обработки данных, немного статистики:
интерпретация p-value в A/B-тесте, и как определить, что разница между группами значима?
Ответил почти всё, но ошибся с масштабированием признаков для градиентного бустинга и получил недостаточный, как мне показалось, результат. Думал, что не прошёл. Но через три недели HR снова связался - мое резюме осталось в базе, и появились позиции в группе кредитного скоринга
Началось всё с собеседования с тимлидом: обсуждали мои проекты, выбор метрик, методы борьбы с переобучением. Важно было объяснить логику решений, а не просто перечислить технический стек.
На технических собеседованиях, к моему счастью, не было ничего страшного: давались практические кейсы по типу: как обрабатывать категориальные признаки с высокой кардинальностью или как работать с данными о клиентах. Никаких задач по написанию кода.
И наконец сам офер получил через пару недель, онбординг занял несколько дней.
Первые задачи были связаны с анализом качества данных: искали утечки в фичах, проверяли стабильность распределений. Потом доверили дообучение модели - нужно было аккуратно протестировать новые гиперпараметры, чтобы не сломать продакшен + пришлось много работать с SQL: писал сложные запросы к хранилищу и агрегировал данные для новых фичей.
@postypashki_old
Выпускник нашего курса по DS поделился своим опытом стажировки. Текст немного отредактирован.
Лонг стори шорт, зашёл на страницу программы Альфа будущее, вакансии там обновляются регулярно, начал следить за позициями по DS. Через пару недель нашёл подходящую. Требования стандартные: питон, SQL, основы ml, pandas, scikit-learn, а также любой фреймворк для глубокого обучения.
Отправил резюме с github-ссылкой. Указал два проекта: предсказание цен на недвижимость на kaggle и классификатор текстов на pytorch (BERT+дообучение на датасете с отзывами). Коммерческого опыта не было. Ответили через 20 минут с тестовым заданием.
Тест: теория ml (бэггинг против бустинга, когда используется f-score и прочая мл база), SQL:
1.написать запрос с JOIN для объединения данных о клиентах и их транзакциях
2.оконная функция для расчёта скользящего среднего дохода,
pandas для обработки данных, немного статистики:
интерпретация p-value в A/B-тесте, и как определить, что разница между группами значима?
Ответил почти всё, но ошибся с масштабированием признаков для градиентного бустинга и получил недостаточный, как мне показалось, результат. Думал, что не прошёл. Но через три недели HR снова связался - мое резюме осталось в базе, и появились позиции в группе кредитного скоринга
Началось всё с собеседования с тимлидом: обсуждали мои проекты, выбор метрик, методы борьбы с переобучением. Важно было объяснить логику решений, а не просто перечислить технический стек.
На технических собеседованиях, к моему счастью, не было ничего страшного: давались практические кейсы по типу: как обрабатывать категориальные признаки с высокой кардинальностью или как работать с данными о клиентах. Никаких задач по написанию кода.
И наконец сам офер получил через пару недель, онбординг занял несколько дней.
Первые задачи были связаны с анализом качества данных: искали утечки в фичах, проверяли стабильность распределений. Потом доверили дообучение модели - нужно было аккуратно протестировать новые гиперпараметры, чтобы не сломать продакшен + пришлось много работать с SQL: писал сложные запросы к хранилищу и агрегировал данные для новых фичей.
@postypashki_old