#продуктовыйаналитик #аналитик #финансы
Позиция: Продуктовый аналитик
Локация: ФГ БКС г. Москва, Проспект Мира д.69,стр 1,
Формат работы: 3 дня офис/2 удаленка
Занятость: полная
ЗП: 200k + квартальный бонус
Компания (отрасль): БКС Мир Инвестиций, (операции на фондовом рынке и финансовом рынках, управление активами, фин.консультирование)
Почему ищем: Ищем продуктового аналитика в команду продукта Персональный брокер. Мы консультируем состоятельных клиентов по рынку акций и облигаций.
Ключевые навыки:
⁃ Знание продуктовых метрик;
⁃ Мышление гипотезами и проверка гипотез данными;
⁃ Навык приоритизаций задач в соотношении с их ценностью для бизнеса;
⁃ Навык работы с SQL, умение создать витрину данных и визуализировать ее;
⁃ Саморазвитие и самообучение;
⁃ Опыт работы продуктовым аналитиком более 2-х лет;
Зона ответственности:
1. Погрузиться в данные, погрузиться в модель бизнеса и основные метрики. На основе данных предлагать гипотезы по улучшению ключевых продуктовых метрик. В этом блоке есть возможность напрямую влиять на работу продукта от гипотезы до business value внедрения успешной гипотезы; (этот стрим занимает около 60% времени)
2. Отчетность. Мы работаем в Tableau, надо поддерживать работоспособность текущих отчетов, рассчитывать новые метрики и визуализировать их; (этот стрим занимает около 15% времени)
3. Ad hock запросы (этот стрим занимает около 25% времени)
Контакты:
Telegram: Гоннов Андрей @agonnov
Позиция: Продуктовый аналитик
Локация: ФГ БКС г. Москва, Проспект Мира д.69,стр 1,
Формат работы: 3 дня офис/2 удаленка
Занятость: полная
ЗП: 200k + квартальный бонус
Компания (отрасль): БКС Мир Инвестиций, (операции на фондовом рынке и финансовом рынках, управление активами, фин.консультирование)
Почему ищем: Ищем продуктового аналитика в команду продукта Персональный брокер. Мы консультируем состоятельных клиентов по рынку акций и облигаций.
Ключевые навыки:
⁃ Знание продуктовых метрик;
⁃ Мышление гипотезами и проверка гипотез данными;
⁃ Навык приоритизаций задач в соотношении с их ценностью для бизнеса;
⁃ Навык работы с SQL, умение создать витрину данных и визуализировать ее;
⁃ Саморазвитие и самообучение;
⁃ Опыт работы продуктовым аналитиком более 2-х лет;
Зона ответственности:
1. Погрузиться в данные, погрузиться в модель бизнеса и основные метрики. На основе данных предлагать гипотезы по улучшению ключевых продуктовых метрик. В этом блоке есть возможность напрямую влиять на работу продукта от гипотезы до business value внедрения успешной гипотезы; (этот стрим занимает около 60% времени)
2. Отчетность. Мы работаем в Tableau, надо поддерживать работоспособность текущих отчетов, рассчитывать новые метрики и визуализировать их; (этот стрим занимает около 15% времени)
3. Ad hock запросы (этот стрим занимает около 25% времени)
Контакты:
Telegram: Гоннов Андрей @agonnov
Компания: Сбер
Позиции: MLOps Engineer
Направление: Построение рекомендательной платформы
Уровень: Middle/Senior
Вилки:
Middle - 175-300 тыс.руб/мес (gross)
Senior - 300-460 тыс.руб/мес (gross)
Годовой бонус: 2-4 оклада
Место: Москва/Нижний Новгород
Формат работы: гибридный, вплоть до полной удаленки, но нужно быть либо в МСК либо в НН.
Чем предстоит заниматься:
- Поддержка и развитие MLOps-платформы для построения рекомендательных систем в offline, online и NRT режимах
- Поддержка и развитие Python SDK для работы с платформой
- Написание интеграционных и unit-тестов, проведение code review
- Взаимодействие с командами DS/DevOps/SRE
Наш стек:
Airflow, MLflow, Seldon Core, Kafka, Redis, k8s, GitLab
Что нужно иметь:
- Уверенные знания в Python, Git, Docker
- Опыт работы с Airflow или его аналогами
- Опыт разработки микросервисов
- Общие знания про DevOps
Будет круто, если есть:
- Опыт проектирования или разработки MLOps платформы
- Опыт работы с рекомендательными системами
- Опыт работы с MLflow и Seldon Core
- Опыт настройки и запуска Airflow
- Понимание принципов работы и обучения ML-моделей
- Опыт разработки CI/CD пайплайнов
- Опыт обработки потоковых данных Flink/Beam/Kafka
- Опыт в Kubernetes и навыки деплоя приложений (для Senior - обязательно)
- Уверенное знание Spark
- Хорошее понимание баз данных SQL и NoSQL (для Senior - обязательно)
Описание на HH: https://hh.ru/vacancy/72700293
Резюме и отклики отправлять в телегу: https://t.me/dacapitan
Позиции: MLOps Engineer
Направление: Построение рекомендательной платформы
Уровень: Middle/Senior
Вилки:
Middle - 175-300 тыс.руб/мес (gross)
Senior - 300-460 тыс.руб/мес (gross)
Годовой бонус: 2-4 оклада
Место: Москва/Нижний Новгород
Формат работы: гибридный, вплоть до полной удаленки, но нужно быть либо в МСК либо в НН.
Чем предстоит заниматься:
- Поддержка и развитие MLOps-платформы для построения рекомендательных систем в offline, online и NRT режимах
- Поддержка и развитие Python SDK для работы с платформой
- Написание интеграционных и unit-тестов, проведение code review
- Взаимодействие с командами DS/DevOps/SRE
Наш стек:
Airflow, MLflow, Seldon Core, Kafka, Redis, k8s, GitLab
Что нужно иметь:
- Уверенные знания в Python, Git, Docker
- Опыт работы с Airflow или его аналогами
- Опыт разработки микросервисов
- Общие знания про DevOps
Будет круто, если есть:
- Опыт проектирования или разработки MLOps платформы
- Опыт работы с рекомендательными системами
- Опыт работы с MLflow и Seldon Core
- Опыт настройки и запуска Airflow
- Понимание принципов работы и обучения ML-моделей
- Опыт разработки CI/CD пайплайнов
- Опыт обработки потоковых данных Flink/Beam/Kafka
- Опыт в Kubernetes и навыки деплоя приложений (для Senior - обязательно)
- Уверенное знание Spark
- Хорошее понимание баз данных SQL и NoSQL (для Senior - обязательно)
Описание на HH: https://hh.ru/vacancy/72700293
Резюме и отклики отправлять в телегу: https://t.me/dacapitan
💣 Хотите мастерски владеть Spark?
🚀 Приглашаем дата-инженеров 13 декабря в 20:00 на открытый урок «Spark в Kubernetes» в рамках онлайн-курса «Spark Developer».
➡️ На занятии мы:
- Кратко расскажем о том, что такое Spark и Kubernetes
- Рассмотрим особенности и варианты запуска Spark в Kubernetes
- Сравним работу Spark в Kubernetus и Hadoop Yarn
➡️ Кому будет полезен урок?
- IT-специалистам, которые хотят перейти в Big Data
- Начинающим дата-инженерам, желающим углубить свои знания в профессии
- Тем, кто самостоятельно изучает технологии Big Data
🦾 Вебинар проведет Вадим Опольский, Scala Big Data разработчик в Luxoft DXC Technology. Продолжить освоение инструментов дата-инжиниринга вы сможете на онлайн-курсе в OTUS.
💻 Пройдите вступительный тест для регистрации на урок: https://otus.pw/gSAp/
🚀 Приглашаем дата-инженеров 13 декабря в 20:00 на открытый урок «Spark в Kubernetes» в рамках онлайн-курса «Spark Developer».
➡️ На занятии мы:
- Кратко расскажем о том, что такое Spark и Kubernetes
- Рассмотрим особенности и варианты запуска Spark в Kubernetes
- Сравним работу Spark в Kubernetus и Hadoop Yarn
➡️ Кому будет полезен урок?
- IT-специалистам, которые хотят перейти в Big Data
- Начинающим дата-инженерам, желающим углубить свои знания в профессии
- Тем, кто самостоятельно изучает технологии Big Data
🦾 Вебинар проведет Вадим Опольский, Scala Big Data разработчик в Luxoft DXC Technology. Продолжить освоение инструментов дата-инжиниринга вы сможете на онлайн-курсе в OTUS.
💻 Пройдите вступительный тест для регистрации на урок: https://otus.pw/gSAp/
#vacancy #вакансия #job #fulltime #удаленка #remote #SQL #Data #analyst #Python #Tableau #growth #product
🔗Senior Growth Analyst
— Company: Chatfuel (USA)
— Format: Full-time, remote
Chatfuel — одна из крупнейших платформ для создания чат-ботов и официальный партнер Meta. Мы помогаем бизнесу автоматизировать клиентскую поддержку и увеличивать продажи. Сейчас на нашей платформе более 7 млн пользователей и 350 000 ботов, среди которых Audi, Adidas, Mercedes Benz, T-Mobile, MTV, TechCrunch, LEGO, Golden State Warriors и другие.
У нас сильная, драйвовая, интернациональная команда, интересные амбициозные задачи, большие перспективы. Сейчас мы расширяем географию присутствия на новых рынках и ищем в команду лучших коллег.
Мы лучшая компания для Growth Analyst, потому что:
-У нас большой стек интересных и амбициозных задач с большой зоной ответственности.
-Growth - ключевое направление прямо сейчас, куда собирается очень сильная рабочая группа, вместе с которой мы завоюем новые рынки.
-Свобода для самостоятельного поиска новых точек роста - вы будете важной частью growth команды и будете видеть свой вклад.
-У нас уже много данных, так что вы сможете влиять на все связанные с данными задачи.
-Результат вашей работы будет напрямую влиять на бизнес и рост компании.
Требования:
-Опыт работы от 3-х лет.
-Опыт работы с SQL, Python, Tableau (BI).
-Опыт работы с Google Cloud, MongoDB, Git, Apache Airflow или аналогичными продуктами будет преимуществом.
-Умение применять теорию вероятности и статистику на практике.
-Математическое/аналитическое образование будет преимуществом.
-Понимание unit-экономики и продуктовых метрик, общие знания веб-технологий.
-Опыт работы с комплексным анализом продукта и customer journey.
-Способность быстро собирать необходимые данные и принимать решения на их основе.
Основные обязанности:
-Проактивный поиск инсайтов и генерация гипотез роста бизнеса, а также их оценка с точки зрения ценности для бизнеса.
-Самостоятельный поиск точек роста вдоль текущей воронки.
-Построение и внедрение регулярного процесса тестирования гипотез.
Почему мы:
-Вы станете частью по-настоящему сильной, заряженной на результат команды.
-Наш продукт помогает людям и компаниям внедрять автоматизацию и получать отличные результаты в бизнесе.
-Вы будете непосредственно ощущать свой вклад в развитие компании и продукта.
-Мы заботимся о своих сотрудниках и создаем комфортные условия для работы: удаленная работа, медицинское страхование.
-Вы окажетесь на острие технологий и раньше других станете экспертом в индустрии чат-ботов, у которой большое будущее.
Контакт для связи: @aidanabisseken
🔗Senior Growth Analyst
— Company: Chatfuel (USA)
— Format: Full-time, remote
Chatfuel — одна из крупнейших платформ для создания чат-ботов и официальный партнер Meta. Мы помогаем бизнесу автоматизировать клиентскую поддержку и увеличивать продажи. Сейчас на нашей платформе более 7 млн пользователей и 350 000 ботов, среди которых Audi, Adidas, Mercedes Benz, T-Mobile, MTV, TechCrunch, LEGO, Golden State Warriors и другие.
У нас сильная, драйвовая, интернациональная команда, интересные амбициозные задачи, большие перспективы. Сейчас мы расширяем географию присутствия на новых рынках и ищем в команду лучших коллег.
Мы лучшая компания для Growth Analyst, потому что:
-У нас большой стек интересных и амбициозных задач с большой зоной ответственности.
-Growth - ключевое направление прямо сейчас, куда собирается очень сильная рабочая группа, вместе с которой мы завоюем новые рынки.
-Свобода для самостоятельного поиска новых точек роста - вы будете важной частью growth команды и будете видеть свой вклад.
-У нас уже много данных, так что вы сможете влиять на все связанные с данными задачи.
-Результат вашей работы будет напрямую влиять на бизнес и рост компании.
Требования:
-Опыт работы от 3-х лет.
-Опыт работы с SQL, Python, Tableau (BI).
-Опыт работы с Google Cloud, MongoDB, Git, Apache Airflow или аналогичными продуктами будет преимуществом.
-Умение применять теорию вероятности и статистику на практике.
-Математическое/аналитическое образование будет преимуществом.
-Понимание unit-экономики и продуктовых метрик, общие знания веб-технологий.
-Опыт работы с комплексным анализом продукта и customer journey.
-Способность быстро собирать необходимые данные и принимать решения на их основе.
Основные обязанности:
-Проактивный поиск инсайтов и генерация гипотез роста бизнеса, а также их оценка с точки зрения ценности для бизнеса.
-Самостоятельный поиск точек роста вдоль текущей воронки.
-Построение и внедрение регулярного процесса тестирования гипотез.
Почему мы:
-Вы станете частью по-настоящему сильной, заряженной на результат команды.
-Наш продукт помогает людям и компаниям внедрять автоматизацию и получать отличные результаты в бизнесе.
-Вы будете непосредственно ощущать свой вклад в развитие компании и продукта.
-Мы заботимся о своих сотрудниках и создаем комфортные условия для работы: удаленная работа, медицинское страхование.
-Вы окажетесь на острие технологий и раньше других станете экспертом в индустрии чат-ботов, у которой большое будущее.
Контакт для связи: @aidanabisseken
NLP Engineer (Middle / Senior) в Сбер. Москва, удаленки нет. 170-350 net + годовая премия (2-4 оклада).
Задачи команды:
— Разработка моделей мультиязычного перевода (про RL в SberTranslator рассказывали на AIJ2022)
— Распознавание и генерация речи
— Обучение моделей с использованием RL, Active Learning
— Мультимодальные сервисы и продукты (например, анализ выступления спикера с рекомендациями)
— Разработка моделей контролируемой генерации текста (CTG / Text Style Transfer / Summarization)
— Разработка моделей для извлечения сущностей из текстов / сканов / фото
Что требуется:
— Python, PyTorch, Docker, Transformers
— Ведение проектов End2End (от общения с заказчиком до подготовки модели ко внедрению)
— Понимание методов оптимизации и ускорения моделей для прода (прунинг, квантование, onnx)
— Способность оценить качество созданной модели, понимание плюсов/минусов той или иной метрики для конкретной задачи.
Будет плюсом:
— Обучение моделей NLP через RL
— Опыт работы со звуком / речью (Nemo, Vosk, HF)
Контакты: @oxana_y
Задачи команды:
— Разработка моделей мультиязычного перевода (про RL в SberTranslator рассказывали на AIJ2022)
— Распознавание и генерация речи
— Обучение моделей с использованием RL, Active Learning
— Мультимодальные сервисы и продукты (например, анализ выступления спикера с рекомендациями)
— Разработка моделей контролируемой генерации текста (CTG / Text Style Transfer / Summarization)
— Разработка моделей для извлечения сущностей из текстов / сканов / фото
Что требуется:
— Python, PyTorch, Docker, Transformers
— Ведение проектов End2End (от общения с заказчиком до подготовки модели ко внедрению)
— Понимание методов оптимизации и ускорения моделей для прода (прунинг, квантование, onnx)
— Способность оценить качество созданной модели, понимание плюсов/минусов той или иной метрики для конкретной задачи.
Будет плюсом:
— Обучение моделей NLP через RL
— Опыт работы со звуком / речью (Nemo, Vosk, HF)
Контакты: @oxana_y
Знакомые из Ozon принесли интересную вакансию — руководитель группы Data Engineer
Ребята ищут человека в команду DE Platform, которая выстраивает инфраструктуру для интеграции бизнеса и BI-систем. Эта же команда помогает в Ozon решать задачи по технологическому развитию инструментов и инфраструктуры вокруг данных
Задачи:
- Формрование и управление командой из 5-10 человек
- Построение архитектуры системы: развивать и поддерживать транспорт данных, планировать архитектурное развитие проектов
- Планирование работы (по спринтам, месяцам, кварталам)
- Организация работы со смежными командами
- Реализовать мониторинг, алертинг, анализ логов сервисов, анализ метрик БД и сервисов
- Оптимизация запросов (Vertica и Clickhouse)
- Airflow (написание новых ETL-процессов и рефакторинг старых)
Требования: Java, Hadoop (hafs, yarn, hive); СУБД (Postgres, MS SQL); аналитические БД (Vertica, Clickhouse, Bigquery); опыт работы с Kubernetes, Kafka, GIT, KV-хранилища; плюсом будет опыт работы с Prometheus, Grafana, Scala, Airflow
Условия:
- Удалёнка или офис (или гибрид);
- Система менторства, адаптации, обучения;
- ДМС (+ стоматология)
- Скидки на спорт и изучение английского
- Корпоративные клубы (киберспорт, кино, рисование, настолки, спорт, etc.)
- Помощь в отсрочке
- DevRel-команда и сильное сообщество
💬Отклик можно оставить на сайте или написать напрямую Рите @margo1_ozon
Ребята ищут человека в команду DE Platform, которая выстраивает инфраструктуру для интеграции бизнеса и BI-систем. Эта же команда помогает в Ozon решать задачи по технологическому развитию инструментов и инфраструктуры вокруг данных
Задачи:
- Формрование и управление командой из 5-10 человек
- Построение архитектуры системы: развивать и поддерживать транспорт данных, планировать архитектурное развитие проектов
- Планирование работы (по спринтам, месяцам, кварталам)
- Организация работы со смежными командами
- Реализовать мониторинг, алертинг, анализ логов сервисов, анализ метрик БД и сервисов
- Оптимизация запросов (Vertica и Clickhouse)
- Airflow (написание новых ETL-процессов и рефакторинг старых)
Требования: Java, Hadoop (hafs, yarn, hive); СУБД (Postgres, MS SQL); аналитические БД (Vertica, Clickhouse, Bigquery); опыт работы с Kubernetes, Kafka, GIT, KV-хранилища; плюсом будет опыт работы с Prometheus, Grafana, Scala, Airflow
Условия:
- Удалёнка или офис (или гибрид);
- Система менторства, адаптации, обучения;
- ДМС (+ стоматология)
- Скидки на спорт и изучение английского
- Корпоративные клубы (киберспорт, кино, рисование, настолки, спорт, etc.)
- Помощь в отсрочке
- DevRel-команда и сильное сообщество
💬Отклик можно оставить на сайте или написать напрямую Рите @margo1_ozon
Искать, адаптировать или самостоятельно готовить дополнительные материалы: конспекты, мануалы, статьи, видео.
Учитывать рекомендации наших методистов.
Вместе с командой авторов, редакторов, иллюстраторов придумывать образовательные механики, фишки и прочее — всё, что сделает наш курс лучшим.
Чтобы откликнуться на вакансию, высылай свое резюме
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Viktoriya Rarog
Создательница КПД, веду канал @rarozhek
🟣 Как управлять данными и моделями с помощью DVC?
🟥 Узнайте 21 декабря в 18:00 на открытом уроке онлайн-курса «MLOps» в OTUS.
👉 Кому будет полезен этот урок:
— Дата-сайентистам, которые хотят научиться выводить свои модели в прод
— Дата-инженерам, которые обеспечивают версионирование данных
— ML-инженерам, решающим проблемы хранения и версионирования моделей
👉 В результате вебинара вы научитесь:
— Настраивать в git репозитории DVC и хранить артефакты на S3
— Переключаться между версиями артефактов и загружать их во внешнее хранилище
— Создавать воспроизводимые конвейеры обучения моделей с помощью DVC Pipelines
💻 Спикер — преподаватель Павел Филонов, Ex-Data Science Manager в Kaspersky.
👉Перед занятием пройдите вступительный тест — https://otus.pw/NA3g/
❗️Новогодняя распродажа! Скидки -23% на все курсы! Предложение ограничено!
Реклама. Информация о рекламодателе на сайте www.otus.ru.
👉 Кому будет полезен этот урок:
— Дата-сайентистам, которые хотят научиться выводить свои модели в прод
— Дата-инженерам, которые обеспечивают версионирование данных
— ML-инженерам, решающим проблемы хранения и версионирования моделей
👉 В результате вебинара вы научитесь:
— Настраивать в git репозитории DVC и хранить артефакты на S3
— Переключаться между версиями артефактов и загружать их во внешнее хранилище
— Создавать воспроизводимые конвейеры обучения моделей с помощью DVC Pipelines
💻 Спикер — преподаватель Павел Филонов, Ex-Data Science Manager в Kaspersky.
👉Перед занятием пройдите вступительный тест — https://otus.pw/NA3g/
❗️Новогодняя распродажа! Скидки -23% на все курсы! Предложение ограничено!
Реклама. Информация о рекламодателе на сайте www.otus.ru.
Please open Telegram to view this post
VIEW IN TELEGRAM
Компания: Сбер, Лаборатория Искусственного Интеллекта
Город: Москва (гибридный график/ офис метро Кутузовская)
Junior+/ Middle ML Researcher в Med группу
Вилка: 190 - 250 т.р. (+ годовая премия)
Город: Москва (гибридный график/ офис метро Кутузовская)
Чем вы будете заниматься:
• Исследования и создание прототипов решений на основе машинного обучения;
• Анализ передовых научных работ;
• Написание статей, описывающих ваши достижения;
• В основном вакансия предполагает работу с медицинскими изображениями и сигналами.
Требования
• Высшее техническое образование (неоконченное высшее тоже обсуждаемо);
• Хорошая подготовка в области математики и алгоритмов;
• Глубокое понимание хотя бы одной из областей искусственного интеллекта;
• Знание теории вероятностей, математического анализа, линейной алгебры;
• Умение и желание изобретать алгоритмы, основанные на новых идеях;
• Опыт исследований;
• Опыт написания научных статей, наличие публикаций;
• Опыт успешного участия в конкурсах, таких как Kaggle;
• Хорошее знание Python, C++ или Java;
• Опыт использования Pytorch.
Условия
• Профессиональный коллектив (авторы статей на конференции A\A*, мастера Kaggle);
• Гибкий график (можно удаленно 1-2 дня в неделю);
• Конкурентный уровень заработной платы, а также годовые премии по результатам работы; ДМС с первого дня работы
Оставить свой отклик можно по ссылке https://sberailab.huntflow.io/vacancy/ml-researcher-v-med-gruppu-2 задать вопросы по вакансии можно рекрутеру в телеграм: @Oxana_Y
Город: Москва (гибридный график/ офис метро Кутузовская)
Junior+/ Middle ML Researcher в Med группу
Вилка: 190 - 250 т.р. (+ годовая премия)
Город: Москва (гибридный график/ офис метро Кутузовская)
Чем вы будете заниматься:
• Исследования и создание прототипов решений на основе машинного обучения;
• Анализ передовых научных работ;
• Написание статей, описывающих ваши достижения;
• В основном вакансия предполагает работу с медицинскими изображениями и сигналами.
Требования
• Высшее техническое образование (неоконченное высшее тоже обсуждаемо);
• Хорошая подготовка в области математики и алгоритмов;
• Глубокое понимание хотя бы одной из областей искусственного интеллекта;
• Знание теории вероятностей, математического анализа, линейной алгебры;
• Умение и желание изобретать алгоритмы, основанные на новых идеях;
• Опыт исследований;
• Опыт написания научных статей, наличие публикаций;
• Опыт успешного участия в конкурсах, таких как Kaggle;
• Хорошее знание Python, C++ или Java;
• Опыт использования Pytorch.
Условия
• Профессиональный коллектив (авторы статей на конференции A\A*, мастера Kaggle);
• Гибкий график (можно удаленно 1-2 дня в неделю);
• Конкурентный уровень заработной платы, а также годовые премии по результатам работы; ДМС с первого дня работы
Оставить свой отклик можно по ссылке https://sberailab.huntflow.io/vacancy/ml-researcher-v-med-gruppu-2 задать вопросы по вакансии можно рекрутеру в телеграм: @Oxana_Y
💻 Навык работы с большими данными открывает путь в ведущие IT-корпорации. Обычно такие корпорации используют MLOps — способ повышения производительности и создания надежных моделей корпоративного уровня.
📊 Занимаетесь дата-инжинирингом и хотите выйти на новый уровень? Эксперты топовых компаний обучат вас необходимым навыкам на практическом онлайн-курсе «MLOps» от OTUS.
👉 Определите свой уровень подготовки с помощью теста — https://otus.pw/2hfl/
🔥 Пройдете тест, получите велкам-скидку и доступ к 2 предстоящим открытым урокам:
✔️ Управление данными и моделями с помощью DVC
✔️ MLFlow и переобучение ML-моделей
❗️Сейчас действуют новогодние скидки! Возможна оплата в рассрочку!
Реклама. Информация о рекламодателе на сайте www.otus.ru
📊 Занимаетесь дата-инжинирингом и хотите выйти на новый уровень? Эксперты топовых компаний обучат вас необходимым навыкам на практическом онлайн-курсе «MLOps» от OTUS.
👉 Определите свой уровень подготовки с помощью теста — https://otus.pw/2hfl/
🔥 Пройдете тест, получите велкам-скидку и доступ к 2 предстоящим открытым урокам:
✔️ Управление данными и моделями с помощью DVC
✔️ MLFlow и переобучение ML-моделей
❗️Сейчас действуют новогодние скидки! Возможна оплата в рассрочку!
Реклама. Информация о рекламодателе на сайте www.otus.ru
28 декабря в 19:00 (GMT +4) пройдет митап для тимлидов от канала Self-help desk!
Оксана Залеткина и Анна Шарова обсудят необходимость подведения ретроспективы даже когда в работе команды все хорошо, а также правильную работу с обратной связью. Участников ждет разбор реальных кейсов, а также полезные материалы, которые можно применять в работе с собственными командами.
Участие бесплатное, но необходимо зарегистрироваться.
Оксана Залеткина и Анна Шарова обсудят необходимость подведения ретроспективы даже когда в работе команды все хорошо, а также правильную работу с обратной связью. Участников ждет разбор реальных кейсов, а также полезные материалы, которые можно применять в работе с собственными командами.
Участие бесплатное, но необходимо зарегистрироваться.
Нужен разработчик скрипта для следующей задачи с API Гугл диск.
Есть доступ (база данных в виде ссылок) к различным Гугл дискам в которых размещены объявления с фотографиями квартир по различным ценам.
Вреди этого большого числа ссылок от различных авторов встречаются одинаковые объекты (квартиры, фото квартир) с разными ценами.
То есть, разные поставщики могут предлагать одну и ту же квартиру , с одними и теми же данными и фотографиями но разными ценами.
Приходится всех пересматривать , чтобы найти первоисточник по самой низкой цене, среди кучи перекупов.
Задача: сделать скрипт с помощью которого, можно по параметрам или изображению отфильтровать в отдельный список.
Надеюсь, что у меня получилось описать суть задачи. Буду рад, если найдется такой специалист.
Пишите на @EugenyStefeykin
Есть доступ (база данных в виде ссылок) к различным Гугл дискам в которых размещены объявления с фотографиями квартир по различным ценам.
Вреди этого большого числа ссылок от различных авторов встречаются одинаковые объекты (квартиры, фото квартир) с разными ценами.
То есть, разные поставщики могут предлагать одну и ту же квартиру , с одними и теми же данными и фотографиями но разными ценами.
Приходится всех пересматривать , чтобы найти первоисточник по самой низкой цене, среди кучи перекупов.
Задача: сделать скрипт с помощью которого, можно по параметрам или изображению отфильтровать в отдельный список.
Надеюсь, что у меня получилось описать суть задачи. Буду рад, если найдется такой специалист.
Пишите на @EugenyStefeykin
#job #работа #blockchain #data #vanacy #engineer
Company: TeleQT
Postion: LEAD Data Engineer
💰Salary: 5.000 - 8.000 $
Full-time, remote
Responsibilities:
Leading the data architecture development for the analytics solution in blockchain domain
Designing and building fast and scalable analytics pipelines, queries, and appropriate infrastructure
Solving complex tasks in self-sufficient manner
Requirements:
Stack:
Linux, SQL, ClickHouse, PostgreSQL, Python, AWS
- Solid experience in ETL/DWH architecture and development
- Broad knowledge of different data processing solutions and ecosystems
- Collaboration skills and working with minimum supervision
- English intermediate
Conditions:
- Remote work;
- Joining during the company expansion with great growth and carrier opportunities and opportunity to receive shares of the company;
- Salary based on interview results;
- Medical insurance;
📩 Contacts:
@sweetietalent
Company: TeleQT
Postion: LEAD Data Engineer
💰Salary: 5.000 - 8.000 $
Full-time, remote
Responsibilities:
Leading the data architecture development for the analytics solution in blockchain domain
Designing and building fast and scalable analytics pipelines, queries, and appropriate infrastructure
Solving complex tasks in self-sufficient manner
Requirements:
Stack:
Linux, SQL, ClickHouse, PostgreSQL, Python, AWS
- Solid experience in ETL/DWH architecture and development
- Broad knowledge of different data processing solutions and ecosystems
- Collaboration skills and working with minimum supervision
- English intermediate
Conditions:
- Remote work;
- Joining during the company expansion with great growth and carrier opportunities and opportunity to receive shares of the company;
- Salary based on interview results;
- Medical insurance;
📩 Contacts:
@sweetietalent
🚀 Один из важнейших инструментов MLOps — это MLFlow.
▶️ 12 января в 20:00 мск в рамках онлайн-курса MLOps от OTUS пройдёт открытый урок «MLFlow и переобучение ML-моделей».
✅ На открытом уроке вы узнаете:
🔹 Как экспериментировать сразу с несколькими ML-моделями, с разными гиперпараметрами и при этом не захлебнуться в разнообразии экспериментов.
🔹 Как, проводя регулярное переобучение, получить возможность сравнивать качество работы моделей и выбирать лучший результат.
🔹 Как не потерять накопленный опыт и воспроизводить более ранние эксперименты.
🔹 Как выбирать лучшие варианты для отправки в Prod / Staging среду, при этом делиться информацией и принимать совместное решение в команде.
💻 Спикером выступит преподаватель OTUS Данила Слепов. Он проектирует AI-системы, разрабатывает архитектуру MLOps платформ.
➡️ Для регистрации на вебинар пройдите вступительный тест: https://otus.pw/xAdm/
Реклама. Информация о рекламодателе на сайте www.otus.ru.
✅ На открытом уроке вы узнаете:
🔹 Как экспериментировать сразу с несколькими ML-моделями, с разными гиперпараметрами и при этом не захлебнуться в разнообразии экспериментов.
🔹 Как, проводя регулярное переобучение, получить возможность сравнивать качество работы моделей и выбирать лучший результат.
🔹 Как не потерять накопленный опыт и воспроизводить более ранние эксперименты.
🔹 Как выбирать лучшие варианты для отправки в Prod / Staging среду, при этом делиться информацией и принимать совместное решение в команде.
💻 Спикером выступит преподаватель OTUS Данила Слепов. Он проектирует AI-системы, разрабатывает архитектуру MLOps платформ.
Реклама. Информация о рекламодателе на сайте www.otus.ru.
Please open Telegram to view this post
VIEW IN TELEGRAM
Всем привет!
Sputnik8.com в поисках Data Engineer!
💰Зарплатная вилка: 160 000 - 250 000р на руки (открыты к обсуждению)
📍Локация: г. Санкт-Петербург, ст.м. Василеостровская
💻Формат: полная занятость, удаленка (можно не из РФ) / гибрид / офис - как удобно:)
Мы — крупнейший сервис бронирования экскурсий по всему миру! Наша команда состоит из 100 человек, офис в Санкт-Петербурге. Мы международная, аккредитованная IT компания и быстро растем, каждый год увеличиваемся в 2 раза📈
Направления работы:
Заниматься поддержкой и развитием существующей инфраструктуры с Greenplum:
- помогать в выстраивании сквозной аналитики
- добавлять источники мобильного приложения в общую экосистему
- строить сложные витрины данных с нуля
- готовить данные для аналитиков
- data quality
Позднее планируем расширение отдела аналитики. Мы будем искать ещё Data engineer, поэтому будет возможен рост до роли Lead.
Что мы ждем от кандидата:
- опыт с Postgresql или Greenplum от 2 лет и больше
- опыт коммерческой разработки на Python
- SQL - опыт создания таблиц и сложных запросов
- опыт с Airflow или аналогами (Luigi, Apache NiFi, Prefect)
- опыт администрирования баз данных
- опыт поддержки инфраструктуры данных (аналитические базы данных, ETL-инструменты, BI-инструменты)
Немного о нас:
- Мы за гибкость: работаем по OKR и методологиям 🤾♂️
- Психологически здоровая среда: открытое и равное общение, чувство плеча, человечность в приоритете 👬
- Говорим "да!" обучению и внешнему менторству. Оплачиваем книги и курсы 🧑🎓
- Сами тоже много путешествуем! Зимой дружно сбегаем из серого Питера в теплые страны. В этом году наш выездной офис проходит в Турции 🌴
Резюме и вопросы сюда: t.me/Tatiana_Dolgoarshinnykh 🙃
Sputnik8.com в поисках Data Engineer!
💰Зарплатная вилка: 160 000 - 250 000р на руки (открыты к обсуждению)
📍Локация: г. Санкт-Петербург, ст.м. Василеостровская
💻Формат: полная занятость, удаленка (можно не из РФ) / гибрид / офис - как удобно:)
Мы — крупнейший сервис бронирования экскурсий по всему миру! Наша команда состоит из 100 человек, офис в Санкт-Петербурге. Мы международная, аккредитованная IT компания и быстро растем, каждый год увеличиваемся в 2 раза📈
Направления работы:
Заниматься поддержкой и развитием существующей инфраструктуры с Greenplum:
- помогать в выстраивании сквозной аналитики
- добавлять источники мобильного приложения в общую экосистему
- строить сложные витрины данных с нуля
- готовить данные для аналитиков
- data quality
Позднее планируем расширение отдела аналитики. Мы будем искать ещё Data engineer, поэтому будет возможен рост до роли Lead.
Что мы ждем от кандидата:
- опыт с Postgresql или Greenplum от 2 лет и больше
- опыт коммерческой разработки на Python
- SQL - опыт создания таблиц и сложных запросов
- опыт с Airflow или аналогами (Luigi, Apache NiFi, Prefect)
- опыт администрирования баз данных
- опыт поддержки инфраструктуры данных (аналитические базы данных, ETL-инструменты, BI-инструменты)
Немного о нас:
- Мы за гибкость: работаем по OKR и методологиям 🤾♂️
- Психологически здоровая среда: открытое и равное общение, чувство плеча, человечность в приоритете 👬
- Говорим "да!" обучению и внешнему менторству. Оплачиваем книги и курсы 🧑🎓
- Сами тоже много путешествуем! Зимой дружно сбегаем из серого Питера в теплые страны. В этом году наш выездной офис проходит в Турции 🌴
Резюме и вопросы сюда: t.me/Tatiana_Dolgoarshinnykh 🙃
1. Продуктовый аналитик: https://practicum.yandex.ru/promo/hr/product-analyst-team
2. Системный аналитик: https://practicum.yandex.ru/promo/hr/systems-analyst
3. Growth аналитик: https://practicum.yandex.ru/promo/hr/analyst-business-development-team
Все три вакансии с возможностью работать удаленно 🙂
Контакт для связи – @rinniegromova
Please open Telegram to view this post
VIEW IN TELEGRAM
Team Lead DS NLP
Компания: Сбер
Вакансия: Lead NLP Engineer в SberIDP, SberDevices
Локация: Москва
Стек: DL, NLP, NER
Формат работы: офис
Уровень дохода: 300 000 – 400 000р на руки, годовой бонус до 6 окладов
Наша NLP команда занимается задачами, связанными с интеллектуальной обработкой документов, созданием систем извлечения информации из текста документов (NER, QA, MRC) а также их классификацией.
Главной задачей для нас является создание No-code (AutoML) инструментов, которые позволят бизнесу быстро создавать необходимые сервисы по извлечению информации из неструктурированного контента в режиме self-service.
Для решения этих и других задач наша команда активно проводит RnD в области few- и zero-shot а также мультимодальных подходов (Layout-LM like), в частности сейчас собираем RusDocVQA датасет (аналог), чтобы фундаментально изменить подход к извлечению информации из любого документа.В нашем управлении мы стараемся сделать замкнутый цикл MLOps (от разметки до прома) - команда разработчиков помогает с инструментами разметки, верификации и дообучения моделей, а команда CV создает собственный нейросетевой OCR, который распознает практически любую информацию (от рукописки до таблиц) и уже является одним из лучших на рынке для русского языка (SberOCR).Мы ждем заинтересованных в NLP коллег, которым интересно не только RnD, но и создание E2E систем которые могут постоянно дообучаться и повышать свое качество для целевых бизнес задач.
Задачи:
• Руководство командой ML-Engineer’ов (до 7 человек)
• Развитие собственного фреймворка для NLP и NER задач - AutoNER
• Research Zero- и Few-shot NER, Active Learning, MRC и другие модные способы обучения и дообучения на маленьких датасетах
• Разработка AutoML сервиса на основе AutoNER для подбора процесса обучения на основе данных
• Предобучение мультимодальных языков моделей на русском
• Организация и автоматизация процесса разметки (от поиска данных до првоерки качества за crowdsource разметкой)
• Релизы новых моделей в среды исполнения.
Наши ожидания:
• Отличное знание одного PyTorch, Numpy, Sklearn, Pandas
• Опыт разработки/обучения/внедрения одной или нескольких типов моделей: Text classification, NER, QA
• Хорошее знание классического и нейросетевого NLP
• Хорошее знание алгоритмов и структур данных
• Python3, ООП, SOLID,
• MLOps: Git, Docker, MLFlow/DVC/ClearML, Airflow
• Желание изучать новые подходы, модели и технологии
Наши выступления и статьи:
https://www.youtube.com/watch?v=jYo9lPzq4AQ
https://www.youtube.com/watch?v=JvkeSj0ydlk
https://www.youtube.com/watch?v=B4qZCE3llKk&t=483s
https://habr.com/ru/company/sberbank/blog/649609/
Мы готовы предложить:
· ипотека выгоднее для каждого сотрудника и льготные условия кредитования;
· бесплатная подписка СберПрайм+;
· скидки на продукты компаний-партнеров: Okko, Сбер Маркет, Delivery Club, Самокат, Ситимобил, Сбер Еаптека и другие;
· ДМС с первого дня и льготное страхование для близких;
· корпоративная пенсионная программа;
· курсы для будущих родителей, материальная поддержка и тематическое сообщество для молодых мам;
· детский отдых и подарки за счет Компании;
· обучение за счет Компании: онлайн курсы в Виртуальной школе Сбера и неограниченный доступ к библиотеке, обучение в Корпоративном университете, тренинги, митапы и возможность получить новую квалификацию;
· реферальная программа для сотрудников: можно пригласить в команду знакомых профессионалов и получить вознаграждение до 100 тыс. рублей;
· скидки на отдых в лучшем в мире курортном комплексе «Mriya Resort & SPA» в Ялте.
Контакты для связи @TNemkovskaya TDNemkovskaya@sberbank.ru
Компания: Сбер
Вакансия: Lead NLP Engineer в SberIDP, SberDevices
Локация: Москва
Стек: DL, NLP, NER
Формат работы: офис
Уровень дохода: 300 000 – 400 000р на руки, годовой бонус до 6 окладов
Наша NLP команда занимается задачами, связанными с интеллектуальной обработкой документов, созданием систем извлечения информации из текста документов (NER, QA, MRC) а также их классификацией.
Главной задачей для нас является создание No-code (AutoML) инструментов, которые позволят бизнесу быстро создавать необходимые сервисы по извлечению информации из неструктурированного контента в режиме self-service.
Для решения этих и других задач наша команда активно проводит RnD в области few- и zero-shot а также мультимодальных подходов (Layout-LM like), в частности сейчас собираем RusDocVQA датасет (аналог), чтобы фундаментально изменить подход к извлечению информации из любого документа.В нашем управлении мы стараемся сделать замкнутый цикл MLOps (от разметки до прома) - команда разработчиков помогает с инструментами разметки, верификации и дообучения моделей, а команда CV создает собственный нейросетевой OCR, который распознает практически любую информацию (от рукописки до таблиц) и уже является одним из лучших на рынке для русского языка (SberOCR).Мы ждем заинтересованных в NLP коллег, которым интересно не только RnD, но и создание E2E систем которые могут постоянно дообучаться и повышать свое качество для целевых бизнес задач.
Задачи:
• Руководство командой ML-Engineer’ов (до 7 человек)
• Развитие собственного фреймворка для NLP и NER задач - AutoNER
• Research Zero- и Few-shot NER, Active Learning, MRC и другие модные способы обучения и дообучения на маленьких датасетах
• Разработка AutoML сервиса на основе AutoNER для подбора процесса обучения на основе данных
• Предобучение мультимодальных языков моделей на русском
• Организация и автоматизация процесса разметки (от поиска данных до првоерки качества за crowdsource разметкой)
• Релизы новых моделей в среды исполнения.
Наши ожидания:
• Отличное знание одного PyTorch, Numpy, Sklearn, Pandas
• Опыт разработки/обучения/внедрения одной или нескольких типов моделей: Text classification, NER, QA
• Хорошее знание классического и нейросетевого NLP
• Хорошее знание алгоритмов и структур данных
• Python3, ООП, SOLID,
• MLOps: Git, Docker, MLFlow/DVC/ClearML, Airflow
• Желание изучать новые подходы, модели и технологии
Наши выступления и статьи:
https://www.youtube.com/watch?v=jYo9lPzq4AQ
https://www.youtube.com/watch?v=JvkeSj0ydlk
https://www.youtube.com/watch?v=B4qZCE3llKk&t=483s
https://habr.com/ru/company/sberbank/blog/649609/
Мы готовы предложить:
· ипотека выгоднее для каждого сотрудника и льготные условия кредитования;
· бесплатная подписка СберПрайм+;
· скидки на продукты компаний-партнеров: Okko, Сбер Маркет, Delivery Club, Самокат, Ситимобил, Сбер Еаптека и другие;
· ДМС с первого дня и льготное страхование для близких;
· корпоративная пенсионная программа;
· курсы для будущих родителей, материальная поддержка и тематическое сообщество для молодых мам;
· детский отдых и подарки за счет Компании;
· обучение за счет Компании: онлайн курсы в Виртуальной школе Сбера и неограниченный доступ к библиотеке, обучение в Корпоративном университете, тренинги, митапы и возможность получить новую квалификацию;
· реферальная программа для сотрудников: можно пригласить в команду знакомых профессионалов и получить вознаграждение до 100 тыс. рублей;
· скидки на отдых в лучшем в мире курортном комплексе «Mriya Resort & SPA» в Ялте.
Контакты для связи @TNemkovskaya TDNemkovskaya@sberbank.ru
#вакансия #job #dba #bigdata
🥚 Компания: МТС Big Data
💡 Позиция: DBA в Managed Services
💼 Формат работы: full-time, гибрид/офис
📍 Локация: Москва
🔎 Суть продукта:
Наша команда занимается разворачиванием и поддержкой аналитических СУБД как сервис. Планируем интегрировать наши услуги в облачный сервис МТС. Платформа должна стать частью глобального облачного сервиса, который составит конкуренцию существующим на рынке облачным managed решениям, таким как AWS, GCP, Yandex и другие.
В настоящий момент мы сосредоточились на внедрении в корпоративный ландшафт и развитии MPP СУБД Greenplum, а также Postgres и ClickHouse и ищем опытных специалистов для дальнейшего развития команды в этих направлениях.
✅ Чем предстоит заниматься:
- Полный цикл сопровождения RDBMS (Greenplum, Postgres, etc.)
- Внедрение Greenplum/ClickHouse as a service в облако МТС
- Сопровождение миграции корпоративного аналитического хранилища из Teradata в Greenplum
❗️ Кого мы ищем:
- Опыт работы с Linux. Понимание архитектуры сети, навыки диагностики проблем
- Опыт эксплуатации СУБД PostgreSQL
- Опыт работы с системами управления конфигураций (Terraform, Ansible, etc.)
- Опыт написания и оптимизации SQL запросов
- Опыт работы с CI/CD инструментами (Jenkins, Gitlab CI)
- Опыт работы с системами мониторинга Знание систем контейнеризации и оркестрации и виртуализации
- Понимание жизненного цикла DevOps и SRE-практик, умение аргументировать их использование
- Понимание принципов работы JVM
- Опыт написания скриптов (Bash, Python, etc.)
📲 Контакты:
Откликайтесь на https://job.mts.ru/jobs/middle-dba-na-produkt-managed-services-big-data-175925618892888043 или пишите напрямую @pollillop
🥚 Компания: МТС Big Data
💡 Позиция: DBA в Managed Services
💼 Формат работы: full-time, гибрид/офис
📍 Локация: Москва
🔎 Суть продукта:
Наша команда занимается разворачиванием и поддержкой аналитических СУБД как сервис. Планируем интегрировать наши услуги в облачный сервис МТС. Платформа должна стать частью глобального облачного сервиса, который составит конкуренцию существующим на рынке облачным managed решениям, таким как AWS, GCP, Yandex и другие.
В настоящий момент мы сосредоточились на внедрении в корпоративный ландшафт и развитии MPP СУБД Greenplum, а также Postgres и ClickHouse и ищем опытных специалистов для дальнейшего развития команды в этих направлениях.
✅ Чем предстоит заниматься:
- Полный цикл сопровождения RDBMS (Greenplum, Postgres, etc.)
- Внедрение Greenplum/ClickHouse as a service в облако МТС
- Сопровождение миграции корпоративного аналитического хранилища из Teradata в Greenplum
❗️ Кого мы ищем:
- Опыт работы с Linux. Понимание архитектуры сети, навыки диагностики проблем
- Опыт эксплуатации СУБД PostgreSQL
- Опыт работы с системами управления конфигураций (Terraform, Ansible, etc.)
- Опыт написания и оптимизации SQL запросов
- Опыт работы с CI/CD инструментами (Jenkins, Gitlab CI)
- Опыт работы с системами мониторинга Знание систем контейнеризации и оркестрации и виртуализации
- Понимание жизненного цикла DevOps и SRE-практик, умение аргументировать их использование
- Понимание принципов работы JVM
- Опыт написания скриптов (Bash, Python, etc.)
📲 Контакты:
Откликайтесь на https://job.mts.ru/jobs/middle-dba-na-produkt-managed-services-big-data-175925618892888043 или пишите напрямую @pollillop
Компания: Сбер, Лаборатория Искусственного Интеллекта
Город: Москва (гибридный график/ офис метро Кутузовская)
Middle Data Scientist
Вилка middle: 190 - 310 т.р. (+ годовая премия 2 оклада)
В Центр AI инструментов лаборатории искусственного интеллекта Сбера (AI Lab), занимающийся разработкой в области технологий AutoML и RecSys, требуется специалист, который поможет решать бизнес задачи банка с использованием наших библиотек, а так же развивать инструменты с учетом своего практического опыта. AI Lab - особое подразделение Сбера, нацеленное на наукоемкие AI проекты и создание новых технологий (в том числе и open-source).
Чем вы будете заниматься:
• Пилоты с бизнес заказчиками – полный цикл разработки модели, включая: постановка задачи в терминах МЛ, определение МЛ/бизнес метрик, обучение/валидация моделей, сопровождение внедрения
• Участие в разработке open-source библиотек. Доработка существующего функционала (повышение качества моделей/скорости работы, bugfix). Создание нового, покрывающего ранее недоступные виды задач.
• Участие в исследованиях и написании статей в журналы Q1/конференции A/A*
• Взаимодействие с прикладными командами по внедрению разработанных инструментов в банковскую инфраструктуру
Требования:
• Хорошее знание Python (в том числе опыт работ с Python ML+DL фреймворками sklearn, numpy, pandas, pytorch)
• Опыт работы со Spark
• Высокая техническая грамотность (алгоритмический базис, опыт решения архитектурных проблем)
• Опыт работы с Linux, базовое умение пользоваться Linux shell
• Хорошее понимание ML/DL алгоритмов
• Опыт промышленной разработки моделей
• Высокие результаты в соревнованиях (Kaggle и прочее), как плюс
Оставить свой отклик можно по ссылке , задать вопросы по вакансии можно рекрутеру в телеграм: @Oxana_Y
Город: Москва (гибридный график/ офис метро Кутузовская)
Middle Data Scientist
Вилка middle: 190 - 310 т.р. (+ годовая премия 2 оклада)
В Центр AI инструментов лаборатории искусственного интеллекта Сбера (AI Lab), занимающийся разработкой в области технологий AutoML и RecSys, требуется специалист, который поможет решать бизнес задачи банка с использованием наших библиотек, а так же развивать инструменты с учетом своего практического опыта. AI Lab - особое подразделение Сбера, нацеленное на наукоемкие AI проекты и создание новых технологий (в том числе и open-source).
Чем вы будете заниматься:
• Пилоты с бизнес заказчиками – полный цикл разработки модели, включая: постановка задачи в терминах МЛ, определение МЛ/бизнес метрик, обучение/валидация моделей, сопровождение внедрения
• Участие в разработке open-source библиотек. Доработка существующего функционала (повышение качества моделей/скорости работы, bugfix). Создание нового, покрывающего ранее недоступные виды задач.
• Участие в исследованиях и написании статей в журналы Q1/конференции A/A*
• Взаимодействие с прикладными командами по внедрению разработанных инструментов в банковскую инфраструктуру
Требования:
• Хорошее знание Python (в том числе опыт работ с Python ML+DL фреймворками sklearn, numpy, pandas, pytorch)
• Опыт работы со Spark
• Высокая техническая грамотность (алгоритмический базис, опыт решения архитектурных проблем)
• Опыт работы с Linux, базовое умение пользоваться Linux shell
• Хорошее понимание ML/DL алгоритмов
• Опыт промышленной разработки моделей
• Высокие результаты в соревнованиях (Kaggle и прочее), как плюс
Оставить свой отклик можно по ссылке , задать вопросы по вакансии можно рекрутеру в телеграм: @Oxana_Y
Middle/ Senior Data Engineer
Вилка middle: 190 - 310 т.р. (+ годовая премия)
Вилка senior: 310 - 450 т.р. (+ годовая премия)
Город: Москва (гибридный график/ офис метро Кутузовская)
Sber AI Lab занимается как научной деятельностью, так и разработкой наукоемких технологий в области финансов, экономики, рекомендательных систем и проч. В лаборатории активно разрабатываются фреймворки для машинного обучения, значительная часть которых доступна в open source. В Лаборатории существуют направления: инструментов машинного обучения, AI в медицине, прикладного машинного обучения, технологий глубинного обучения, на которые мы ищем специалистов Data Engineers уровня Middle и Senior.
Middle/ Senior Data Engineer https://sberailab.huntflow.io/vacancy/data-engineer-spark-developer
Чем вы будете заниматься:
• Разработка пайплайнов по обработке данных.
• Подготовка датасетов из больших массивов сырых данных, первичный анализ данных.
• Выявление артефактов в данных;
• Инженерная часть разработки наукоемких технологий в части инжиниринга данных;
• Взаимодействие с прикладными командами банка по внедрению технологий, разработанных лабораторией;
• Организация инфраструктуры хранения данных для исследований
Требования
• Опыт работы с Apache Spark обязателен
• Хорошее знание Python (в т.ч. опыт работ с какими-то из Python фреймворков по подготовке данных (Pandas, NumPy, SciPy, PySpark),
• Опыт разработки от 1 года.
• Высокая техническая грамотность (алгоритмический базис)
• Понимание основ machine learning или deep learning
• Знание Java/Scala или С++ будут плюсом
• Знание SQL
• Опыт работы с MPP GreenPlum будет преимуществом
• Умение анализировать научную литературу, разбираться в незнакомой теме
• Желание заниматься инженерной и инфраструктурной стороной проблемы
• Scripting (bash/powershell) обязателен, поднимать и настраивать сервера в облачных средах часто приходится самостоятельно
• Опыт разработки под Linux среды (Ubuntu, RedHat) обязателен
• Знание систем контроля версий, опыт коллективный разработки. У нас Git (BitBucket внутри сети банка и GitHub/GitLab в остальных случаях)
• Опыт с системами версионирования данных типа DVC является плюсом
Оставить свой отклик можно по ссылке. Задать вопросы по вакансии можно рекрутеру в телеграм: @Oxana_Y
Вилка middle: 190 - 310 т.р. (+ годовая премия)
Вилка senior: 310 - 450 т.р. (+ годовая премия)
Город: Москва (гибридный график/ офис метро Кутузовская)
Sber AI Lab занимается как научной деятельностью, так и разработкой наукоемких технологий в области финансов, экономики, рекомендательных систем и проч. В лаборатории активно разрабатываются фреймворки для машинного обучения, значительная часть которых доступна в open source. В Лаборатории существуют направления: инструментов машинного обучения, AI в медицине, прикладного машинного обучения, технологий глубинного обучения, на которые мы ищем специалистов Data Engineers уровня Middle и Senior.
Middle/ Senior Data Engineer https://sberailab.huntflow.io/vacancy/data-engineer-spark-developer
Чем вы будете заниматься:
• Разработка пайплайнов по обработке данных.
• Подготовка датасетов из больших массивов сырых данных, первичный анализ данных.
• Выявление артефактов в данных;
• Инженерная часть разработки наукоемких технологий в части инжиниринга данных;
• Взаимодействие с прикладными командами банка по внедрению технологий, разработанных лабораторией;
• Организация инфраструктуры хранения данных для исследований
Требования
• Опыт работы с Apache Spark обязателен
• Хорошее знание Python (в т.ч. опыт работ с какими-то из Python фреймворков по подготовке данных (Pandas, NumPy, SciPy, PySpark),
• Опыт разработки от 1 года.
• Высокая техническая грамотность (алгоритмический базис)
• Понимание основ machine learning или deep learning
• Знание Java/Scala или С++ будут плюсом
• Знание SQL
• Опыт работы с MPP GreenPlum будет преимуществом
• Умение анализировать научную литературу, разбираться в незнакомой теме
• Желание заниматься инженерной и инфраструктурной стороной проблемы
• Scripting (bash/powershell) обязателен, поднимать и настраивать сервера в облачных средах часто приходится самостоятельно
• Опыт разработки под Linux среды (Ubuntu, RedHat) обязателен
• Знание систем контроля версий, опыт коллективный разработки. У нас Git (BitBucket внутри сети банка и GitHub/GitLab в остальных случаях)
• Опыт с системами версионирования данных типа DVC является плюсом
Оставить свой отклик можно по ссылке. Задать вопросы по вакансии можно рекрутеру в телеграм: @Oxana_Y
#вакансия #аналитик #системныйаналитик #middle #senior
Системный Аналитик Middle и выше
Компания: Top Selection https://top-select-development.com/
Ставка: 210 000 - 255 000
Допустимые грейды: Middle, Middle+, Senior, Senior+
Локации: РФ, Москва, РФ, регионы
Гражданство: РФ
Цель проекта:
Создание фронт-енд приложения по работе с депозитами, накопительными счетами.
И интеграция с АБС ЦФТ (как бэк системой).
Технологический стек:
ЦФТ, Зибель, Java, PostgreSQL Camunda BPM, Kubernetes, Spring Boot, Kafka, React
Требования:
❗️Опыт работы: от 3 лет
❗️Системный аналитик (со знанием ЦФТ!)
Обязательные требования:
🔹Знание ЦФТ выше среднего
🔹Опыт написания и согласования требований технической документации: бизнес-требований, функциональных и не функциональных требований, технических заданий;
🔹Владение нотациями процессного моделирования: BPMN, UML;
🔹Знание принципов работы систем на микросервисной архитектуре;
🔹Понимание принципов межсистемной интеграции: REST, SOAP, MQ, ETL;
🔹Знание основ SQL, чтение, умение писать простые запросы (в любой нотации).
🔹Знакомство с продуктами по управлению бэклогом команды: Jira, Confluence;
🔹Опыт работы по методологиям проектного управления Agile;
🔹Умение работать в условиях недостатка информации, самостоятельно диагностировать проблемы в работе системы.
Обязанности:
🔸Анализ и разработка требований в области Депозитов, Карт (вне ЦФТ)
🔸Создание моделей бизнес-процессов, схем потоков данных, моделей данных, описание контрактов, взаимодействия систем;
🔸Сбор, анализ, систематизация и описание бизнес требований по интеграции систем;
🔸Написание ТЗ и декомпозиция задач на разработку;
🔸Сопровождение процессов разработки, тестирования, приемки и внедрения;
🔸Формирование и согласование технических заданий (описание функциональных требований, интерфейсов, процессов, способов реализации); описание user story в jira;
🔸Накопление и поддержание экспертизы по процессам в Confluence;
🔸Общение с бизнес экспертами, методологами, аналитиками, разработчиками, архитекторами, дизайнерами своей и смежных команд;
🔸Участие в проработке технических решений;
🔸Участие в формировании предложений по ИТ архитектуре;
🔸Участие в цикле тестирования процессов. По всем вопросам прошу обращаться в лс Александра - @fedorovasasha_a
Системный Аналитик Middle и выше
Компания: Top Selection https://top-select-development.com/
Ставка: 210 000 - 255 000
Допустимые грейды: Middle, Middle+, Senior, Senior+
Локации: РФ, Москва, РФ, регионы
Гражданство: РФ
Цель проекта:
Создание фронт-енд приложения по работе с депозитами, накопительными счетами.
И интеграция с АБС ЦФТ (как бэк системой).
Технологический стек:
ЦФТ, Зибель, Java, PostgreSQL Camunda BPM, Kubernetes, Spring Boot, Kafka, React
Требования:
❗️Опыт работы: от 3 лет
❗️Системный аналитик (со знанием ЦФТ!)
Обязательные требования:
🔹Знание ЦФТ выше среднего
🔹Опыт написания и согласования требований технической документации: бизнес-требований, функциональных и не функциональных требований, технических заданий;
🔹Владение нотациями процессного моделирования: BPMN, UML;
🔹Знание принципов работы систем на микросервисной архитектуре;
🔹Понимание принципов межсистемной интеграции: REST, SOAP, MQ, ETL;
🔹Знание основ SQL, чтение, умение писать простые запросы (в любой нотации).
🔹Знакомство с продуктами по управлению бэклогом команды: Jira, Confluence;
🔹Опыт работы по методологиям проектного управления Agile;
🔹Умение работать в условиях недостатка информации, самостоятельно диагностировать проблемы в работе системы.
Обязанности:
🔸Анализ и разработка требований в области Депозитов, Карт (вне ЦФТ)
🔸Создание моделей бизнес-процессов, схем потоков данных, моделей данных, описание контрактов, взаимодействия систем;
🔸Сбор, анализ, систематизация и описание бизнес требований по интеграции систем;
🔸Написание ТЗ и декомпозиция задач на разработку;
🔸Сопровождение процессов разработки, тестирования, приемки и внедрения;
🔸Формирование и согласование технических заданий (описание функциональных требований, интерфейсов, процессов, способов реализации); описание user story в jira;
🔸Накопление и поддержание экспертизы по процессам в Confluence;
🔸Общение с бизнес экспертами, методологами, аналитиками, разработчиками, архитекторами, дизайнерами своей и смежных команд;
🔸Участие в проработке технических решений;
🔸Участие в формировании предложений по ИТ архитектуре;
🔸Участие в цикле тестирования процессов. По всем вопросам прошу обращаться в лс Александра - @fedorovasasha_a