Python Jobs
11.7K subscribers
57 photos
3 videos
382 links
по всем вопросам @haarrp

@ai_machinelearning_big_data - ML

@pro_python_code - python RU

@pythonl - python pro

@datascienceiot - ml 📚

@pythonlbooks -📚books

@hr_itwork - работа

№ 5032847041
Download Telegram
🚀 Вакансия: Продуктовый аналитик (Middle)
🏢 Компания: Правильный софт (ИТ-аккредитованный вендор Альфа-банк)
🌎 Локация: 🇷🇺 Россия
🕕 Часовой пояс: Москва
💼 Формат работы: дистанционная

💰 Зарплата: 260-300 т.р. net
📊 Отрасли: финтех

🎯 Требования:
* Уверенное владение SQL и опыт работы с базами данных (Oracle/Postgres/MySQL, Google BigQuery, Hadoop, Vertica, SQL Server).
* Опыт работы с системами визуализации (Power BI, Tableau, Datalens, Superset, Google Data Studio, QlikView/QlikSense)
* Опыт построения автоматизированной отчетности: от сбора, хранения, подготовки данных до построения отчетов/дашбордов и проведения анализа данных
* Опыт работы с одной или несколькими системами аналитики: Appsflyer, Amplitude, Firebase, Mixpanel, Google Analytics, Яндекс.Метрика, AppMetrica или аналогами.
* Знание инструментов для автоматизации сбора, статистической обработки сырых данных (Python/R)
* Опыт проведения исследований, проверки гипотез с помощью классических АБ-тестов и альтернативных методов.

Пожелания:
Желателен опыт в Бигтехе

Рабочие задачи:
* Организовать и автоматизировать сбор данных для отчетности, объединить данные систем-источников и строить регулярную отчетность/дашборды по клиентской активности.
* Принимать участие в исследованиях эффективности коммуникаций и точек входа, путей пользователей при совершении операций, помогать командам в генерации гипотез и проведении экспериментов.
* Погрузиться в процессы и текущие потребности продуктовых команд, наборы необходимых метрик и методик их расчета для оценки путей клиентов.
* Обеспечить регулярный аудит качества и полноты данных о поведении клиентов, а также матчинга онлайн и офлайн данных.
* Активно участвовать в разметке действий пользователей для системы продуктовой аналитики, в т.ч. взаимодействовать с продуктовыми командами в рамках этого процесса (от формирования набора метрик, до написания ТЗ и тестирования разметки)
* Активно погрузиться в работу продуктовых команд направления и драйвить аналитику этого направления: от дашбордов до исследований, генерации и проверке гипотез и выступления на Демо со своими командами.

📌 Условия:
* Трудоустройство по ТД (только штат компании)
* ИТ-аккредитация
* ДМС
* Ученическая премия на внешнее обучение

📩 Контакты:
@anna_abrakhimova

#SQL #Python #Git #CRM #НСИ #Middle #Гибрид #ФинТех #ДМС
21
#вакансия #dataengineer #remote #fulltime #HFT #senior #Python #SQL

🚀 Горячая вакансия Data Engineer в HFT-проект🚀
КА: luckyhunter
Формат работы: remote
Занятость: полная занятость
Вилка: 4000-8000 usd gross (в зависимости от опыта и локации, в которой вы находитесь)

Мы ищем Data Engineer для создания и поддержки основной инфраструктуры данных торговой платформы. Вам предстоит работать с высоконагруженными системами обработки данных, обеспечивать надежность и прозрачность инфраструктуры, а также готовить систему к внедрению новых проектов в области машинного обучения.

Почему это круто:🔥
🔹 Компания заняла заметную долю рынка — до 5% торгового оборота на крупнейших криптобиржах.
🔹 Реальное влияние на мировые финансы — и алгоритмы делают рынок стабильнее и эффективнее.
🔹 Яркая команда, которая горит технологиями и сложными задачками (есть люди из Google, Bloomberg)


🎯 Что предстоит делать:
Разработка, мониторинг и масштабирование надежных дата-пайплайнов для аналитики и ML.
Обеспечение стабильности и отказоустойчивости потоков данных, включая загрузку в хранилище.
Внедрение стандартов качества данных, наблюдаемости и governance.
Сотрудничество с техническими и бизнес-командами для соответствия систем требованиям.
Оптимизация производительности SQL-запросов, workflow и инфраструктуры.


Кого ищем:
🚀 Must Have:
Опыт работы в сфере Data Engineering или backend-инфраструктуры от 5 лет;
Свободное владение Python и SQL;
Практический опыт с ClickHouse (особенно с MergeTree) или аналогами;
Знакомство с инструментами оркестрации потоков данных: Argo Workflows, Apache Airflow, Kubeflow;
Понимание архитектуры Kafka — топики, партиции, продюсеры и консьюмеры;
Опыт работы с CI/CD пайплайнами (GitLab CI, ArgoCD, GitHub Actions);
Навыки работы с системами мониторинга и BI-инструментами, такими как Grafana;
Хорошее знание английского языка от уровня B2.

🌟 Будет плюсом:
Опыт работы с AWS (S3, EKS, RDS);
Знание Kubernetes и Helm для деплоя и масштабирования;
Опыт поддержки ML-инфраструктуры, включая feature pipelines и workflow для подготовки обучающих данных.


💰 Что в оффере:
🔹 ?
🔹 Удалёнка
🔹 Релокация в Дубай – рай для криптанов ( по желанию)
🔹 Гибкий график
🔹 Топовые workations с командой
🔹 Возможность заработать на инвестициях в корпоративный фонд

📩 Резюме приносите в
тг: @veronika_vlasovets


Буду рада ответить на интересующие вас вопросы и рассказать про детали😊