Data Science Jobs
16.5K subscribers
47 photos
2 videos
1 file
660 links
Номер регистрации: 4776865361

Лучшие вакансии по темам Data Science, машинного обучения, нейросетей, искусственного интеллекта, компьютерного зрения, сбора, обработки и анализа данных.

По всем вопросам: @musit
Чат: @bigdata_ru
Download Telegram
#Вакансия #datascience #Москва #fulltime #clickhouse #python

Senior Data Scientist
Название компании: FunCorp
Город и адрес офиса: Москва, м. Белорусская
Формат работы: офис, full-time
Зарплатная вилка: от 200k net + премии + соцпакет
Контакты: @alyakolyadova, akolyadova@fun.co

FunCorp - международная компания, которая занимается разработкой развлекательных UGC-сервисов и игр. C 2004 года мы создаем продукты и сервисы на стыке фана и технологий.
Уже сейчас у нас внедрены и работают сервисы распознавания текста из изображений; нечёткого поиска дубликатов изображений; сервис рекомендаций контента и тд.
Мы в поиске специалиста, который будет развивать и поддерживать алгоритмы для данных сервисов, а также создавать новые, ещё более интересные; придумывать, как с помощью ML улучшать пользовательский опыт и внутренние метрики продукта.

Тебе предстоит автоматизировать обработку опубликованного изображения/ видео, искать дубликаты среди изображений и видео, определять хейтспич комментариев и текстов и улучшать алгоритм рекомендации контента.

Что нужно, чтобы присоединиться к нам:
- высшее образование: техническое, математическое или по специальностям компьютерная лингвистика, машинное обучение и анализ данных;
- опыт решения NLP/ Image recognition/ Recommendation задач;
- знания методов машинного обучения и нейронных сетей;
- опыт работы с Keras, TensorFlow, PyTorch или любым другим нейросетевым фреймворком;
знание алгоритмов и структур данных;
- опыт программирования на Python (библиотеки NumPy, Sklearn);
- будет совсем круто, если есть примеры работ по нейронным сетям или профиль на Kaggle.

Стек используемых технологий: Python, ClickHouse.

Взамен мы предлагаем: бонусы и компенсации; ДМС и оплату фитнеса; бюджет на обучение; завтраки и обеды в офисе, и комфортный офис в центре Москвы.
#Вакансия #TeamLead #DataScientist #Москва #numpy #pandas #scipy #clickhouse #PostgreSQL

Team Lead Data Science в Clover Group (Москва / Казань)
📌 Белая зарплата от 280К
Входим в группу компаний Трансмашхолдинга.
📌 Стэк: Python (numpy, pandas, scikit-learn, scipy, xgboost и др.), Clickhouse, PostgresSQL.
💥 Также готовы заплатить за успешную рекомендацию (за выход на работу) 130К руб.

Наша DS-команда создает математические модели работы оборудования промышленных предприятий. Решение помогает предсказывать неисправности, своевременно производить ремонты, повышать экономическую эффективность производства.

Ищем специалиста с опытом внедрения ML-решений в промышленную эксплуатацию; самостоятельным опытом разработки моделей на Python и управления командой.
✏️ Пишите в личку: @olgakazarina

🚂 Подробнее о проектах на сайте нашей управляющей компании: https://ctrl2go.com/

📌 Что нужно делать:
• Управление командой (6 человек, будет больше)
• Анализ производственных задач совместно с индустриальными экспертами, определение экономических эффектов от внедрения ML-решений
• Постановка задач на разработку моделей на основе бизнес-требований
• Планирование, контроль сроков и качества разработки моделей
• Развитие компетенций внутри команды и мотивация сотрудников
• Запуск моделей в промышленную эксплуатацию с использованием платформы компании

📌 Ожидания:
• Опыт внедрения ML-решений в промышленную эксплуатацию
• Опыт руководства командой (от 3-х человек)
• Отличные знания теории вероятностей, математической статистики и методов машинного обучения
• Знание базовых алгоритмов и структур данных
• Алгоритмы анализа временных рядов
• Знание языка Python и умение писать эффективный код
• Знание основных ML-библиотек (numpy, pandas, scikit-learn, scipy, xgboost и др.)
• Знание инструментов визуализации данных
• Опыт работы с базами данных (Clickhouse, PostgresSQL), оптимизация аналитических запросов
• Высшее образование (математика /физика).
• Желание глубоко погружаться в предметную область и разбираться с особенностями работы технологического оборудования.

📌 Будет плюсом:
• Опыт работы с DL фреймворками Tensorflow/PyTorch, знание основных архитектур
• Опыт в моделировании физических процессов
• Знания в одной из отраслей (машиностроение, нефтегазовая, энергетическая, горнорудная)
• Опыт работы в интеграторах
• Успешный опыт решения задач на Кaggle

📌 Мы предлагаем:
• Уровень дохода обсуждается с успешным кандидатом, оклад от 280К
• Работа над проектами федерального значения
• Плоская структура компании, участие в принятии решений
• Официальное оформление, соблюдение ТК РФ
• Гибкое начало рабочего дня, сейчас большую часть времени на удаленке.
• ДМС со стоматологией (после прохождения испытательного срока);
• Офис в Москве на ст.м. Шаболовская рядом с метро, либо офис в центре Казани.

✉️ Контакты: @olgakazarina
#dataengineer #вакансия #работа #job #etl #sql #clickhouse #Senler #BigQuery #OWOX #python

Data engineer

Привет! Мы — Вебиум. Нескучная онлайн-школа для тех, кто готовится к экзаменам и хочет во всём разобраться.

Более 7 лет помогаем школьникам со всей России готовиться к ЕГЭ. Только в прошлом году с нами занималось более 41,5 тысячи студентов!

В 2021м мы третьи по темпу роста в первом квартале на рынке edtech, седьмые в сегменте школьного образования по итогам первого квартала, двадцатые в рейтинге edtech компаний за первый квартал и мы не собираемся останавливаться! 🙂

Кого мы ищем?
Мы ищем дата-инженера, готового поддерживать data-driven культуру управления продуктом и маркетингом, обеспечивая всех заинтересованных данными для принятия аргументированных решений.

Что предстоит делать:
• Создавать и оптимизировать ETL процессы выгрузки данных (разовые + автоматизация);
• Контролировать качество данных;
• Оптимизировать работу с базами данных;
• Продумать стратегию развития аналитической инфраструктуры с учетом потребностей бизнеса — выбор технологий и проектирование архитектуры;
• Наладить регулярные процессы подготовки и поставки данных для продуктовых, маркетинговых команд и аналитиков.

Примеры задач:
1) Мы пользуемся сервисом создания автоворонок Senler, нужно вытащить из него данные по API, загрузить её в наш Clickhouse и настроить стриминг, схему данных и скорость стриминга можно обсудить с нашим аналитиком.
2) У нас сейчас раз в сутки переливаются данные из продакшен базы в Clickhouse, при этом Clickhouse вычищается, а нужно сделать условный стриминг, чтобы это происходило не раз в сутки, а чаще.
3) Сейчас мы берем данные из рекламных кабинетов Facebook и Вконтакте и через коннекторы OWOX складываем их в BigQuery.
4) Хочется выгружать данные о платежах из CloudPayments, PayPal и Сбера напрямую, чтобы проводить сверки с нашим бэкендом.

Что для нас важно:
• Опыт развития аналитической инфраструктуры;
• Отличное знание SQL;
• Понимание принципов работы хранилищ данных;
• Навыки проектирования баз данных;
• Знание Python;
• Опыт работы с Clickhouse;
• Опыт построения ETL-процессов;
• Знание базовых принципов работы маркетинговой и продуктовой аналитики;
• Опыт работы на позиции дата-инженера от двух лет.

Наши условия:
• Удаленная работа, при этом в историческом центре Питера у нас есть уютный штаб, где можно поработать, отдохнуть и поесть орешки со сгущенкой :)
• Оплата обсуждаема, наша вилка 180 000 - 220 000 руб:
• График 5/2, полная занятость с гибкими часами: можешь подстроить его под свой комфортный режим;
• Вовлеченная команда, которая заинтересована в создании лучшего продукта в своем сегменте;
• Работа в социально-значимым и полезном проекте;
• А ещё мы открытая организация с культурой бирюзового управления, гибким подходом и большой верой в то, что мы делаем!

Откликнуться:
⚡️ @christinch
⚡️ @frecklesattack
📩 hr@webium.team
#Вакансия #удаленка #DataEngineer #python #clickhouse

Middle / Senior Data Engineer в Quantor
Локация: Remote
Вилка:
- Middle: $2k - $3k gross + опцион
- Senior: $3k - $4k gross + опцион

Поможем оформить ИП.

Quantor - аналитическая платформа, предоставляющая простую и понятную аналитику по блокчейнам. Наша цель - создать аналитический продукт для глобального, массового рынка пользователей блокчейна.

В нас уже проинвестировал 1inch - один из самых популярных DEX агрегаторов.

Что предстоит делать:

- Разрабатывать архитектуру хранилища данных
- Строить надежную, масштабируемую инфраструктуру для аналитики блокчейнов
- Автоматизировать процессы сбора и хранения данных (ETL)
- Вместе с аналитиками разрабатывать API для клиентов

Что мы ожидаем от кандидата:

- Опыт работы Data Engineer/ETL developer от 2-х лет
- Опыт создания и использования высоконагруженных DWH с большим количеством данных
- Отличное знание Clickhouse
- Отличное знание Python

Будет плюсом:

- Docker, Terraform, Airflow, k8s, Kafka, Grafana, BigQuery

Мы предлагаем:

- Интересный продукт на быстро развивающемся рынке, востребованность которого будет увеличиваться
- Полная свобода в реализации своих идей для решения задач
- возможность экспериментировать с любыми современными технологиями и внедрять их

CV и вопросы в телеграм @BillionerJoe
#Belgrad #DataEngineer #AWS #Prometheus #Postgres #ElasticSearch #ClickHouse #Python #Greenplum

📌Data Engineer

Practicum
Belgrade, Serbia
$4500-6500

Practicum is a service for anyone looking to master the unit profession. Our team develops, operates, and expands the infrastructure, empowering Practicum to make informed decisions. Practicum is pushing hard into the US and other countries. That's why we're looking for engineers to help our fantastic team quickly grow and reach new data heights.

Our technologies:

•AWS, EFbK Stack, Prometheus, GitLab, Lambda, Kafka.
•Postgres, ElasticSearch, ClickHouse, Metabase.
•Python, Golang.

Responsibilities:

•Handle our data processing infrastructure for analytics and user services.
•Design and build displays for data pulled from raw product sources and external APIs.
•Configure streamlined data updates.
•Develop a logical DWH architecture to make life easy for analysts.
•Improve DWH stability and reliability.
•Formulate requirements for new data sources and integrate them into existing aggregate data models.

Qualifications:

•3+ years of experience in data engineering.
•At least 2 years experience in AWS
•Experience working with AWS, Postgres, Greenplum, and ClickHouse.
•Proficiency in or a desire to learn Python / Golang.
•Ability to write clean, optimal code that is easy to maintain and test.
•Habit of covering your code with tests.
•Proven background in developing ETL processes.
•Experience working with relational databases and APIs.
•Experience designing dashboard displays.
•Desire for self-development and studying new technologies and tools.
•Readiness to make decisions and take responsibility.
•Desire and understanding of how to build loaded systems.
•Familiarity with fault tolerance and service scaling.
•Ability to find common ground with colleagues and the team.

Benefits:

•Relocation to Serbia
•Engaging work with the opportunity to influence the process and result
•A strong team to grow with
•Remote work or relocation assistance
•Power compensation
•Discounts from the company's partners

Contact: @vrtrlmv
#вакансия #DataAnalyst #Python #SQL #Clickhouse #ABtest #удаленка #fulltime

🔹Анабар – система аналитики и управления продажами для продавцов на маркетплейсах.
Продукт запустили Петр Марков (ex-Яндекс, ex-Циан) и Павел Тарасов (ex-Альфа-Банк, ex-Циан) в июле 2020. У нас есть довольные клиенты, выручка и мы удваиваемся по всем ключевым бизнес-метрикам каждый квартал.

Сейчас мы ищем Data аналитика в нашу команду.

📌 Стек: Python, SQL, Superset, Clickhouse, Trino, plotly dash.

📌 Какие будут задачи:
- Аналитика бизнес-проблем поставщиков маркетплейсов и придумывание решения с использованием данных
- Анализ данных (как данные маркетплейсов, так и поведение пользователей у нас на сайте)
- Помощь разработчикам в создании (или даже самостоятельная разработка) дашбордов для пользователей
- Работа с большими и шумными данными
- Построение дашбордов в superset и дописывание etl-задачи на Presto/Athena

📌 Что нужно знать:
- SQL - отличное знание
- Методы проведения A/B экспериментов
- Python - базовый уровень

❗️Обязательный пункт:
Первое высшее математическое образование (специалитет/бакалавриат)

📌 Будет плюсом:
- Хорошее знание Python и опыт работы с Git
- Базовые навыки в машинном обучении

📌 Что предлагаем мы:
- 31 день отпуска: у нас официальный ненормированный рабочий день и, если случаются овертаймы, мы их записываем и отгуливаем. Важно помнить, что овертаймы - не систематическая и регулярная история
- Работа удаленная (можно работать из любой точки мира и оформиться к нам удобным способом, кстати, заработная плата полностью белая)
- Уровень дохода от 300 000 на руки
- Гибкий график (важно быть на связи по московскому часовому поясу)
- Настоящие возможности роста и развития
- Участие в создании большой истории про любовь продавцов к цифрам и анализу данных

💫 Ждем ваше резюме!

Контакты:
Светлана
ТГ: @yuz59
WA: +7 9194822190
email: s.yuzhaninova@anabar.ai

Не забудьте уточнить, что вы из @datasciencejobs
#vacancy #SQL #Python #ClickHouse #DWH #Lead

🤟
Должность: Data Team Lead
Формат работы: удаленный (из любой точки мира)
Занятость: #полная, #fulltime
Зарплатная вилка: до 500 000 руб. на руки

🧙‍♀️Компания создает высоконагруженное решение на базе Golang с микросервисной архитектурой и множеством интеграций. Команда воплощает в жизнь самые амбициозные проекты, используя передовые методы и инструменты разработки. В компании нет места для бюрократии и лишних апруверов - только крутые специалисты, готовые воплощать свои идеи в жизнь и изменять мир вместе с нами. Присоединяйтесь к компании, чтобы вместе создавать инновационные решения и участвовать в увлекательных проектах!

🤕Что компания гарантирует потенциальному коллеге:
— Конкурентоспособный уровень заработной платы;
— Комфортное трудоустройство по ИП;
— Постоянная индексация дохода;
— Удобный гибкий график работы 5/2 с плавающим началом дня;
— Специальные бенефиты: компенсация спортивного зала, проведение корпоративных мероприятий для команды, питание в офисе;
— Перспективы карьерного роста - обрети новые возможности;
— Минимум бюрократии и прозрачное взаимодействие - открытость и понимание для каждого сотрудника;
— Тесное общение с профессионалами отрасли - работай с лучшими, достигай больших результатов.

⬆️Чем предстоит заниматься:
— Участвовать в проектировании и управлении платформой данных в компании;
— Организовывать взаимодействие DWH с источниками данных и поддержкой ETL процессов;
— Проектировать оптимальные модели данных для бизнес-требований;
— Разрабатывать процедуры формирования детального слоя данных и слоя витрин.

🌟 Компания ожидает от кандидата:
— Опыт от 3 лет в построении или управлении DWH;
— Опыт
работы с колоночными базами данных (ClickHouse).
— Опыт участия в проектировании/внедрении хранилища данных с применением практик и технологий Data management, DWH/BI, Big Data и Data streaming;
— Владение языками программирования (SQL и Python на уровне не ниже Middle);

⭐️Пиши! Я всегда на связи - @recruiter_it_24
Please open Telegram to view this post
VIEW IN TELEGRAM
#вакансия #remote #middle #de #da #etl #postgresql #clickhouse #dbt

Компания Excdev в поиске Middle Data Engineer/Data Analyst

Удаленный график работы из любой точки мира,зарплатная плата 200-250 тысяч рублей на руки.

Задачи:
- Разработка хранилищ данных, витрин данных;
- Проектирование, разработка и поддержка ETL-процессов;
- Разработка визуализации данных и отчетности;
- Контроль качества загружаемых данных;
- Интеграция новых источников;

Вы идеальны, если:
- Высшее математическое или техническое образование (компьютерные науки, инженерия, статистика, математика или смежные области)
- Минимум 3 года опыта работы в управлении данными, инжиниринге данных или анализе данных в сфере веб и/или мобильных продуктов
- Практические знания в областях хранения данных, моделирования, управления и визуализации данных, опыт работы со следующими инструментами Airflow, DBT, Clickhouse, Superset, Postgre
- Успешный опыт работы с извлечением и обработкой данных из разных источников для коммерческой ценности
- Опыт работы(настройка и интеграция) с трекерами типа Google Analytics, Branch, AppMetrica, Adjust, AppsFlyer, Binom (поп-ап реклама) и т.п.

Будет огромным плюсом:
- Опыт работы со SkadNetwork iOS и понимание принципов работы с агрегированными данными.
- Опыт настройки и ведения рекламных кампаний в источниках типа Meta, Google Ads, Tiktok и т.п.
- Опыт работы с Tableau, Google Looker или подобных им.

Контакт для связи в тг: @valenti_sh
#вакансия

Data
analyst / Data scientist, Москва

VK Реклама — одно из ключевых подразделений в VK. Ежедневно наши сервисы охватывают более 140 млн пользователей в России и странах СНГ. Более 100 тыс. рекламодателей каждый день запускают рекламные кампании у нас и находят своих клиентов. Мы — команда ML внутри VK Рекламы, отвечаем за её качество, чтобы пользователи могли увидеть наиболее подходящую им рекламу, а рекламодатели потратить свои бюджеты наиболее эффективно.

Основная задача нашего направления — проверять гипотезы, искать инсайты и точки роста эффективности и впоследствии внедрять их в прод. У нас идёт полный ML-цикл от проработки гипотезы до проведения экспериментов и внедрения фич в продакшен. Результаты нашей работы напрямую влияют на эффективность такого большого продукта, как VK Реклама.

Команда ad hoc аналитики занимается проверкой гипотез и поиском точек роста. Тестирует гипотезы в реальных экспериментах и оценивает изменения. Мы ищем в команду сильных аналитиков, совместными усилиями будем проводить различные аналитические исследования для повышения эффективности нашего продукта.

Задачи:
• Анализ больших данных для поиска потенциальных точек роста и выдвижения гипотез;
• ad hoc аналитика, поиски зависимостей в данных;
• проверка гипотез, поиск узких мест, донесение результатов до прода;
• оптимизация моделей рекламного аукциона и моделей ранжирования пользователей;
• проведение и статоценка экспериментов;
• разработка и автоматизация отчётности;
• сбор, обработка и дальнейшее использование больших данных.

Требования:
• Хорошее знание SQL (сложные запросы, порядок выполнения операций) — нужно написать не просто запрос, а оптимальный запрос, который сможет отработать на действительно больших данных;
• знание Python для анализа данных; библиотеки Pandas, Numpy — нужно будет сделать анализ данных, проработать гипотезы и правильно их визуализировать. Недостаточно просто найти какой-то паттерн — нужно его правильно представить наружу;
• работа с системами больших данных будет большим плюсом (Hadoop, PySpark);
• хорошее понимание матстатистики;
• анализ данных с учётом сезонности, поиски аномалий и выбросов в данных.

Будет плюсом:
• Опыт работы с ClickHouse, Hadoop, Git, Jenkins;
• работа с инструментами BI-отчётности, понимание ETL-инструментов (делаем автоматические отчёты, готовим для них данные, настраиваем выгрузки и другое).

✍️ Отправить CV и по всем вопросам: https://t.me/olkony

#ds #adhoc #analytics #ml #mailru #vk #adtech #sql #python #pandas #numpy #pysprak #hadoop #mathstat #clickhouse #гибрид #remote #middle #senior
#вакансия #de #fintech #remote

Привет! Мы в поиске Data Engineer (middle+)

Компания: Vsemirsoft
Проект: банковский проект (входит в ТОП-50 банков РФ).
Стек проекта:
- #Hadoop, #GreenPlum, #S3;
- #Airflow, #Spark, #Kafka, #Debezium;
- #ClickHouse, #Superset

Часовой пояс: Москва (UTC+03:00, Europe/Moscow)
Формат работы: удаленный
Зп: 285 тыс. руб.

📌Ключевые компетенции:
- АБС
- ЦФТ
- DWH

📌 Требования:
- ОПЫТ РАБОТЫ ОТ 3х ЛЕТ;
- опыт работы с хранилищами данных и с отчетностью в АБС Банка;
- понимание жизненного цикла разработки программного обеспечения

📌 Как преимущество:
- понимание процессов формирования обязательной отчетности (ЦБ)

📌 Задачи в рамках проекта:
- анализ новых требований от заказчиков по задачам обязательной отчетности (ЦБ);
- реализация изменений и тестирование на стороне DWH;
- взаимодействие с внутренними заказчиками, системными аналитиками-экспертами других подразделений;
- написание технических задач для развития детального и витринного уровней DWH;
- анализ и контроль качества загрузки данных в DWH;
- описание логической и физической модели DWH и сопровождение документации в части хранилища данных

По всем вопросам обращаться: @odu_v_an