Data Science Work
3.06K subscribers
21 photos
245 links
Вакансии и мероприятия в сфере Data Science и Machine Learning, чтобы опубликовать пишите @irinochka_ch.
Наши сообщества: @datasciencechat, @datasciencelinks, vk.com/datascience, vk.com/tensorflow
Download Telegram
#вакансия #Data_Engineer #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно

🔸Компания: Bell Integrator
🔸Вакансия: Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net

📩Для отклика и по всем вопросам:
tg: @AnechkaSon

🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.

🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.

🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков

🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка

🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.

🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;

🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.

📩 А также пишите: ASon@bellintegrator.com
#вакансия

Вакансия: Data DevOps/Data Engineer в компанию Mimesis, Inc
Специализация: #devops #data_engineer
Локация: Армения, Ереван (релокейт)
Уровень: senior (3 года+)
Вилка: 3000-4500$
Английский: B1

Мы компания выходцы из Беларуси Mimesis, Inc, уже как 4 года занимаемся разработкой в области Data Science. Одна из наших разработок отлично подходит для интеграции в мобильные B2C приложения, поэтому в последний год активно двигаемся в сторону мобильной разработки. Наша цель показывать людям по их фотографии, как будет выглядеть их тело в будущем (бицепсы, грудь, торс и т. д.).

Задачи:
У большинства членов команды есть задачи, которые выходят за рамки специализации и нам нужен человек, который поможет с решением этих задач.

В частности:
• Докеризация текущего решения и подготовка к развёртыванию в autoscaling в AWS
• Развёртывание инфраструктуры на базе AWS: В базовой комплектации сейчас (набор EC2 инстансов); в полноценной комплектации в ближайшем будущем (EKS, autoscaling, load balancing, Jenkins, GitOps etc.)
• Разработка в базовом виде и поддержка бэкенда для лендинг сайтов.
• Обновление медиаресурсов на сайте (изображения, видео и тд)
• Скраппинг изображений с открытых источников: веб-сайты, поисковики (chrome), видеозаписи (планируется), соц-сети

Автоматизация экспериментов:
• Разработка скриптов, позволяющих автоматизировать препроцессинг/постпроцессинг данных для проверки ML гипотез
• Проведение батч обработки датасетов (например, нормализация цвета)

Помощь в расширении покрытия пользователей:
• Разработка и подготовка ботов для соцсетей: Twitter, Telegram, Facebook(в будущем) + бот для работы с нейросетями

Оптимизация процессов работы:
• Автоматизация доставки и развёртывания кода для ML (GitOps/Jenkins)
• Автоскейлинг сервисов (AWS-based)
• Внедрение практик качества кода (SonarQube-like)
• Оптимизация использования хранилища (warm/cold s3 etc)
• Мониторинг доступности сервисов
• Greeb-Blue/Canary практики развёртывания

Контакт: @Anti1One
#вакансия #dataengineer #data_engineer #etl #elt #spark #nifi #airflow #kafka #Россия #удаленка #remote #fulltime

📍Компания: ОМК - Объединённая Металлургическая Компания (https://omk.ru/company)
📍Вакансия: Data Engineer
📍Локация: удалённо с территории РФ
📍ЗП: 150-220К net
📍Стек: Apache Spark, Apache NiFi, Apache Kafka, Apache Airflow, S3, Python

🔻Проект: Компания запускает новый большой цех в рамках Выксунского металлургического завода, где предстоит работать с производственными данными. В ближайшем будущем планируется перенос данных в облака.

Обязанности:

🔹 Развитие платформы данных производственного предприятия;
🔹 Подключение к источникам данных технологического уровня;
🔹 Реализация ETL/ELT-сценариев и витрин данных;
🔹 Поддержка работоспособности построенных потоков данных;
🔹 Информационная поддержка исследовательских и регулярных аналитических задач.

Требования:

🔸
Опыт работы по аналогичным задачам от 1,5 лет;
🔸 Знание SQL на отличном уровне;
🔸 Опыт работы с NiFi/Spark;
🔸 Опыт работы с Kafka;
🔸 Опыт работы с Airflow;
🔸 Знание Python.

Условия:

🔺 Трудоустройство по ТК РФ;
🔺 Полностью удаленный формат работы;
🔺 ДМС;
🔺 Предоставление техники при необходимости.

📲 буду рада ответить на все Ваши вопросы по позиции @alexandrainly
#Вакансия #DE #data #Москва #Developer #dataengineer #data_engineer #spark #airflow #fulltime #офис

📍 Вакансия: Data Engineer
📍 Компания: Predicto
📍 Локация: Москва, м. Краснопресненская/Улица 1905 года, БЦ Трехгорная мануфактура
📍 Формат: Офис
📍 Занятость: Полная (5/2)
📍 ЗП: от 250к до 350к на руки

PREDICTO – продуктовая компания, которая разрабатывает маркетинговую платформу, предлагающую персонализацию рекламы на основе анализа истории покупок.

Технологический стек команды: Python, SQL, Spark, Airflow, ClickHouse, Yandex Cloud

Обязанности:

🔹 Проектирование, разработка и поддержание пайплайнов для сбора и обработки данных;
🔹 Подготовка SLA и обеспечение качества данных;
🔹 Подготовка данных для моделей машинного обучения и принятие участия в их продукционализации совместно с командой data science.

Требования:

🔸 Опыт работы по аналогичным задачам от 2,5 лет;
🔸 Опыт работы с Python;
🔸 Знание SQL на отличном уровне;
🔸 Опыт работы со Spark и Airflow ;
🔸Участие в проектах с большими данными, а также понимание принципов распределенной обработки данных.

Условия:

🔺 Трудоустройство согласно Законодательству;
🔺 Большой датасет, интересные задачи, возможность влиять на продукт;
🔺 Комфортабельный офис со спортзалом, комнатой отдыха с плазмой и Sony PlayStation, кухней с различными плюшками (прохладительные напитки, сырки, конфеты).

📲 Буду рада ответить на все Ваши вопросы по позиции @svetlana_sog
#вакансия #Data_Engineer #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно

🔸Компания: Bell Integrator
🔸Вакансия: Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net

📩Для отклика и по всем вопросам:
tg: @AnechkaSon

🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.

🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.

🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков

🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка

🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.

🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;

🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.

📩 А также пишите: ASon@bellintegrator.com
#работа #job #вакансия #Data_Engineer #Innopolis #Moscow #remote #офис #fulltime

Вакансия: Data Engineer
Компания: S7 TechLab🛩
Формат: удаленка, но также есть офисы в Москве, Новосибирске, Иннополисе и Краснодаре.
ЗП: middle 150-280к гросс (обсуждаемо)

В команду Dynamic Pricing ищем Data Engineer уровня middle.

Наш продукт занимается тем, что подбирает цены на авиабилеты и транслирует их в каналы продаж через собственное API. Для того, чтобы правильно рассчитать цены, нам необходимо регулярно готовить, обрабатывать и следить за качеством большого количества разнообразных данных, которые в разном виде поступают к нам в продукт для расчета цен. Поэтому мы ищем опытного дата инжинера, который хорошо разбирается в данных, умеет настраивать пайпланы обработки данных, мониторинги качества данных, умеет оптимизировать скрипты загрузки и т.д.

✈️Задачи:
— Развитие пайплайнов данных в продукте: работа с различными источниками и типами данных s3, Kafka, MySQL, Postgres, HDFS, parquet, avro
— Оптимизация пайплайнов;
— Разработка мониторингов на качество данных;
— Настройка интеграции с новыми источниками данных;

🧠Пожелания к кандидату:
— Уверенное знание SQL (умение написать сложный запрос и его оптимизировать)
— Уверенное знание Python;
— Пайплайны и стримы со Spark, Kafka, Kafka Connect, Airflow
— Понимание, как работает parquet, avro
— Опыт работы с Kubernetes
— Понимание, зачем нужен DQ

Если вы кроме дата инженерных задач не чужды DevOps, продукт поможет развиться в этой области. Также можно рассмотреть смежные области и попробовать себя в задачах аналитики и BI.

По условиям:
— ДМС со стоматологией;
— Профессиональное развитие: проходить обучение в компаниях-партнерах, участие и выступление в конференциях. И да! У нас есть партнёр, который готовит к выступлениям (поможет определиться с тематикой, посылом, составить доклад и подготовит к выступлению);
— Скидки на авиаперелеты для тебя и членов семьи;
— Корпоративные скидки в PrimeZone: скидки в рестораны, на обучающие курсы, товары и тд.

💌Контакты: @miavel, m.chentsova@s7.ru
#вакансия #Data_Engineer #ETL #SQL #PostgreSQL #Hadoop #DWH #Bell_Integrator #Россия #Удаленно #fulltime

🔸Компания: Bell Integrator
🔸Вакансия: Data Engineer
🔸Локация: г. Москва (офис)
💰ЗП: 200 000-230 000 net

📩Для отклика и по всем вопросам:
tg: @AnechkaSon

📌 BELL INTEGRATOR – крупный системный интегратор страны.Мы являемся аккредитованной ИТ-компанией.
Мы активно реализуем проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.

🔸Проект: Команда создает информационную платформу для решения аналитических и исследовательских задач в области создания продуктов и услуг на мировых финансовых рынках:
•торговля валютой,
•ценными бумагами,
•производными финансовыми инструментами.

🔸Требования:
•Опыт работы от 2-х лет
•Высшее техническое образование
•Знание SQL, PL/SQL или PL/pgSQL
•Опыт работы с популярными РСУБД (Greenplum, Oracle, PostrgeSQL),
•Опыт работы с CI/CD решениями на базе Jenkins и Bitbucket/Git,
•Опыт работы с хранилищем данных (DWH),
•Опыт работы с любой промышленной ETL-системой,
•Знакомство с экосистемой Hadoop.
•Готовность работать в рамках формальных процессов

🔸Обязанности:
•Проектировать и разрабатывать потоки для загрузки данных в хранилище,
•Проектировать и реализовывать слои детальных данных,
•Создавать витрины для отчетности и для моделей машинного обучения.

🔸Условия:
•Возможность профессионального и карьерного роста в компании;
•Опыт работы в распределенной команде профессионалов;;
•Работать в офисе Москвы, а также по гибридному формату работы через 4-5 месяцев.

📩 А также пишите:
ASon@bellintegrator.com.
#vacancy #вакансия #fulltime #удаленка #job #senior #Data_Engineer #Дата_инженер

Позиция: Data Engineer
Компания: 4people
Формат: полная удаленка
Вилка: до 300 000 рублей (на руки)
Опыт: от 3 лет
📩 Контакты: @Nani_IT

Наша область: Разработка крупного и высоконагруженного SaaS решения для клиентов на международном рынке.

Задачи:
- создание структур данных, выбор подходящих движков в ClickHouse и других СУБД в соответствии с бизнес требованиями;
- написание / оптимизация / профилирование SQL/NoSQL запросов;
- совместная работа с бизнес аналитиком над новыми отчетами и с разработчиками сервиса отчетов в рамках имплементации;;
- настройка ClickHouse (шардинг, репликация) в т.ч. взаимодействия с Kafka;
- решение возможных проблем с нарушением целостности данных;
- дальнейшая работа с данными в компании (BI, warehouse, ETL);

Требования:
- опыт работы Data Analyst/Engineer от 2-х лет;
- высокий уровень экспертизы работы с ClickHouse обязателен;
- опыт построения сложных составных SQL запросов и оценка их производительности;
- экспертиза в выборе типа хранилища данных и понимание различий SQL/NOSQL/Column-oriented/OLAP/Time Series;
- желателен опыт работы с данными в KAFKA (KSQLDB) и коннекторы к ClickHouse;
- будет плюсом знание и опыт Cassandra, Apache Spark и BI решений Tableau, Apache Superset;
- желателен опыт работы с graph-oriented базами данных (neo4j, graphDB, RedisGraph);
Уровень английского языка достаточный для чтения технической документации;

Условия:
Гибкое начало рабочего дня,компенсация английского языка, подробнее в лс