Data Science Jobs
14.8K subscribers
49 photos
2 videos
1 file
638 links
Лучшие вакансии по темам Data Science, машинного обучения, нейросетей, искусственного интеллекта, компьютерного зрения, сбора, обработки и анализа данных.

По всем вопросам: @musit
Чат: @bigdata_ru
Download Telegram
#вакансия #BigData #lead #engineer #hadoop #sql #datalake #Сочи #КраснодарскийКрай

BigData Lead Engineer
150k+ рублей (gross) + “подъемные” + аренда жилья

Возможность до конца 2020 года работать дистанционно!

Чем предстоит заниматься:
Апробировать решения стэка Hadoop.
Определять оптимальные сценариии использования.
Определять оптимальную конфигурацию под конкретные технические требования.
Определять применимость под бизнес задачи.
Тестировать Open Source решения для загрузки данных из реляционных источников - SQL to Hadoop;
Реализовывать PoC проекты.
Участвовать в построении архитектуры Data Lake.

Чем обладает кандидат, который справится с этими задачами:
Не менее 2х лет релевантного опыта работы;
Знания принципов построения распределенных систем хранения и обработки данных
Понимание стэка технологий Hadoop (HDFS, MapReduce,...);
Опыт промышленной разработки одного из языков: Java, Python, Scala;
Опыт разработки ETL процессов обработки данных;
Опыт отладки производительности ETL-процессов;
Уверенное знание Bash/Linux;
Уверенное знание теории реляционных БД.;
Уверенное знание SQL.

Желательно:
Опыт работы с Open Source решениями;
Опыт работы с промышленными СУБД (Oracle, MS SQL Server, Postgresql)
Знание Spark;
Понимание Lambda архитектуры.

Условия для BigData Lead Engineer:
Оклад 150 000 рублей (gross)
Возможность до конца 2020 года работать дистанционно
Компенсация затрат на аренду жилья: 20 000 рублей (gross) ежемесячно
Компенсация переезда (“подъемные”) для иногородних в объеме 1 оклада
Премии по результатам года: до 30% от годового дохода
Комфортный офис в Сочи возле Олимпийского парка
График работы: с 9 до 18 или с 10 до 19 (5/2 8 час. р.д.)

Контакты: @alisa_4ox
Бизнес аналитик BI систем

#вакансия #job #vacancy #работа #BI #аналитик #Москва #гибрид #QlikSense #DWH #DataLake #DataMart #ETL #SQL

О компании: АО «Кордиант» – один из лидеров по производству шин на рынке России.
🌎Локация: г. Москва.
💰З/п: 150 000 - 220 000 руб.

📍Задачи:
● Создание корпоративного хранилища данных (Data Lake) и внедрение BI системы #Qlik Sense (на основе данных транзакционных системы и внешних источников);
● Анализ потребностей бизнеса в аналитике, помощь в формировании функциональных требований;
● Проектирование и разработка дашбордов для ТОПов компании;
● методологическая поддержка пользователей по работе с #BI системой;
● Постановка задач и контроль выгрузки из источников
данных.

📍 Мы ожидаем:
● Опыт внедрения BI систем (предпочтительно Qlik);
● Понимание принципов построения и работы с хранилищами данных (DWH), озерами данных (Data Lake) и витринами данных (Data Mart);
● Понимание принципов построения дашбордов и отчетов в BI системах;
● Опыт работы с выгрузкой, преобразованием и загрузкой данных (ETL);
● Опыт работы с большими массивами информации (в т. ч. написание #SQL запросов);
● Умение анализировать и структурировать требования бизнес подразделений;
● Креативность мышления, умения находить и предлагать нестандартные решения.

📍Мы предлагаем:
● Работа в крупном производственном холдинге на проекте внедрения;
● Оформление согласно ТК РФ;
● «Белая» заработная плата;
● График работы 5/2;
● Корпоративное обучение;
● Социальный пакет с ДМС;
● Возможна частичная удаленка (гибрид).

✔️О проекте:✔️
Создание корпоративного хранилища данных (озера
данных) и внедрение BI системы Qlik Sense (на основе
данных транзакционных системы и внешних
источников).
Роль – куратор проекта, связующее звено между
пользователями и внешними разработчиками,
методолог, редактор и контролирующий
ответственный. На следующих этапах - руководитель
проектной группы.

📩 Для отклика и по всем вопросам:
tg: @fadnatalya
email: plena@kodpartnera.ru
#вакансия #teamlead #DWH #architecture #Datalake

Привет! Мы в СберМаркете активно ищем Data Engineering Team Lead в нашу дружную команду💚🛒

🛒Формат работы - удаленно/офис/гибрид.
🛒Зарплата - от 300.000 обсуждаем с каждым кандидатом в зависимости от опыта.

🚀Мы строим нашу инфраструктуру данных без легаси с использованием современного стека и подходов. У нас есть как задачи классического DWH, так и задачи развитие DataLake и потоковой обработки данных, так что применить свои знания и умения можно практически в любом направлении обработки данных на уровне всей компании.

💻Чем предстоит заниматься:

- принимать участие в стратегических и тактических инициативах руководящей команды.
- декомпозировать бизнес-требования на задачи, распределять их в команде и контролировать выполнение.
- Оптимизировать процессы хранения и обработки данных с использованием облачные технологии и подходов.
- Осуществить миграцию текущей облачной инфраструктуры на собственную инфраструктуру (вплоть до bare metal).

🛠Стек:

SQL, PostgreSQL , Greenplum, Airflow, Python, Java/Scala.

💪 Мы ждем, что у тебя есть:

- опыт в проектировании и разработке DWH (у нас DataVault на Greenplum).
- глубокое понимание организации процессов обмена информацией.
- опыт работы с Apache Kafka.
- опыт с Apache Airflow.
- опыт работы с Clickhouse.
- опыт работы с реляционными СУБД (у нас Mysql и Postgres).

🦾 Что требуется дополнительно:

- проработка целевой архитектуры потоков данных на уровне компании.
- управление командой от 10 человек.
- навыки организации сбора требований и управления ожиданиями.
- коммуникация с основными стейкхолдерами, планирование и реализация внутренних проектов.


Контакты HR: @juliamomo
Чтобы диалог был более предметный, пожалуйста, откликайтесь с резюме🙏