#вакансия #BigData #lead #engineer #hadoop #sql #datalake #Сочи #КраснодарскийКрай
BigData Lead Engineer
150k+ рублей (gross) + “подъемные” + аренда жилья
Возможность до конца 2020 года работать дистанционно!
Чем предстоит заниматься:
Апробировать решения стэка Hadoop.
Определять оптимальные сценариии использования.
Определять оптимальную конфигурацию под конкретные технические требования.
Определять применимость под бизнес задачи.
Тестировать Open Source решения для загрузки данных из реляционных источников - SQL to Hadoop;
Реализовывать PoC проекты.
Участвовать в построении архитектуры Data Lake.
Чем обладает кандидат, который справится с этими задачами:
Не менее 2х лет релевантного опыта работы;
Знания принципов построения распределенных систем хранения и обработки данных
Понимание стэка технологий Hadoop (HDFS, MapReduce,...);
Опыт промышленной разработки одного из языков: Java, Python, Scala;
Опыт разработки ETL процессов обработки данных;
Опыт отладки производительности ETL-процессов;
Уверенное знание Bash/Linux;
Уверенное знание теории реляционных БД.;
Уверенное знание SQL.
Желательно:
Опыт работы с Open Source решениями;
Опыт работы с промышленными СУБД (Oracle, MS SQL Server, Postgresql)
Знание Spark;
Понимание Lambda архитектуры.
Условия для BigData Lead Engineer:
Оклад 150 000 рублей (gross)
Возможность до конца 2020 года работать дистанционно
Компенсация затрат на аренду жилья: 20 000 рублей (gross) ежемесячно
Компенсация переезда (“подъемные”) для иногородних в объеме 1 оклада
Премии по результатам года: до 30% от годового дохода
Комфортный офис в Сочи возле Олимпийского парка
График работы: с 9 до 18 или с 10 до 19 (5/2 8 час. р.д.)
Контакты: @alisa_4ox
BigData Lead Engineer
150k+ рублей (gross) + “подъемные” + аренда жилья
Возможность до конца 2020 года работать дистанционно!
Чем предстоит заниматься:
Апробировать решения стэка Hadoop.
Определять оптимальные сценариии использования.
Определять оптимальную конфигурацию под конкретные технические требования.
Определять применимость под бизнес задачи.
Тестировать Open Source решения для загрузки данных из реляционных источников - SQL to Hadoop;
Реализовывать PoC проекты.
Участвовать в построении архитектуры Data Lake.
Чем обладает кандидат, который справится с этими задачами:
Не менее 2х лет релевантного опыта работы;
Знания принципов построения распределенных систем хранения и обработки данных
Понимание стэка технологий Hadoop (HDFS, MapReduce,...);
Опыт промышленной разработки одного из языков: Java, Python, Scala;
Опыт разработки ETL процессов обработки данных;
Опыт отладки производительности ETL-процессов;
Уверенное знание Bash/Linux;
Уверенное знание теории реляционных БД.;
Уверенное знание SQL.
Желательно:
Опыт работы с Open Source решениями;
Опыт работы с промышленными СУБД (Oracle, MS SQL Server, Postgresql)
Знание Spark;
Понимание Lambda архитектуры.
Условия для BigData Lead Engineer:
Оклад 150 000 рублей (gross)
Возможность до конца 2020 года работать дистанционно
Компенсация затрат на аренду жилья: 20 000 рублей (gross) ежемесячно
Компенсация переезда (“подъемные”) для иногородних в объеме 1 оклада
Премии по результатам года: до 30% от годового дохода
Комфортный офис в Сочи возле Олимпийского парка
График работы: с 9 до 18 или с 10 до 19 (5/2 8 час. р.д.)
Контакты: @alisa_4ox
Бизнес аналитик BI систем
#вакансия #job #vacancy #работа #BI #аналитик #Москва #гибрид #QlikSense #DWH #DataLake #DataMart #ETL #SQL
✅О компании: АО «Кордиант» – один из лидеров по производству шин на рынке России.
🌎Локация: г. Москва.
💰З/п: 150 000 - 220 000 руб.
📍Задачи:
● Создание корпоративного хранилища данных (Data Lake) и внедрение BI системы #Qlik Sense (на основе данных транзакционных системы и внешних источников);
● Анализ потребностей бизнеса в аналитике, помощь в формировании функциональных требований;
● Проектирование и разработка дашбордов для ТОПов компании;
● методологическая поддержка пользователей по работе с #BI системой;
● Постановка задач и контроль выгрузки из источников
данных.
📍 Мы ожидаем:
● Опыт внедрения BI систем (предпочтительно Qlik);
● Понимание принципов построения и работы с хранилищами данных (DWH), озерами данных (Data Lake) и витринами данных (Data Mart);
● Понимание принципов построения дашбордов и отчетов в BI системах;
● Опыт работы с выгрузкой, преобразованием и загрузкой данных (ETL);
● Опыт работы с большими массивами информации (в т. ч. написание #SQL запросов);
● Умение анализировать и структурировать требования бизнес подразделений;
● Креативность мышления, умения находить и предлагать нестандартные решения.
📍Мы предлагаем:
● Работа в крупном производственном холдинге на проекте внедрения;
● Оформление согласно ТК РФ;
● «Белая» заработная плата;
● График работы 5/2;
● Корпоративное обучение;
● Социальный пакет с ДМС;
● Возможна частичная удаленка (гибрид).
✔️О проекте:✔️
Создание корпоративного хранилища данных (озера
данных) и внедрение BI системы Qlik Sense (на основе
данных транзакционных системы и внешних
источников).
Роль – куратор проекта, связующее звено между
пользователями и внешними разработчиками,
методолог, редактор и контролирующий
ответственный. На следующих этапах - руководитель
проектной группы.
📩 Для отклика и по всем вопросам:
tg: @fadnatalya
email: plena@kodpartnera.ru
#вакансия #job #vacancy #работа #BI #аналитик #Москва #гибрид #QlikSense #DWH #DataLake #DataMart #ETL #SQL
✅О компании: АО «Кордиант» – один из лидеров по производству шин на рынке России.
🌎Локация: г. Москва.
💰З/п: 150 000 - 220 000 руб.
📍Задачи:
● Создание корпоративного хранилища данных (Data Lake) и внедрение BI системы #Qlik Sense (на основе данных транзакционных системы и внешних источников);
● Анализ потребностей бизнеса в аналитике, помощь в формировании функциональных требований;
● Проектирование и разработка дашбордов для ТОПов компании;
● методологическая поддержка пользователей по работе с #BI системой;
● Постановка задач и контроль выгрузки из источников
данных.
📍 Мы ожидаем:
● Опыт внедрения BI систем (предпочтительно Qlik);
● Понимание принципов построения и работы с хранилищами данных (DWH), озерами данных (Data Lake) и витринами данных (Data Mart);
● Понимание принципов построения дашбордов и отчетов в BI системах;
● Опыт работы с выгрузкой, преобразованием и загрузкой данных (ETL);
● Опыт работы с большими массивами информации (в т. ч. написание #SQL запросов);
● Умение анализировать и структурировать требования бизнес подразделений;
● Креативность мышления, умения находить и предлагать нестандартные решения.
📍Мы предлагаем:
● Работа в крупном производственном холдинге на проекте внедрения;
● Оформление согласно ТК РФ;
● «Белая» заработная плата;
● График работы 5/2;
● Корпоративное обучение;
● Социальный пакет с ДМС;
● Возможна частичная удаленка (гибрид).
✔️О проекте:✔️
Создание корпоративного хранилища данных (озера
данных) и внедрение BI системы Qlik Sense (на основе
данных транзакционных системы и внешних
источников).
Роль – куратор проекта, связующее звено между
пользователями и внешними разработчиками,
методолог, редактор и контролирующий
ответственный. На следующих этапах - руководитель
проектной группы.
📩 Для отклика и по всем вопросам:
tg: @fadnatalya
email: plena@kodpartnera.ru
#вакансия #teamlead #DWH #architecture #Datalake
Привет! Мы в СберМаркете активно ищем Data Engineering Team Lead в нашу дружную команду💚🛒
🛒Формат работы - удаленно/офис/гибрид.
🛒Зарплата - от 300.000 обсуждаем с каждым кандидатом в зависимости от опыта.
🚀Мы строим нашу инфраструктуру данных без легаси с использованием современного стека и подходов. У нас есть как задачи классического DWH, так и задачи развитие DataLake и потоковой обработки данных, так что применить свои знания и умения можно практически в любом направлении обработки данных на уровне всей компании.
💻Чем предстоит заниматься:
- принимать участие в стратегических и тактических инициативах руководящей команды.
- декомпозировать бизнес-требования на задачи, распределять их в команде и контролировать выполнение.
- Оптимизировать процессы хранения и обработки данных с использованием облачные технологии и подходов.
- Осуществить миграцию текущей облачной инфраструктуры на собственную инфраструктуру (вплоть до bare metal).
🛠Стек:
SQL, PostgreSQL , Greenplum, Airflow, Python, Java/Scala.
💪 Мы ждем, что у тебя есть:
- опыт в проектировании и разработке DWH (у нас DataVault на Greenplum).
- глубокое понимание организации процессов обмена информацией.
- опыт работы с Apache Kafka.
- опыт с Apache Airflow.
- опыт работы с Clickhouse.
- опыт работы с реляционными СУБД (у нас Mysql и Postgres).
🦾 Что требуется дополнительно:
- проработка целевой архитектуры потоков данных на уровне компании.
- управление командой от 10 человек.
- навыки организации сбора требований и управления ожиданиями.
- коммуникация с основными стейкхолдерами, планирование и реализация внутренних проектов.
Контакты HR: @juliamomo
Чтобы диалог был более предметный, пожалуйста, откликайтесь с резюме🙏
Привет! Мы в СберМаркете активно ищем Data Engineering Team Lead в нашу дружную команду💚🛒
🛒Формат работы - удаленно/офис/гибрид.
🛒Зарплата - от 300.000 обсуждаем с каждым кандидатом в зависимости от опыта.
🚀Мы строим нашу инфраструктуру данных без легаси с использованием современного стека и подходов. У нас есть как задачи классического DWH, так и задачи развитие DataLake и потоковой обработки данных, так что применить свои знания и умения можно практически в любом направлении обработки данных на уровне всей компании.
💻Чем предстоит заниматься:
- принимать участие в стратегических и тактических инициативах руководящей команды.
- декомпозировать бизнес-требования на задачи, распределять их в команде и контролировать выполнение.
- Оптимизировать процессы хранения и обработки данных с использованием облачные технологии и подходов.
- Осуществить миграцию текущей облачной инфраструктуры на собственную инфраструктуру (вплоть до bare metal).
🛠Стек:
SQL, PostgreSQL , Greenplum, Airflow, Python, Java/Scala.
💪 Мы ждем, что у тебя есть:
- опыт в проектировании и разработке DWH (у нас DataVault на Greenplum).
- глубокое понимание организации процессов обмена информацией.
- опыт работы с Apache Kafka.
- опыт с Apache Airflow.
- опыт работы с Clickhouse.
- опыт работы с реляционными СУБД (у нас Mysql и Postgres).
🦾 Что требуется дополнительно:
- проработка целевой архитектуры потоков данных на уровне компании.
- управление командой от 10 человек.
- навыки организации сбора требований и управления ожиданиями.
- коммуникация с основными стейкхолдерами, планирование и реализация внутренних проектов.
Контакты HR: @juliamomo
Чтобы диалог был более предметный, пожалуйста, откликайтесь с резюме🙏