#москва #dataengineer #bigdata #hadoop #java #scala
Вакансия: Senior Java/Scala Developer
Компания: IBS
Локация: м. Волоколамская, м. Тушинская, м. Мякинино
Зарплата: Для нас главное - профессионализм, четких вилок не установлено
ДМС: После ИС + ДМС для детей
Формат: Работа в офисе
Задачи:
- Диагностика и устранение ошибок в коде прикладного программного обеспечения (ППО).
- Разработка ППО под платформу данных на базе Hadoop.
- Участие в адаптации платформы Hadoop к требованиям ППО Заказчика.
- Адаптация архитектуры под требования ППО.
Консультация Заказчика по разработке ППО под специфику Hadoop.
Основные технологии на проекте: Apache Hadoop, Apache Spark, Apache Hive, Apache HBase, Apache ORC, Apache Flink, Apache Phoenix, Java, Scala, Python, PostgreSQL, ClickHouse, Greenplum.
Ожидания
- Уверенные знания и опыт работы от года со стеком Hadoop: HDFS, Yarn, Hive, Spark, HBase.
- Уверенные знания одного из языков: Scala, Java.
- Знание многопоточного программирования и концепции функционального программирования.
- Опыт разработки прикладного кода с использованием стека Hadoop.
- Навыки работы с реляционными БД, key-value хранилищами и SQL (PostgreSQL, Oracle).
- Навыки и культура работы с промышленным исходным кодом.
Резюме VVorozhishcheva@ibs.ru
Вакансия: Senior Java/Scala Developer
Компания: IBS
Локация: м. Волоколамская, м. Тушинская, м. Мякинино
Зарплата: Для нас главное - профессионализм, четких вилок не установлено
ДМС: После ИС + ДМС для детей
Формат: Работа в офисе
Задачи:
- Диагностика и устранение ошибок в коде прикладного программного обеспечения (ППО).
- Разработка ППО под платформу данных на базе Hadoop.
- Участие в адаптации платформы Hadoop к требованиям ППО Заказчика.
- Адаптация архитектуры под требования ППО.
Консультация Заказчика по разработке ППО под специфику Hadoop.
Основные технологии на проекте: Apache Hadoop, Apache Spark, Apache Hive, Apache HBase, Apache ORC, Apache Flink, Apache Phoenix, Java, Scala, Python, PostgreSQL, ClickHouse, Greenplum.
Ожидания
- Уверенные знания и опыт работы от года со стеком Hadoop: HDFS, Yarn, Hive, Spark, HBase.
- Уверенные знания одного из языков: Scala, Java.
- Знание многопоточного программирования и концепции функционального программирования.
- Опыт разработки прикладного кода с использованием стека Hadoop.
- Навыки работы с реляционными БД, key-value хранилищами и SQL (PostgreSQL, Oracle).
- Навыки и культура работы с промышленным исходным кодом.
Резюме VVorozhishcheva@ibs.ru
#vacancy #Dataengineer #python
Вакансия: Data engineer
Условия: 100% remote, fulltime
Зарплата: 2000-2800$
Компания продуктовая компания StarOfService, маркетплейс, микросервисы, enterprise, highload
Requirements:
- 3+ years of experience in Data Warehouse, Data Engineering
- High level in ETL development (Python)
- High level in SQL coding/querying skills
- Experience with Business Intelligence/Dashboarding tools (Tableau, Superset, etc.)
- Experience working directly with business users to gather requirements
- Strong communication and interpersonal skills. Can work independently and as part of a team
@OlgaShvetsP
Вакансия: Data engineer
Условия: 100% remote, fulltime
Зарплата: 2000-2800$
Компания продуктовая компания StarOfService, маркетплейс, микросервисы, enterprise, highload
Requirements:
- 3+ years of experience in Data Warehouse, Data Engineering
- High level in ETL development (Python)
- High level in SQL coding/querying skills
- Experience with Business Intelligence/Dashboarding tools (Tableau, Superset, etc.)
- Experience working directly with business users to gather requirements
- Strong communication and interpersonal skills. Can work independently and as part of a team
@OlgaShvetsP
#вакансиициан #вакансиимосква#dataengineer
Открыта вакансия: Data Engineer
Сейчас команда ML в Циан 20 человек, которая состоит из DS, DE, СRM аналитиков, дата-аналитиков и системного аналитика.
Пишем преимущественно на python, у Data Engineer есть немного задач на scala/java.
Активно используем экосистему hadoop (spark и pyspark,phoenix/hbase, hive, kafka)
Подробная информация о позиции: https://cutt.ly/irmQ39Z
По всем вопросам/резюме - пишите:
почта – y.zhernokleeva@cian.ru
tg - @JuliaZhernokleeva
Открыта вакансия: Data Engineer
Сейчас команда ML в Циан 20 человек, которая состоит из DS, DE, СRM аналитиков, дата-аналитиков и системного аналитика.
Пишем преимущественно на python, у Data Engineer есть немного задач на scala/java.
Активно используем экосистему hadoop (spark и pyspark,phoenix/hbase, hive, kafka)
Подробная информация о позиции: https://cutt.ly/irmQ39Z
По всем вопросам/резюме - пишите:
почта – y.zhernokleeva@cian.ru
tg - @JuliaZhernokleeva
#москва #dataengineer
Всем привет!
И вновь в С7 Техлаб разыскиваются Data Engineer (джуны и мидлы).
Мы расширяем нашу команду в нескольких продуктовых направлениях.
Что придется делать:
- Разбираться с подключением к источникам сырых данных (а иногда и к витринам корпоративных хранилищ);
- Организовывать конвейеры данных из источников;
- Организовывать доступ к данным как для аналитиков, разработчиков и дата сатанистов, так и внешних и внутренних систем;
- Катить конвейеры и витрины до прода;
- При желании - катить до прода и модельки или вообще самому эти модельки пилить.
С чем придется работать:
- Коммерческая информация о рейсах;
- Всевозможная информация о нашем летном составе, наземном и офисном персонале;
- Куча систем от 1C до самописных модулей;
- Контекстная информация - конкуренты, события, погода и тому подобное;
- Потоки данных на любой вкус, от сайта до систем бронирования;
- DataLake и доменные хранилища данных.
Я уже сбился с объема прироста, так как он прогрессирует постоянно
Что мы ждем:
- Знания вокруг бигдатки: HDFS (как, где и почему лежат данные), YARN (кому, какие и почему выделены ресурсы), AirFlow/NiFi (как, куда и зачем текут данные), Spark (обработка и трансформация), Hive (запросики и витринки);
- Крайне желательно умение работать с потоками данных: Kafka, Spark Streaming, Flink;
- Опыт или сильное желание научиться деплоить все описанное выше на Kubernetes + S3;
- Отличные знания SQL и его диалектов, опыт работы с различными РСУБД: Oracle, MSSQL, PostgreSQL, способы оптимизации запросов, выделение инкрементов, репликации;
- Отлично, если есть опыт работы с NoSQL- и колоночными базами: Redis, Scylla, Vertica, ClickHouse.
Разработка, в основном, ведется на Python/Scala, но не чураемся и Java.
Вилка: 80-120 т.р. (джун), 120-200 т.р. (мидл)
Место работы:
Москва, уютный офис на Петровке, прямо напротив ЦУМ.
Как мы работаем:
- Собственное приватное облако с DataLake (пока на Hadoop), Kubernetes, S3 и большой интеграционной шиной на базе Kafka;
- Мощные рабочие компы Dell или Macbook Pro (на маки есть обычно очередь, так как изначально у нас закуплено много деллов);
- Гибкий подход к разработке продуктов, матричная структура;
- Регулярная оценка работы сотрудников, обратная связь в любое время по запросу;
- Каждый член команды имеет право голоса (архитектура решения, бэклог и приоритеты всегда согласуются внутри команды);
- У нас нет узкой специализации (например, если девопс не может прям сейчас настроить сервера для песочницы или организовать CI, то любой свободный человек в команде может перехватить инициативу), но заставлять никто никого не будет;
- Можно рисовать на стенах!
- В офисе болтается куча настолок и пара приставок (свитч и ПС4). Есть суровый кружок контактных видов спорта.
- График не очень строгий, но мы стараемся в 11 уже начинать дейли скрам.
Плюшки:
Система сложная, но в конечном счете приятная. Авиаперелеты, спорт, мобильная связь, бары и рестораны по специальным корпоративным тарифам. Тарифы на авиабилеты действуют на всю семью, включая родителей жены/мужа, а спорт, скидки в барах и прочее можно оформить даже для друзей.
Есть ДМС и 50%-компенсация фитнеса прям около офиса.
Контакт: спрашивать свои ответы можно лично у меня, а можно сразу слать резюме @katievol.
Всем привет!
И вновь в С7 Техлаб разыскиваются Data Engineer (джуны и мидлы).
Мы расширяем нашу команду в нескольких продуктовых направлениях.
Что придется делать:
- Разбираться с подключением к источникам сырых данных (а иногда и к витринам корпоративных хранилищ);
- Организовывать конвейеры данных из источников;
- Организовывать доступ к данным как для аналитиков, разработчиков и дата сатанистов, так и внешних и внутренних систем;
- Катить конвейеры и витрины до прода;
- При желании - катить до прода и модельки или вообще самому эти модельки пилить.
С чем придется работать:
- Коммерческая информация о рейсах;
- Всевозможная информация о нашем летном составе, наземном и офисном персонале;
- Куча систем от 1C до самописных модулей;
- Контекстная информация - конкуренты, события, погода и тому подобное;
- Потоки данных на любой вкус, от сайта до систем бронирования;
- DataLake и доменные хранилища данных.
Я уже сбился с объема прироста, так как он прогрессирует постоянно
Что мы ждем:
- Знания вокруг бигдатки: HDFS (как, где и почему лежат данные), YARN (кому, какие и почему выделены ресурсы), AirFlow/NiFi (как, куда и зачем текут данные), Spark (обработка и трансформация), Hive (запросики и витринки);
- Крайне желательно умение работать с потоками данных: Kafka, Spark Streaming, Flink;
- Опыт или сильное желание научиться деплоить все описанное выше на Kubernetes + S3;
- Отличные знания SQL и его диалектов, опыт работы с различными РСУБД: Oracle, MSSQL, PostgreSQL, способы оптимизации запросов, выделение инкрементов, репликации;
- Отлично, если есть опыт работы с NoSQL- и колоночными базами: Redis, Scylla, Vertica, ClickHouse.
Разработка, в основном, ведется на Python/Scala, но не чураемся и Java.
Вилка: 80-120 т.р. (джун), 120-200 т.р. (мидл)
Место работы:
Москва, уютный офис на Петровке, прямо напротив ЦУМ.
Как мы работаем:
- Собственное приватное облако с DataLake (пока на Hadoop), Kubernetes, S3 и большой интеграционной шиной на базе Kafka;
- Мощные рабочие компы Dell или Macbook Pro (на маки есть обычно очередь, так как изначально у нас закуплено много деллов);
- Гибкий подход к разработке продуктов, матричная структура;
- Регулярная оценка работы сотрудников, обратная связь в любое время по запросу;
- Каждый член команды имеет право голоса (архитектура решения, бэклог и приоритеты всегда согласуются внутри команды);
- У нас нет узкой специализации (например, если девопс не может прям сейчас настроить сервера для песочницы или организовать CI, то любой свободный человек в команде может перехватить инициативу), но заставлять никто никого не будет;
- Можно рисовать на стенах!
- В офисе болтается куча настолок и пара приставок (свитч и ПС4). Есть суровый кружок контактных видов спорта.
- График не очень строгий, но мы стараемся в 11 уже начинать дейли скрам.
Плюшки:
Система сложная, но в конечном счете приятная. Авиаперелеты, спорт, мобильная связь, бары и рестораны по специальным корпоративным тарифам. Тарифы на авиабилеты действуют на всю семью, включая родителей жены/мужа, а спорт, скидки в барах и прочее можно оформить даже для друзей.
Есть ДМС и 50%-компенсация фитнеса прям около офиса.
Контакт: спрашивать свои ответы можно лично у меня, а можно сразу слать резюме @katievol.
#вакансия #удаленка #DataEngineer #parttime #remote #worldwide
Название компании: Ypsource, UK
Формат работы: Remote from anywhere
Занятость: частичная (4-5 ч в день), контракт на 3 мес. с возможностью продления
Зарплатная вилка: $22-25/h, оплата ежемесячно
Описание вакансии: Middle/Senior Data Engineer – Multi-Project
Key Responsibilities:
• Ensure data layers are maintained across web and app and the correct SDKs or Tag Management systems are operationally and accurate.
• Creation and maintenance of ETL jobs in AWS and GCP.
• High degree of automation experience and demonstrable experience in reduction of manual intervention into data pipelines.
• Integration of 3rd party data sources using APIs.
• Support data analyst with the creation of analytics data models
• Experience with AWS and/or GCP billing models and knowledge of how to optimise storage and computing costs
Ensure digital data layers are maintained across web & app and a suitable Tag Management System is operational
- Relationship owner with data partner agencies, ensuring deliverables meet time and budget constraints
- Manage the governance of Marketing data quality in parallel with Legal & Information Security, including but not limited to GDPR compliance
- Create and maintaining ETL jobs in both GUI and shell script environments (e.g. Apache Airflow, DBT)
- Support existing processes running in production alongside designing, building and launching new data pipelines
- Integration of 3rd party data sources using APIs
- Define and manage SLA's for all data sets and work with providers to enforce these agreements
- Understand and recommend data capability enablement and integration approaches to operational challenges
- English: Pre-intermmediate and up
Контакты: @Natalie_lekomtseva
P.S. Я не HR, публикую по просьбе англоязычных коллег :)
Название компании: Ypsource, UK
Формат работы: Remote from anywhere
Занятость: частичная (4-5 ч в день), контракт на 3 мес. с возможностью продления
Зарплатная вилка: $22-25/h, оплата ежемесячно
Описание вакансии: Middle/Senior Data Engineer – Multi-Project
Key Responsibilities:
• Ensure data layers are maintained across web and app and the correct SDKs or Tag Management systems are operationally and accurate.
• Creation and maintenance of ETL jobs in AWS and GCP.
• High degree of automation experience and demonstrable experience in reduction of manual intervention into data pipelines.
• Integration of 3rd party data sources using APIs.
• Support data analyst with the creation of analytics data models
• Experience with AWS and/or GCP billing models and knowledge of how to optimise storage and computing costs
Ensure digital data layers are maintained across web & app and a suitable Tag Management System is operational
- Relationship owner with data partner agencies, ensuring deliverables meet time and budget constraints
- Manage the governance of Marketing data quality in parallel with Legal & Information Security, including but not limited to GDPR compliance
- Create and maintaining ETL jobs in both GUI and shell script environments (e.g. Apache Airflow, DBT)
- Support existing processes running in production alongside designing, building and launching new data pipelines
- Integration of 3rd party data sources using APIs
- Define and manage SLA's for all data sets and work with providers to enforce these agreements
- Understand and recommend data capability enablement and integration approaches to operational challenges
- English: Pre-intermmediate and up
Контакты: @Natalie_lekomtseva
P.S. Я не HR, публикую по просьбе англоязычных коллег :)