Forwarded from Anastasiia Usoltseva
#вакансия #фуллтайм #офис #senior #developer #scala #spark #bigdata #spb #fulltime
Senior Big Data Developer
GRID DYNAMICS is the engineering services company known for transformative, mission-critical cloud solutions for retail, finance and technology sectors. We architected some of the busiest e-commerce services on the Internet and have never had an outage during the peak season. Founded in 2006 and headquartered in San Ramon, California with offices throughout the US and Eastern Europe, we focus on big data analytics, scalable omnichannel services, DevOps, and cloud enablement.
Description:
We are looking for an enthusiastic and technology-proficient Big Data Developer, who is eager to participate in design and implementation of a top-notch big data solution that will be deployed at a massive scale.😎
Responsibilities:
🔸Participate in the design and development of a big data analytics application
🔸Design, support and continuously enhance the project code base, continuous integration pipeline, etc.
🔸Write complex ETL processes and frameworks for analytics and data management
🔸Implement large-scale near real-time streaming data processing pipelines
🔸Work with a team of industry experts on cutting-edge big data technologies to develop solutions for deployment at massive scale
Requirements:
🔹Strong knowledge of Scala
🔹In-depth knowledge of Hadoop and Spark, experience with data mining and stream processing technologies (Kafka, Spark Streaming, Akka Streams)
🔹Understanding of the best practices in data quality and quality engineering
🔹Experience with version control systems,
🔹Git in particular ability to quickly learn new tools and technologies
We offer:
🔻Opportunity to work on bleeding-edge projects
🔻Work with a highly motivated and dedicated team
🔻Competitive salary
🔻Flexible schedule
🔻Benefits program
🔻Social package - medical insurance, sports
🔻Corporate social events
🔻Professional development opportunities
🔻Opportunity for long business trips to the US and possibility for relocation.
Feel free to contact me: tg-@anastasicrumb or e-mail ausoltseva@griddynamics.com ☺️
Senior Big Data Developer
GRID DYNAMICS is the engineering services company known for transformative, mission-critical cloud solutions for retail, finance and technology sectors. We architected some of the busiest e-commerce services on the Internet and have never had an outage during the peak season. Founded in 2006 and headquartered in San Ramon, California with offices throughout the US and Eastern Europe, we focus on big data analytics, scalable omnichannel services, DevOps, and cloud enablement.
Description:
We are looking for an enthusiastic and technology-proficient Big Data Developer, who is eager to participate in design and implementation of a top-notch big data solution that will be deployed at a massive scale.😎
Responsibilities:
🔸Participate in the design and development of a big data analytics application
🔸Design, support and continuously enhance the project code base, continuous integration pipeline, etc.
🔸Write complex ETL processes and frameworks for analytics and data management
🔸Implement large-scale near real-time streaming data processing pipelines
🔸Work with a team of industry experts on cutting-edge big data technologies to develop solutions for deployment at massive scale
Requirements:
🔹Strong knowledge of Scala
🔹In-depth knowledge of Hadoop and Spark, experience with data mining and stream processing technologies (Kafka, Spark Streaming, Akka Streams)
🔹Understanding of the best practices in data quality and quality engineering
🔹Experience with version control systems,
🔹Git in particular ability to quickly learn new tools and technologies
We offer:
🔻Opportunity to work on bleeding-edge projects
🔻Work with a highly motivated and dedicated team
🔻Competitive salary
🔻Flexible schedule
🔻Benefits program
🔻Social package - medical insurance, sports
🔻Corporate social events
🔻Professional development opportunities
🔻Opportunity for long business trips to the US and possibility for relocation.
Feel free to contact me: tg-@anastasicrumb or e-mail ausoltseva@griddynamics.com ☺️
Griddynamics
Grid Dynamics: engineering IT services company
Grid Dynamics is the engineering IT services company known for transformative, mission-critical cloud solutions for retail, finance and technology sectors. We focus on big data analytics, scalable omnichannel services, DevOps, and cloud enablement.
#Вакансия #DataEngineer #Удаленно #Scala #Python #SQL #Spark
Должность: Data Engineer
Вилка: 150’000 — 220’000 руб.
Город: удаленно
Занятость: full time
Контакты: @valdavydov
❗️Приглашаем присоединиться к международной быстрорастущей компании в области Big Data.
🔹Мы:
🔹Рассчитываем, что ты:
🔹Тебе предстоит:
🔹Ты сможешь:
Должность: Data Engineer
Вилка: 150’000 — 220’000 руб.
Город: удаленно
Занятость: full time
Контакты: @valdavydov
❗️Приглашаем присоединиться к международной быстрорастущей компании в области Big Data.
🔹Мы:
•
Опытная и динамичная команда с головным офисом в Канаде, г. Торонто. •
Разрабатываем платформу, которая в корне меняет то, как компании работают с большими данными. •
Среди наших клиентов крупнейшие компании финансовой индустрии Северной Америки.🔹Рассчитываем, что ты:
•
Имеешь опыт работы от 2-х лет в роли Data Engineer. •
Прекрасно знаешь Scala. •
Знаком с SQL и Python. Если не знаешь Python, научим. Главное — Scala. •
Уверенно разрабатываешь на Apache Spark и глубоко понимаешь методы оптимизации Spark приложений. •
Умеешь пользоваться AWS EMR. •
Имеешь опыт в построении Data Warehouse и Data Lake. •
Понимаешь, что Lakehouse — это не “дом у озера”, а, возможно, лучшая архитектура управления данными.🔹Тебе предстоит:
•
Разрабатывать инновационные решения для обработки больших данных. •
Формировать автоматизированные ETL пайплайны. •
Оптимизировать Spark приложения. •
Выстраивать архитектуру управления данными.🔹Ты сможешь:
•
Приобрести уникальный опыт работы в сильной международной команде. •
Расти и развиваться вместе с компанией. •
Реализовать свои самые смелые идеи обработки больших данных.#вакансия #Data_Engineer #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно
🔸Компания: Bell Integrator
🔸Вакансия: Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.
🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков
🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка
🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.
🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;
🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите: ASon@bellintegrator.com
🔸Компания: Bell Integrator
🔸Вакансия: Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.
🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков
🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка
🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.
🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;
🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите: ASon@bellintegrator.com
#вакансия #dataengineer #data_engineer #etl #elt #spark #nifi #airflow #kafka #Россия #удаленка #remote #fulltime
📍Компания: ОМК - Объединённая Металлургическая Компания (https://omk.ru/company)
📍Вакансия: Data Engineer
📍Локация: удалённо с территории РФ
📍ЗП: 150-220К net
📍Стек: Apache Spark, Apache NiFi, Apache Kafka, Apache Airflow, S3, Python
🔻Проект: Компания запускает новый большой цех в рамках Выксунского металлургического завода, где предстоит работать с производственными данными. В ближайшем будущем планируется перенос данных в облака.
Обязанности:
🔹 Развитие платформы данных производственного предприятия;
🔹 Подключение к источникам данных технологического уровня;
🔹 Реализация ETL/ELT-сценариев и витрин данных;
🔹 Поддержка работоспособности построенных потоков данных;
🔹 Информационная поддержка исследовательских и регулярных аналитических задач.
Требования:
🔸 Опыт работы по аналогичным задачам от 1,5 лет;
🔸 Знание SQL на отличном уровне;
🔸 Опыт работы с NiFi/Spark;
🔸 Опыт работы с Kafka;
🔸 Опыт работы с Airflow;
🔸 Знание Python.
Условия:
🔺 Трудоустройство по ТК РФ;
🔺 Полностью удаленный формат работы;
🔺 ДМС;
🔺 Предоставление техники при необходимости.
📲 буду рада ответить на все Ваши вопросы по позиции @alexandrainly
📍Компания: ОМК - Объединённая Металлургическая Компания (https://omk.ru/company)
📍Вакансия: Data Engineer
📍Локация: удалённо с территории РФ
📍ЗП: 150-220К net
📍Стек: Apache Spark, Apache NiFi, Apache Kafka, Apache Airflow, S3, Python
🔻Проект: Компания запускает новый большой цех в рамках Выксунского металлургического завода, где предстоит работать с производственными данными. В ближайшем будущем планируется перенос данных в облака.
Обязанности:
🔹 Развитие платформы данных производственного предприятия;
🔹 Подключение к источникам данных технологического уровня;
🔹 Реализация ETL/ELT-сценариев и витрин данных;
🔹 Поддержка работоспособности построенных потоков данных;
🔹 Информационная поддержка исследовательских и регулярных аналитических задач.
Требования:
🔸 Опыт работы по аналогичным задачам от 1,5 лет;
🔸 Знание SQL на отличном уровне;
🔸 Опыт работы с NiFi/Spark;
🔸 Опыт работы с Kafka;
🔸 Опыт работы с Airflow;
🔸 Знание Python.
Условия:
🔺 Трудоустройство по ТК РФ;
🔺 Полностью удаленный формат работы;
🔺 ДМС;
🔺 Предоставление техники при необходимости.
📲 буду рада ответить на все Ваши вопросы по позиции @alexandrainly
ОМК
Объединенная металлургическая компания (АО «ОМК»)
ОМК – одна из крупнейших промышленных компаний России и комплексный поставщик решений для экономики. Производим высококачественную продукцию, которая соответствует самым жестким требованиям потребителей.
#Вакансия #DE #data #Москва #Developer #dataengineer #data_engineer #spark #airflow #fulltime #офис
📍 Вакансия: Data Engineer
📍 Компания: Predicto
📍 Локация: Москва, м. Краснопресненская/Улица 1905 года, БЦ Трехгорная мануфактура
📍 Формат: Офис
📍 Занятость: Полная (5/2)
📍 ЗП: от 250к до 350к на руки
PREDICTO – продуктовая компания, которая разрабатывает маркетинговую платформу, предлагающую персонализацию рекламы на основе анализа истории покупок.
Технологический стек команды: Python, SQL, Spark, Airflow, ClickHouse, Yandex Cloud
Обязанности:
🔹 Проектирование, разработка и поддержание пайплайнов для сбора и обработки данных;
🔹 Подготовка SLA и обеспечение качества данных;
🔹 Подготовка данных для моделей машинного обучения и принятие участия в их продукционализации совместно с командой data science.
Требования:
🔸 Опыт работы по аналогичным задачам от 2,5 лет;
🔸 Опыт работы с Python;
🔸 Знание SQL на отличном уровне;
🔸 Опыт работы со Spark и Airflow ;
🔸Участие в проектах с большими данными, а также понимание принципов распределенной обработки данных.
Условия:
🔺 Трудоустройство согласно Законодательству;
🔺 Большой датасет, интересные задачи, возможность влиять на продукт;
🔺 Комфортабельный офис со спортзалом, комнатой отдыха с плазмой и Sony PlayStation, кухней с различными плюшками (прохладительные напитки, сырки, конфеты).
📲 Буду рада ответить на все Ваши вопросы по позиции @svetlana_sog
📍 Вакансия: Data Engineer
📍 Компания: Predicto
📍 Локация: Москва, м. Краснопресненская/Улица 1905 года, БЦ Трехгорная мануфактура
📍 Формат: Офис
📍 Занятость: Полная (5/2)
📍 ЗП: от 250к до 350к на руки
PREDICTO – продуктовая компания, которая разрабатывает маркетинговую платформу, предлагающую персонализацию рекламы на основе анализа истории покупок.
Технологический стек команды: Python, SQL, Spark, Airflow, ClickHouse, Yandex Cloud
Обязанности:
🔹 Проектирование, разработка и поддержание пайплайнов для сбора и обработки данных;
🔹 Подготовка SLA и обеспечение качества данных;
🔹 Подготовка данных для моделей машинного обучения и принятие участия в их продукционализации совместно с командой data science.
Требования:
🔸 Опыт работы по аналогичным задачам от 2,5 лет;
🔸 Опыт работы с Python;
🔸 Знание SQL на отличном уровне;
🔸 Опыт работы со Spark и Airflow ;
🔸Участие в проектах с большими данными, а также понимание принципов распределенной обработки данных.
Условия:
🔺 Трудоустройство согласно Законодательству;
🔺 Большой датасет, интересные задачи, возможность влиять на продукт;
🔺 Комфортабельный офис со спортзалом, комнатой отдыха с плазмой и Sony PlayStation, кухней с различными плюшками (прохладительные напитки, сырки, конфеты).
📲 Буду рада ответить на все Ваши вопросы по позиции @svetlana_sog
#вакансия #Data_Engineer #ETL #Hadoop #spark #SQL #big_data #Bell_Integrator #Россия #Удаленно
🔸Компания: Bell Integrator
🔸Вакансия: Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.
🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков
🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка
🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.
🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;
🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите: ASon@bellintegrator.com
🔸Компания: Bell Integrator
🔸Вакансия: Data engineer
🔸Локация: Удаленно
🔸ЗП: 220 000 -250 000 net
📩Для отклика и по всем вопросам:
tg: @AnechkaSon
🔸Проект: Мы продолжаем развитие платформы больших данных и ищем опытных специалистов, профессионалов в работе с данными.
🔸Сейчас нам нужен Data engineer на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
🔸Команда платформы консолидирует данные из различных внешних и внутренних источников, запускает пилотные проекты и обогащает данными в соответствии с требованиями бизнес-заказчиков
🔸Основные задачи:
•Миграционные задачи: перенос существующих витрин на фреймворк SDP Hadoop
•Развитие и внедрение продуктов Сбербанка
🔸Требования:
•Опыт работы от 2х лет;
•Навыки программирования на Java;
•Наличие практического опыта работы 1-3 года с Hadoop(Hive, Impala, sqoop, oozie, HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark;
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами;
•Опыт программирования и разработки алгоритмов и структур данных;
•Понимание как оптимизировать ETL процессы;
•Фундаментальные знания принципов построения распределенных систем хранения и обработки данных.
🔸Желательно:
•Опыт работы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов;
•Опыт работы с NoSQL базам данных (HBase, Cassandra);
•Опыт работы с Unix shell;
•Jenkins;
🔸Мы предлагаем:
•Возможность профессионального и карьерного роста в компании;
•Возможность поучаствовать в разных проектах;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно.
📩 А также пишите: ASon@bellintegrator.com