Data Engineer
Компания: Luna Capital - аккредитованная IT-компания
Зарплата: 230 000 - 250 000 net
Тип занятости: #Удаленка
Локация: #РФ
Позиция: #Middle
Команда ищет Data Engineer уровня Middle, который будет развивать и поддерживать аналитическое хранилище данных компании. Много интересных задач: как создание новых компонентов, так и улучшение уже работающих решений. Мы ценим чистый, стабильный код и внимательно относимся к качеству данных - ищем того, кто разделяет этот подход.
Обязанности
— Разработка нового и доработка существующего кода компонентов аналитического хранилища данных
— Создание и описание правил работы с кодом, оформление базы знаний
— Разработка и описание процессов публикации и релизов
— Оптимизация SQL-запросов и структур БД
— Оперативное реагирование на инциденты в зоне ответственности
— Участие в код-ревью
Требования
— Общий опыт работы от 3 лет
— Практический опыт с ELT-процессами
— Владение системами контроля версий (Git, GitLab, Bitbucket)
— Опыт работы с распределёнными базами данных: Hadoop, Greenplum
— Знание SQL (ANSI, PL/SQL) и опыт оптимизации запросов
— Навыки работы с системами ведения документации
Что компания предлагает
— [Преимущество 1, например, гибкий график]
— [Преимущество 2, например, обучение за счет компании]
— [Преимущество 3, например, корпоративные мероприятия]
Контакт для связи: @Me_Polly
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/29
Стек технологий: #Hadoop #Greenplum #SQL #Git #GitLab #Bitbucket
Компания: Luna Capital - аккредитованная IT-компания
Зарплата: 230 000 - 250 000 net
Тип занятости: #Удаленка
Локация: #РФ
Позиция: #Middle
Команда ищет Data Engineer уровня Middle, который будет развивать и поддерживать аналитическое хранилище данных компании. Много интересных задач: как создание новых компонентов, так и улучшение уже работающих решений. Мы ценим чистый, стабильный код и внимательно относимся к качеству данных - ищем того, кто разделяет этот подход.
Обязанности
— Разработка нового и доработка существующего кода компонентов аналитического хранилища данных
— Создание и описание правил работы с кодом, оформление базы знаний
— Разработка и описание процессов публикации и релизов
— Оптимизация SQL-запросов и структур БД
— Оперативное реагирование на инциденты в зоне ответственности
— Участие в код-ревью
Требования
— Общий опыт работы от 3 лет
— Практический опыт с ELT-процессами
— Владение системами контроля версий (Git, GitLab, Bitbucket)
— Опыт работы с распределёнными базами данных: Hadoop, Greenplum
— Знание SQL (ANSI, PL/SQL) и опыт оптимизации запросов
— Навыки работы с системами ведения документации
Что компания предлагает
— [Преимущество 1, например, гибкий график]
— [Преимущество 2, например, обучение за счет компании]
— [Преимущество 3, например, корпоративные мероприятия]
Контакт для связи: @Me_Polly
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/29
Стек технологий: #Hadoop #Greenplum #SQL #Git #GitLab #Bitbucket
Data Engineer
Компания: ГК Рост
Зарплата: по договоренности
Тип занятости: #Гибрид
Локация: #Москва
Позиция: #Middle #Senior
Лидер российского рынка овощей защищенного грунта. Численность сотрудников холдинга – более 12,500 человек.
Обязанности
— Анализ систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
— Разработка и поддержка ETL/ELT процессов из различных источников (Airflow)
— Сбор, анализ и формализация требований к разрабатываемым решениям (модели данных, витрины данных для аналитики)
— Разработка и поддержка моделей и витрин данных (DBT)
— Обеспечение качества данных (чистота, точность, целостность, полнота)
— Формирование технической документации (ELT/ETL процессы и алгоритмы)
— Улучшение архитектуры данных, внедрение новых технологий обработки и хранения
— Описание объектов данных в дата-каталоге, поддержка актуального состояния
Требования
— Опыт проектирования, разработки и запуска ETL процессов (Airflow)
— Опыт проектирования и разработки баз данных OLTP, OLAP (MS SQL)
— Знание SQL (сложные запросы, оконные функции, оптимизация), Python
— Навыки работы с GitLab, настройка CI/CD пайплайнов
— Понимание работы BI-инструментов (Power BI)
Что компания предлагает
— Официальное оформление в ООО "УК ""РОСТ"
— График работы: 40 часов в неделю (гибридный формат)
— Комфортабельное рабочее место, корпоративная мобильная связь
— Добровольное медицинское страхование
— Конкурентоспособная заработная плата
— Обучение и развитие за счет компании
— Отпуск 28 календарных дней
— Офис: м. Киевская, БЦ "Атлантик"
Контакт для связи: @AlexandraKononenko
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/48
Стек технологий: #MSSQL #SSAS #PowerBI #Airflow #DBT #GitLab #Docker #Linux #SQL #Python
Компания: ГК Рост
Зарплата: по договоренности
Тип занятости: #Гибрид
Локация: #Москва
Позиция: #Middle #Senior
Лидер российского рынка овощей защищенного грунта. Численность сотрудников холдинга – более 12,500 человек.
Обязанности
— Анализ систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
— Разработка и поддержка ETL/ELT процессов из различных источников (Airflow)
— Сбор, анализ и формализация требований к разрабатываемым решениям (модели данных, витрины данных для аналитики)
— Разработка и поддержка моделей и витрин данных (DBT)
— Обеспечение качества данных (чистота, точность, целостность, полнота)
— Формирование технической документации (ELT/ETL процессы и алгоритмы)
— Улучшение архитектуры данных, внедрение новых технологий обработки и хранения
— Описание объектов данных в дата-каталоге, поддержка актуального состояния
Требования
— Опыт проектирования, разработки и запуска ETL процессов (Airflow)
— Опыт проектирования и разработки баз данных OLTP, OLAP (MS SQL)
— Знание SQL (сложные запросы, оконные функции, оптимизация), Python
— Навыки работы с GitLab, настройка CI/CD пайплайнов
— Понимание работы BI-инструментов (Power BI)
Что компания предлагает
— Официальное оформление в ООО "УК ""РОСТ"
— График работы: 40 часов в неделю (гибридный формат)
— Комфортабельное рабочее место, корпоративная мобильная связь
— Добровольное медицинское страхование
— Конкурентоспособная заработная плата
— Обучение и развитие за счет компании
— Отпуск 28 календарных дней
— Офис: м. Киевская, БЦ "Атлантик"
Контакт для связи: @AlexandraKononenko
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/48
Стек технологий: #MSSQL #SSAS #PowerBI #Airflow #DBT #GitLab #Docker #Linux #SQL #Python
Data инженер
Компания: Top Selection
Зарплата: 350-420K
Тип занятости: #Удаленка
Локация: #РФ
Позиция: #Senior
Мы в поиске Data инженера на проектную занятость. Долгосрочный проект с оформлением по ИП.
Обязанности
— Разработка и оптимизация сложных SQL-запросов
— Оркестрация ETL-пайплайнов с помощью Airflow
— Работа с технологиями экосистемы Hadoop (HDFS, YARN, HIVE, Sqoop)
— Разработка и поддержка решений на Apache Spark (Spark DataFrames, Spark SQL)
— Взаимодействие с инструментом dbt
— Работа с банковской предметной областью
Требования
— Опыт работы с SQL на уровне оптимизированных сложных запросов
— Понимание принципов функционирования традиционных СУБД и MPP-баз данных
— Опыт программирования на Python, Java или Scala
— Опыт оркестрации ETL-пайплайнов (Airflow)
— Умение работать с Hadoop (HDFS, YARN, HIVE, Sqoop)
— Владение Apache Spark (Spark DataFrames, Spark SQL)
— Опыт работы с банковской предметной областью
— Желательно: опыт с Kafka, Trino, Kubernetes, Helm, CI/CD
Что компания предлагает
— Долгосрочный проект
— Удаленный формат работы
— Конкурентную ставку
Контакт для связи: @aliiS_a
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/95
Стек технологий: #Python #Trino #dbt #Airflow #Spark #Hadoop #Hive #Postgres #Greenplum #Kubernetes #Gitlab
Компания: Top Selection
Зарплата: 350-420K
Тип занятости: #Удаленка
Локация: #РФ
Позиция: #Senior
Мы в поиске Data инженера на проектную занятость. Долгосрочный проект с оформлением по ИП.
Обязанности
— Разработка и оптимизация сложных SQL-запросов
— Оркестрация ETL-пайплайнов с помощью Airflow
— Работа с технологиями экосистемы Hadoop (HDFS, YARN, HIVE, Sqoop)
— Разработка и поддержка решений на Apache Spark (Spark DataFrames, Spark SQL)
— Взаимодействие с инструментом dbt
— Работа с банковской предметной областью
Требования
— Опыт работы с SQL на уровне оптимизированных сложных запросов
— Понимание принципов функционирования традиционных СУБД и MPP-баз данных
— Опыт программирования на Python, Java или Scala
— Опыт оркестрации ETL-пайплайнов (Airflow)
— Умение работать с Hadoop (HDFS, YARN, HIVE, Sqoop)
— Владение Apache Spark (Spark DataFrames, Spark SQL)
— Опыт работы с банковской предметной областью
— Желательно: опыт с Kafka, Trino, Kubernetes, Helm, CI/CD
Что компания предлагает
— Долгосрочный проект
— Удаленный формат работы
— Конкурентную ставку
Контакт для связи: @aliiS_a
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/95
Стек технологий: #Python #Trino #dbt #Airflow #Spark #Hadoop #Hive #Postgres #Greenplum #Kubernetes #Gitlab