SQL Jobs | Работа | Вакансии | Удалёнка [IT MATCH]
358 subscribers
2 photos
109 links
Админ/реклама - @chezarius

Разместить вакансию: https://t.me/it_match_bot
Download Telegram
Data Engineer

Компания: Luna Capital - аккредитованная IT-компания
Зарплата: 230 000 - 250 000 net
Тип занятости: #Удаленка
Локация: #РФ
Позиция: #Middle

Команда ищет Data Engineer уровня Middle, который будет развивать и поддерживать аналитическое хранилище данных компании. Много интересных задач: как создание новых компонентов, так и улучшение уже работающих решений. Мы ценим чистый, стабильный код и внимательно относимся к качеству данных - ищем того, кто разделяет этот подход.

Обязанности
— Разработка нового и доработка существующего кода компонентов аналитического хранилища данных
— Создание и описание правил работы с кодом, оформление базы знаний
— Разработка и описание процессов публикации и релизов
— Оптимизация SQL-запросов и структур БД
— Оперативное реагирование на инциденты в зоне ответственности
— Участие в код-ревью

Требования
— Общий опыт работы от 3 лет
— Практический опыт с ELT-процессами
— Владение системами контроля версий (Git, GitLab, Bitbucket)
— Опыт работы с распределёнными базами данных: Hadoop, Greenplum
— Знание SQL (ANSI, PL/SQL) и опыт оптимизации запросов
— Навыки работы с системами ведения документации

Что компания предлагает
— [Преимущество 1, например, гибкий график]
— [Преимущество 2, например, обучение за счет компании]
— [Преимущество 3, например, корпоративные мероприятия]

Контакт для связи: @Me_Polly

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/29

Стек технологий: #Hadoop #Greenplum #SQL #Git #GitLab #Bitbucket
Data Engineer

Компания: ГК Рост
Зарплата: по договоренности
Тип занятости: #Гибрид
Локация: #Москва
Позиция: #Middle #Senior

Лидер российского рынка овощей защищенного грунта. Численность сотрудников холдинга – более 12,500 человек.

Обязанности
— Анализ систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
— Разработка и поддержка ETL/ELT процессов из различных источников (Airflow)
— Сбор, анализ и формализация требований к разрабатываемым решениям (модели данных, витрины данных для аналитики)
— Разработка и поддержка моделей и витрин данных (DBT)
— Обеспечение качества данных (чистота, точность, целостность, полнота)
— Формирование технической документации (ELT/ETL процессы и алгоритмы)
— Улучшение архитектуры данных, внедрение новых технологий обработки и хранения
— Описание объектов данных в дата-каталоге, поддержка актуального состояния

Требования
— Опыт проектирования, разработки и запуска ETL процессов (Airflow)
— Опыт проектирования и разработки баз данных OLTP, OLAP (MS SQL)
— Знание SQL (сложные запросы, оконные функции, оптимизация), Python
— Навыки работы с GitLab, настройка CI/CD пайплайнов
— Понимание работы BI-инструментов (Power BI)

Что компания предлагает
— Официальное оформление в ООО "УК ""РОСТ"
— График работы: 40 часов в неделю (гибридный формат)
— Комфортабельное рабочее место, корпоративная мобильная связь
— Добровольное медицинское страхование
— Конкурентоспособная заработная плата
— Обучение и развитие за счет компании
— Отпуск 28 календарных дней
— Офис: м. Киевская, БЦ "Атлантик"

Контакт для связи: @AlexandraKononenko

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/48

Стек технологий: #MSSQL #SSAS #PowerBI #Airflow #DBT #GitLab #Docker #Linux #SQL #Python
Data инженер

Компания: Top Selection
Зарплата: 350-420K
Тип занятости: #Удаленка
Локация: #РФ
Позиция: #Senior

Мы в поиске Data инженера на проектную занятость. Долгосрочный проект с оформлением по ИП.

Обязанности
— Разработка и оптимизация сложных SQL-запросов
— Оркестрация ETL-пайплайнов с помощью Airflow
— Работа с технологиями экосистемы Hadoop (HDFS, YARN, HIVE, Sqoop)
— Разработка и поддержка решений на Apache Spark (Spark DataFrames, Spark SQL)
— Взаимодействие с инструментом dbt
— Работа с банковской предметной областью

Требования
— Опыт работы с SQL на уровне оптимизированных сложных запросов
— Понимание принципов функционирования традиционных СУБД и MPP-баз данных
— Опыт программирования на Python, Java или Scala
— Опыт оркестрации ETL-пайплайнов (Airflow)
— Умение работать с Hadoop (HDFS, YARN, HIVE, Sqoop)
— Владение Apache Spark (Spark DataFrames, Spark SQL)
— Опыт работы с банковской предметной областью
— Желательно: опыт с Kafka, Trino, Kubernetes, Helm, CI/CD

Что компания предлагает
— Долгосрочный проект
— Удаленный формат работы
— Конкурентную ставку

Контакт для связи: @aliiS_a

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/95

Стек технологий: #Python #Trino #dbt #Airflow #Spark #Hadoop #Hive #Postgres #Greenplum #Kubernetes #Gitlab