Data Engineer (Senior)
Компания: Российская сеть розничных магазинов
Зарплата: по договоренности
Тип занятости: #Удаленка
Локация: #РФ #РБ
Позиция: #Senior
Разработка и поддержка инфраструктуры данных для крупной розничной сети. Проект продолжительностью 3 месяца с возможностью продления.
Обязанности
— Миграция из Managed Service в собственные Kubernetes
— Разработка модулей и скриптов данных для пилота
— Разработка скриптов для повышения качества данных
— Разработка CI/CD конвейеров (1 DevOps/1 DE)
— Разработка модулей для Alluxio (0,5 DevOps)
— I&D. Разработка модулей для поддержки промышленной системы (0,5 DevOps)
— Разработка модулей межсервисного шифрования (0,5 DevOps)
— Разработка общего метахранилища (0,5 DevOps)
— I&D. Разработка мониторинга сервисов и инфраструктуры (0,5 DevOps)
Требования
— Опыт работы с Apache (Spark, Hive, Airflow)
— Знание Yandex Cloud
— Владение Python и SQL
— Опыт работы с Linux и Docker
— Понимание streaming-технологий
Что компания предлагает
— Удаленный формат работы
— Возможность продления проекта
— Участие в масштабных задачах по обработке данных
Контакт для связи: @grosssoft1600, +7 999 689 1600 (Екатерина, IT-recruiter)
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/47
Стек технологий: #Apache #Spark #Hive #Airflow #YandexCloud #Python #SQL #Linux #Docker #Streaming
Компания: Российская сеть розничных магазинов
Зарплата: по договоренности
Тип занятости: #Удаленка
Локация: #РФ #РБ
Позиция: #Senior
Разработка и поддержка инфраструктуры данных для крупной розничной сети. Проект продолжительностью 3 месяца с возможностью продления.
Обязанности
— Миграция из Managed Service в собственные Kubernetes
— Разработка модулей и скриптов данных для пилота
— Разработка скриптов для повышения качества данных
— Разработка CI/CD конвейеров (1 DevOps/1 DE)
— Разработка модулей для Alluxio (0,5 DevOps)
— I&D. Разработка модулей для поддержки промышленной системы (0,5 DevOps)
— Разработка модулей межсервисного шифрования (0,5 DevOps)
— Разработка общего метахранилища (0,5 DevOps)
— I&D. Разработка мониторинга сервисов и инфраструктуры (0,5 DevOps)
Требования
— Опыт работы с Apache (Spark, Hive, Airflow)
— Знание Yandex Cloud
— Владение Python и SQL
— Опыт работы с Linux и Docker
— Понимание streaming-технологий
Что компания предлагает
— Удаленный формат работы
— Возможность продления проекта
— Участие в масштабных задачах по обработке данных
Контакт для связи: @grosssoft1600, +7 999 689 1600 (Екатерина, IT-recruiter)
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/47
Стек технологий: #Apache #Spark #Hive #Airflow #YandexCloud #Python #SQL #Linux #Docker #Streaming
Data Engineer
Компания: ГК Рост
Зарплата: по договоренности
Тип занятости: #Гибрид
Локация: #Москва
Позиция: #Middle #Senior
Лидер российского рынка овощей защищенного грунта. Численность сотрудников холдинга – более 12,500 человек.
Обязанности
— Анализ систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
— Разработка и поддержка ETL/ELT процессов из различных источников (Airflow)
— Сбор, анализ и формализация требований к разрабатываемым решениям (модели данных, витрины данных для аналитики)
— Разработка и поддержка моделей и витрин данных (DBT)
— Обеспечение качества данных (чистота, точность, целостность, полнота)
— Формирование технической документации (ELT/ETL процессы и алгоритмы)
— Улучшение архитектуры данных, внедрение новых технологий обработки и хранения
— Описание объектов данных в дата-каталоге, поддержка актуального состояния
Требования
— Опыт проектирования, разработки и запуска ETL процессов (Airflow)
— Опыт проектирования и разработки баз данных OLTP, OLAP (MS SQL)
— Знание SQL (сложные запросы, оконные функции, оптимизация), Python
— Навыки работы с GitLab, настройка CI/CD пайплайнов
— Понимание работы BI-инструментов (Power BI)
Что компания предлагает
— Официальное оформление в ООО "УК ""РОСТ"
— График работы: 40 часов в неделю (гибридный формат)
— Комфортабельное рабочее место, корпоративная мобильная связь
— Добровольное медицинское страхование
— Конкурентоспособная заработная плата
— Обучение и развитие за счет компании
— Отпуск 28 календарных дней
— Офис: м. Киевская, БЦ "Атлантик"
Контакт для связи: @AlexandraKononenko
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/48
Стек технологий: #MSSQL #SSAS #PowerBI #Airflow #DBT #GitLab #Docker #Linux #SQL #Python
Компания: ГК Рост
Зарплата: по договоренности
Тип занятости: #Гибрид
Локация: #Москва
Позиция: #Middle #Senior
Лидер российского рынка овощей защищенного грунта. Численность сотрудников холдинга – более 12,500 человек.
Обязанности
— Анализ систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
— Разработка и поддержка ETL/ELT процессов из различных источников (Airflow)
— Сбор, анализ и формализация требований к разрабатываемым решениям (модели данных, витрины данных для аналитики)
— Разработка и поддержка моделей и витрин данных (DBT)
— Обеспечение качества данных (чистота, точность, целостность, полнота)
— Формирование технической документации (ELT/ETL процессы и алгоритмы)
— Улучшение архитектуры данных, внедрение новых технологий обработки и хранения
— Описание объектов данных в дата-каталоге, поддержка актуального состояния
Требования
— Опыт проектирования, разработки и запуска ETL процессов (Airflow)
— Опыт проектирования и разработки баз данных OLTP, OLAP (MS SQL)
— Знание SQL (сложные запросы, оконные функции, оптимизация), Python
— Навыки работы с GitLab, настройка CI/CD пайплайнов
— Понимание работы BI-инструментов (Power BI)
Что компания предлагает
— Официальное оформление в ООО "УК ""РОСТ"
— График работы: 40 часов в неделю (гибридный формат)
— Комфортабельное рабочее место, корпоративная мобильная связь
— Добровольное медицинское страхование
— Конкурентоспособная заработная плата
— Обучение и развитие за счет компании
— Отпуск 28 календарных дней
— Офис: м. Киевская, БЦ "Атлантик"
Контакт для связи: @AlexandraKononenko
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/48
Стек технологий: #MSSQL #SSAS #PowerBI #Airflow #DBT #GitLab #Docker #Linux #SQL #Python
Data Engineer
Компания: Крупная финтех-компания (не РФ)
Зарплата: Конкурентная заработная плата
Тип занятости: #Офис #Гибрид
Локация: #Ташкент
Позиция: #Middle #Senior
Крупная финтех-компания, пионер мобильного банкинга, ищет Data Engineer. Мы развиваем мультифункциональную платформу, которая объединяет финансовые, сервисные и бизнес-решения и которой пользуются более 20 млн человек.
Обязанности
— Анализ требований к витринам данных, работая в тесной связке с Data Analysts и Data Scientists.
— Поиск и исследование источников данных для их последующей интеграции с Data Lake.
— Разработка ETL/ELT-процессов с использованием PySpark.
— Разработка оркестрации ETL-процессов в Airflow.
— Развитие инструментов для контроля и поддержания качества данных (Data Quality).
— Проектирование структуры хранилищ данных (DWH, Data Lake).
Требования
— Отличные знания SQL для написания сложных и производительных запросов (CTE, оконные функции).
— Опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL.
— Знание Python для разработки ETL/ELT пайплайнов.
— Опыт работы со стеком Big Data: HiveQL Hadoop, Apache AirFlow, Apache Spark, Apache Flink, Airbyte.
— Понимание концепции Data Vault хранилищ данных (DWH, Data Lake).
— Опыт написания сервисов для взаимодействия с внешними источниками данных.
— Понимание принципов построения системных интеграций.
Что компания предлагает
— Релокационный пакет.
— Работу в офисе в Ташкенте или гибридный формат по договоренности.
— Конкурентную заработную плату.
— Постоянное обучение и профессиональный рост.
— Фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
— Яркая корпоративная культура и кафетерий бенефитов.
Контакт для связи: @haas_mari
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/54
Стек технологий: #SQL #Python #PySpark #Airflow #Hadoop #ClickHouse #PostgreSQL #ApacheSpark #ApacheFlink #Airbyte
Компания: Крупная финтех-компания (не РФ)
Зарплата: Конкурентная заработная плата
Тип занятости: #Офис #Гибрид
Локация: #Ташкент
Позиция: #Middle #Senior
Крупная финтех-компания, пионер мобильного банкинга, ищет Data Engineer. Мы развиваем мультифункциональную платформу, которая объединяет финансовые, сервисные и бизнес-решения и которой пользуются более 20 млн человек.
Обязанности
— Анализ требований к витринам данных, работая в тесной связке с Data Analysts и Data Scientists.
— Поиск и исследование источников данных для их последующей интеграции с Data Lake.
— Разработка ETL/ELT-процессов с использованием PySpark.
— Разработка оркестрации ETL-процессов в Airflow.
— Развитие инструментов для контроля и поддержания качества данных (Data Quality).
— Проектирование структуры хранилищ данных (DWH, Data Lake).
Требования
— Отличные знания SQL для написания сложных и производительных запросов (CTE, оконные функции).
— Опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL.
— Знание Python для разработки ETL/ELT пайплайнов.
— Опыт работы со стеком Big Data: HiveQL Hadoop, Apache AirFlow, Apache Spark, Apache Flink, Airbyte.
— Понимание концепции Data Vault хранилищ данных (DWH, Data Lake).
— Опыт написания сервисов для взаимодействия с внешними источниками данных.
— Понимание принципов построения системных интеграций.
Что компания предлагает
— Релокационный пакет.
— Работу в офисе в Ташкенте или гибридный формат по договоренности.
— Конкурентную заработную плату.
— Постоянное обучение и профессиональный рост.
— Фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
— Яркая корпоративная культура и кафетерий бенефитов.
Контакт для связи: @haas_mari
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/54
Стек технологий: #SQL #Python #PySpark #Airflow #Hadoop #ClickHouse #PostgreSQL #ApacheSpark #ApacheFlink #Airbyte
ClickHouse Admin (Junior+/Middle)
Компания: Крупная международная продуктовая ИТ-компания
Зарплата: от 4000 евро на руки
Тип занятости: #Офис
Локация: #Limassol #Cyprus
Позиция: #Junior #Middle
Работа в офисе в Лимасоле с гибким графиком и компенсациями.
Обязанности
— Администрирование и поддержка ClickHouse
— Оптимизация производительности
— Управление конфигурациями, репликацией, Zookeeper
— Мониторинг, инциденты, помощь разработчикам
— Контроль качества данных и метрик
Требования
— Linux (уверенно)
— ClickHouse: структура, движки, репликация, шардинг
— Bash, SQL
— Системы мониторинга
Что компания предлагает
— Гибкий старт дня (8–10), 5/2
— Ланчи 2 раза в день
— Компенсации спорта и английских курсов
— Индексация ЗП
Контакт для связи: @dgold91
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/58
Стек технологий: #ClickHouse #Linux #Bash #SQL #Zookeeper #Python #Ansible #Puppet #SaltStack #MySQL #PostgreSQL
Компания: Крупная международная продуктовая ИТ-компания
Зарплата: от 4000 евро на руки
Тип занятости: #Офис
Локация: #Limassol #Cyprus
Позиция: #Junior #Middle
Работа в офисе в Лимасоле с гибким графиком и компенсациями.
Обязанности
— Администрирование и поддержка ClickHouse
— Оптимизация производительности
— Управление конфигурациями, репликацией, Zookeeper
— Мониторинг, инциденты, помощь разработчикам
— Контроль качества данных и метрик
Требования
— Linux (уверенно)
— ClickHouse: структура, движки, репликация, шардинг
— Bash, SQL
— Системы мониторинга
Что компания предлагает
— Гибкий старт дня (8–10), 5/2
— Ланчи 2 раза в день
— Компенсации спорта и английских курсов
— Индексация ЗП
Контакт для связи: @dgold91
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/58
Стек технологий: #ClickHouse #Linux #Bash #SQL #Zookeeper #Python #Ansible #Puppet #SaltStack #MySQL #PostgreSQL
IT Operations Engineer DBA
Компания: Unipesa
Зарплата: 3000-4000 usd
Тип занятости: #Удаленка
Локация: #Удаленно
Позиция: #Middle
Мы компания-разработчик FinTech решений Unipesa, специализируемся на разработке B2B2C для платежных сервисов.
Обязанности
— проектирование компонентов ИТ-инфраструктуры хостов, контейнеров Docker, баз данных и т.д.
— управление базами данных (MySQL)
— администрирование хостов Linux
— внедрение мониторинга и ведения журналов служб (Grafana, Prometheus, Graylog)
— обеспечение бесперебойной работы систем
Требования
— опыт работы на позиции IT-инженера или DevOps от 3-5 лет
— опыт управления базами данных MySQL и анализа производительности
— знание следующих технологий: ОС Linux, базы данных, скриптовые языки, виртуализация, сети, облачные технологии (AWS или Hetzner)
— широкий кругозор в сфере современных технологий и способность быстро осваивать новые технологии
— разработка на одном из скриптовых языков (Powershell, Bash, Python и т. д.)
— опыт работы с технологией контейнеризации (Docker)
Что компания предлагает
— удаленный формат работы
— сервисный договор с иностранной компанией
Контакт для связи: @Liska1008
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/64
Стек технологий: #MySQL #Linux #Docker #Grafana #Prometheus #Graylog #AWS #Hetzner #Bash #Python #Powershell
Компания: Unipesa
Зарплата: 3000-4000 usd
Тип занятости: #Удаленка
Локация: #Удаленно
Позиция: #Middle
Мы компания-разработчик FinTech решений Unipesa, специализируемся на разработке B2B2C для платежных сервисов.
Обязанности
— проектирование компонентов ИТ-инфраструктуры хостов, контейнеров Docker, баз данных и т.д.
— управление базами данных (MySQL)
— администрирование хостов Linux
— внедрение мониторинга и ведения журналов служб (Grafana, Prometheus, Graylog)
— обеспечение бесперебойной работы систем
Требования
— опыт работы на позиции IT-инженера или DevOps от 3-5 лет
— опыт управления базами данных MySQL и анализа производительности
— знание следующих технологий: ОС Linux, базы данных, скриптовые языки, виртуализация, сети, облачные технологии (AWS или Hetzner)
— широкий кругозор в сфере современных технологий и способность быстро осваивать новые технологии
— разработка на одном из скриптовых языков (Powershell, Bash, Python и т. д.)
— опыт работы с технологией контейнеризации (Docker)
Что компания предлагает
— удаленный формат работы
— сервисный договор с иностранной компанией
Контакт для связи: @Liska1008
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/64
Стек технологий: #MySQL #Linux #Docker #Grafana #Prometheus #Graylog #AWS #Hetzner #Bash #Python #Powershell
Инженер (DBA) Cassandra/Kafka
Компания: Компания, автоматизирующая документооборот, бухгалтерию и отчетность
Зарплата: обсуждается, соцпакет
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Екатеринбург #Санкт-Петербург #Новосибирск #Ижевск #Самара #Ростов-на-Дону #Казань #Иннополис #Пермь
Позиция: #Junior #Middle #Senior
Компания рассматривает кандидатов только из России.
Обязанности
— Предоставление новых кластеров Cassandra/Kafka командам разработки
— Накопление экспертизы, автоматизация знаний по сопровождению и внедрение их на все кластеры этого вида БД
— Анализ производительности кластеров БД и поиск узких мест, оптимизация и тюнинг запросов, конфигурации
— Мониторинг Cassandra/Kafka компонентов его стека и ОС Linux
— Участие в дизайн-ревью, консультирование проектов в выборе оптимальной для поставленной задачи базы данных
— Работа в команде: обмен опытом, совместное владение и управление знаниями, формирование целей развития группы БД
Требования
— Практический опыт DBA от 2х лет
— Опыт проектирования и сопровождения высоконагруженных кластеров Cassandra/Kafka
— Понимание основ работы нереляционных баз данных
— Знания и опыт работы с ОС Linux (CentOS, Ubuntu, AlmaLinux)
— Опыт автоматизации процессов сопровождения (Ansible, Bash, Python и др.)
— Навык конструктивного общения с командами разработки
Что компания предлагает
— Гибкий формат работы (офис, удаленка, гибрид)
— Соцпакет
— Возможность работы в команде экспертов
Контакт для связи: @fr_rec
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/67
Стек технологий: #Ansible #Python #Git #Cassandra #Kafka #JVM #Jmxtrans #Vector #Filebeat #Diamond #Telegraf #Linux #Teamcity #Bash #Graphite #Grafana #Sentry #GitLabCI #ELK #YouTrack
#вакансия #vacancy #удаленно
Компания: Компания, автоматизирующая документооборот, бухгалтерию и отчетность
Зарплата: обсуждается, соцпакет
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Екатеринбург #Санкт-Петербург #Новосибирск #Ижевск #Самара #Ростов-на-Дону #Казань #Иннополис #Пермь
Позиция: #Junior #Middle #Senior
Компания рассматривает кандидатов только из России.
Обязанности
— Предоставление новых кластеров Cassandra/Kafka командам разработки
— Накопление экспертизы, автоматизация знаний по сопровождению и внедрение их на все кластеры этого вида БД
— Анализ производительности кластеров БД и поиск узких мест, оптимизация и тюнинг запросов, конфигурации
— Мониторинг Cassandra/Kafka компонентов его стека и ОС Linux
— Участие в дизайн-ревью, консультирование проектов в выборе оптимальной для поставленной задачи базы данных
— Работа в команде: обмен опытом, совместное владение и управление знаниями, формирование целей развития группы БД
Требования
— Практический опыт DBA от 2х лет
— Опыт проектирования и сопровождения высоконагруженных кластеров Cassandra/Kafka
— Понимание основ работы нереляционных баз данных
— Знания и опыт работы с ОС Linux (CentOS, Ubuntu, AlmaLinux)
— Опыт автоматизации процессов сопровождения (Ansible, Bash, Python и др.)
— Навык конструктивного общения с командами разработки
Что компания предлагает
— Гибкий формат работы (офис, удаленка, гибрид)
— Соцпакет
— Возможность работы в команде экспертов
Контакт для связи: @fr_rec
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/67
Стек технологий: #Ansible #Python #Git #Cassandra #Kafka #JVM #Jmxtrans #Vector #Filebeat #Diamond #Telegraf #Linux #Teamcity #Bash #Graphite #Grafana #Sentry #GitLabCI #ELK #YouTrack
#вакансия #vacancy #удаленно
Архитектор данных (Data Architect)
Компания: FinTech
Зарплата: по договоренности
Тип занятости: #Офис #Гибрид
Локация: #Ташкент
Позиция: #Senior
Крупная финтех-компания ищет Архитектора данных.
Обязанности
— Разработка стратегии доменов данных.
— Проектирование шаблонов логических моделей данных для информационных и функциональных областей.
— Создание корпоративных моделей данных с учетом технических и архитектурных ограничений.
— Доработка и актуализация моделей новых сущностей и атрибутов.
— Разработка правил использования данных в информационных системах.
— Проектирование концептуальной архитектуры и архитектуры решений для контура управления данными.
— Разработка методологий и правил использования данных.
— Инициирование предложений по выделению логических слоев данных.
— Контроль целостности и актуальности моделей данных.
— Поддержка актуальной документации и глоссария.
Требования
— Опыт работы архитектором платформы данных от 3-х лет.
— Опыт в разработке логических моделей данных информационной системы.
— Опыт формирования процессов управления данными, контрактов на данные, а также разработки дата-продуктов.
— Понимание принципов формирования UML-диаграмм классов, потоков данных, последовательностей.
— Понимание и опыт формирования ER-диаграмм.
— Знание Sparx Enterprise Architect или аналогичных CASE-средств проектирования.
— Знание методик и подходов проектирования архитектуры хранилищ данных (on-premise и cloud-native).
— Знание принципов архитектурных паттернов работы ML-Ops конвейера.
— Практический опыт построения системы исполнения моделей машинного обучения.
— Знание принципов построения хранилищ данных (Inmon, Kimball, DataVault и т.п.).
— Глубокие знания в области технологий сбора, хранения и обработки данных (Datalake, DWH, Data Lakehouse, Data Streaming).
— Понимание принципов построения интеграционных процессов.
— Опыт работы с: Object Storage S3, Hadoop, Kubernetes, Spark, Impala, Iceberg, Kafka, MS SQL Server, PostgreSQL, Clickhouse.
— Глубокие знания SQL и Python.
Что компания предлагает
— Работу в офисе в Ташкенте или гибридный формат по договоренности.
— Конкурентную заработную плату.
— Постоянное обучение и профессиональный рост.
— Заботу о здоровье: фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
— Яркую корпоративную культуру и кафетерий бенефитов.
Контакт для связи: @spetrushkin
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/70
Стек технологий: #S3 #Hadoop #Kubernetes #Spark #Impala #Iceberg #Kafka #MSSQLServer #PostgreSQL #Clickhouse #SQL #Python
Компания: FinTech
Зарплата: по договоренности
Тип занятости: #Офис #Гибрид
Локация: #Ташкент
Позиция: #Senior
Крупная финтех-компания ищет Архитектора данных.
Обязанности
— Разработка стратегии доменов данных.
— Проектирование шаблонов логических моделей данных для информационных и функциональных областей.
— Создание корпоративных моделей данных с учетом технических и архитектурных ограничений.
— Доработка и актуализация моделей новых сущностей и атрибутов.
— Разработка правил использования данных в информационных системах.
— Проектирование концептуальной архитектуры и архитектуры решений для контура управления данными.
— Разработка методологий и правил использования данных.
— Инициирование предложений по выделению логических слоев данных.
— Контроль целостности и актуальности моделей данных.
— Поддержка актуальной документации и глоссария.
Требования
— Опыт работы архитектором платформы данных от 3-х лет.
— Опыт в разработке логических моделей данных информационной системы.
— Опыт формирования процессов управления данными, контрактов на данные, а также разработки дата-продуктов.
— Понимание принципов формирования UML-диаграмм классов, потоков данных, последовательностей.
— Понимание и опыт формирования ER-диаграмм.
— Знание Sparx Enterprise Architect или аналогичных CASE-средств проектирования.
— Знание методик и подходов проектирования архитектуры хранилищ данных (on-premise и cloud-native).
— Знание принципов архитектурных паттернов работы ML-Ops конвейера.
— Практический опыт построения системы исполнения моделей машинного обучения.
— Знание принципов построения хранилищ данных (Inmon, Kimball, DataVault и т.п.).
— Глубокие знания в области технологий сбора, хранения и обработки данных (Datalake, DWH, Data Lakehouse, Data Streaming).
— Понимание принципов построения интеграционных процессов.
— Опыт работы с: Object Storage S3, Hadoop, Kubernetes, Spark, Impala, Iceberg, Kafka, MS SQL Server, PostgreSQL, Clickhouse.
— Глубокие знания SQL и Python.
Что компания предлагает
— Работу в офисе в Ташкенте или гибридный формат по договоренности.
— Конкурентную заработную плату.
— Постоянное обучение и профессиональный рост.
— Заботу о здоровье: фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
— Яркую корпоративную культуру и кафетерий бенефитов.
Контакт для связи: @spetrushkin
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/70
Стек технологий: #S3 #Hadoop #Kubernetes #Spark #Impala #Iceberg #Kafka #MSSQLServer #PostgreSQL #Clickhouse #SQL #Python
Database Administrator
Компания: Quantum Brains
Зарплата: от 3000$ до 6000$ (по результатам интервью)
Тип занятости: #Офис #Гибрид
Локация: #Тбилиси
Позиция: #Middle #Senior
Quantum Brains — финтех-команда, где Data Science, ML и глубокий анализ работают вместе для создания реального бизнеса.
Обязанности
— Администрирование и оптимизация PostgreSQL, ClickHouse;
— Управление оборудованием и инфраструктурой;
— Взаимодействие с продуктовой и инженерной командами по вопросам проектирования и оптимизации структур данных;
— Автоматизация развертываний, резервного копирования, переноса данных и других рутинных операций.
Требования
— Глубокие знания PostgreSQL и ClickHouse;
— Опыт работы с высоконагруженными базами данных;
— Понимание архитектур для построения отказоустойчивых кластеров ClickHouse;
— Опыт резервного копирования и восстановления данных;
— Навыки работы с Grafana, Prometheus, OpenSearch;
— Опыт автоматизации (Bash, Python, Ansible);
— Знание Git и процессов CI/CD.
Что компания предлагает
— Индивидуальный подход к задачам, работа с крупным брендом;
— Уютный офис в центре Тбилиси;
— Гибкий график (начало рабочего дня с 9 до 12);
— Компенсация спорта и медицинских расходов;
— Предоставление необходимой техники;
— Помощь в релокации.
Контакт для связи: @kpulikova
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/76
Стек технологий: #ClickHouse #PostgreSQL #Kafka #Grafana #Prometheus #OpenSearch #Ansible #Python #Bash #Git #pgbouncer #HAProxy
Компания: Quantum Brains
Зарплата: от 3000$ до 6000$ (по результатам интервью)
Тип занятости: #Офис #Гибрид
Локация: #Тбилиси
Позиция: #Middle #Senior
Quantum Brains — финтех-команда, где Data Science, ML и глубокий анализ работают вместе для создания реального бизнеса.
Обязанности
— Администрирование и оптимизация PostgreSQL, ClickHouse;
— Управление оборудованием и инфраструктурой;
— Взаимодействие с продуктовой и инженерной командами по вопросам проектирования и оптимизации структур данных;
— Автоматизация развертываний, резервного копирования, переноса данных и других рутинных операций.
Требования
— Глубокие знания PostgreSQL и ClickHouse;
— Опыт работы с высоконагруженными базами данных;
— Понимание архитектур для построения отказоустойчивых кластеров ClickHouse;
— Опыт резервного копирования и восстановления данных;
— Навыки работы с Grafana, Prometheus, OpenSearch;
— Опыт автоматизации (Bash, Python, Ansible);
— Знание Git и процессов CI/CD.
Что компания предлагает
— Индивидуальный подход к задачам, работа с крупным брендом;
— Уютный офис в центре Тбилиси;
— Гибкий график (начало рабочего дня с 9 до 12);
— Компенсация спорта и медицинских расходов;
— Предоставление необходимой техники;
— Помощь в релокации.
Контакт для связи: @kpulikova
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/76
Стек технологий: #ClickHouse #PostgreSQL #Kafka #Grafana #Prometheus #OpenSearch #Ansible #Python #Bash #Git #pgbouncer #HAProxy
Data Engineer
Компания: Крупная финтех-компания (не РФ)
Зарплата: Конкурентная заработная плата
Тип занятости: #Офис #Гибрид
Локация: #Ташкент
Позиция: #Middle #Senior
Крупная финтех-компания, пионер мобильного банкинга, развивает мультифункциональную платформу, объединяющую финансовые, сервисные и бизнес-решения. Платформой пользуются более 20 млн человек.
Обязанности
— Анализ требований к витринам данных в связке с Data Analysts и Data Scientists.
— Поиск и исследование источников данных для интеграции с Data Lake.
— Разработка ETL/ELT-процессов с использованием PySpark.
— Разработка оркестрации ETL-процессов в Airflow.
— Развитие инструментов контроля качества данных (Data Quality).
— Проектирование структуры хранилищ данных (DWH, Data Lake).
Требования
— Отличные знания SQL (CTE, оконные функции).
— Опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL.
— Знание Python для разработки ETL/ELT пайплайнов.
— Опыт работы со стеком Big Data: HiveQL Hadoop, Apache AirFlow, Apache Spark, Apache Flink, Airbyte.
— Понимание концепции Data Vault хранилищ данных (DWH, Data Lake).
— Опыт написания сервисов для взаимодействия с внешними источниками данных.
— Понимание принципов построения системных интеграций.
Что компания предлагает
— Работу в офисе или гибридный формат.
— Конкурентную заработную плату.
— Постоянное обучение и профессиональный рост.
— Фитнес-зал, массажные кресла и спортивные клубы в офисе.
— Яркую корпоративную культуру и кафетерий бенефитов.
Контакт для связи: @spetrushkin
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/87
Стек технологий: #SQL #Python #PySpark #Airflow #Hadoop #ClickHouse #PostgreSQL #MSQL #ApacheSpark #ApacheFlink #Airbyte #DataLake #DWH
Компания: Крупная финтех-компания (не РФ)
Зарплата: Конкурентная заработная плата
Тип занятости: #Офис #Гибрид
Локация: #Ташкент
Позиция: #Middle #Senior
Крупная финтех-компания, пионер мобильного банкинга, развивает мультифункциональную платформу, объединяющую финансовые, сервисные и бизнес-решения. Платформой пользуются более 20 млн человек.
Обязанности
— Анализ требований к витринам данных в связке с Data Analysts и Data Scientists.
— Поиск и исследование источников данных для интеграции с Data Lake.
— Разработка ETL/ELT-процессов с использованием PySpark.
— Разработка оркестрации ETL-процессов в Airflow.
— Развитие инструментов контроля качества данных (Data Quality).
— Проектирование структуры хранилищ данных (DWH, Data Lake).
Требования
— Отличные знания SQL (CTE, оконные функции).
— Опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL.
— Знание Python для разработки ETL/ELT пайплайнов.
— Опыт работы со стеком Big Data: HiveQL Hadoop, Apache AirFlow, Apache Spark, Apache Flink, Airbyte.
— Понимание концепции Data Vault хранилищ данных (DWH, Data Lake).
— Опыт написания сервисов для взаимодействия с внешними источниками данных.
— Понимание принципов построения системных интеграций.
Что компания предлагает
— Работу в офисе или гибридный формат.
— Конкурентную заработную плату.
— Постоянное обучение и профессиональный рост.
— Фитнес-зал, массажные кресла и спортивные клубы в офисе.
— Яркую корпоративную культуру и кафетерий бенефитов.
Контакт для связи: @spetrushkin
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/87
Стек технологий: #SQL #Python #PySpark #Airflow #Hadoop #ClickHouse #PostgreSQL #MSQL #ApacheSpark #ApacheFlink #Airbyte #DataLake #DWH
Data инженер
Компания: Top Selection
Зарплата: 350-420K
Тип занятости: #Удаленка
Локация: #РФ
Позиция: #Senior
Мы в поиске Data инженера на проектную занятость. Долгосрочный проект с оформлением по ИП.
Обязанности
— Разработка и оптимизация сложных SQL-запросов
— Оркестрация ETL-пайплайнов с помощью Airflow
— Работа с технологиями экосистемы Hadoop (HDFS, YARN, HIVE, Sqoop)
— Разработка и поддержка решений на Apache Spark (Spark DataFrames, Spark SQL)
— Взаимодействие с инструментом dbt
— Работа с банковской предметной областью
Требования
— Опыт работы с SQL на уровне оптимизированных сложных запросов
— Понимание принципов функционирования традиционных СУБД и MPP-баз данных
— Опыт программирования на Python, Java или Scala
— Опыт оркестрации ETL-пайплайнов (Airflow)
— Умение работать с Hadoop (HDFS, YARN, HIVE, Sqoop)
— Владение Apache Spark (Spark DataFrames, Spark SQL)
— Опыт работы с банковской предметной областью
— Желательно: опыт с Kafka, Trino, Kubernetes, Helm, CI/CD
Что компания предлагает
— Долгосрочный проект
— Удаленный формат работы
— Конкурентную ставку
Контакт для связи: @aliiS_a
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/95
Стек технологий: #Python #Trino #dbt #Airflow #Spark #Hadoop #Hive #Postgres #Greenplum #Kubernetes #Gitlab
Компания: Top Selection
Зарплата: 350-420K
Тип занятости: #Удаленка
Локация: #РФ
Позиция: #Senior
Мы в поиске Data инженера на проектную занятость. Долгосрочный проект с оформлением по ИП.
Обязанности
— Разработка и оптимизация сложных SQL-запросов
— Оркестрация ETL-пайплайнов с помощью Airflow
— Работа с технологиями экосистемы Hadoop (HDFS, YARN, HIVE, Sqoop)
— Разработка и поддержка решений на Apache Spark (Spark DataFrames, Spark SQL)
— Взаимодействие с инструментом dbt
— Работа с банковской предметной областью
Требования
— Опыт работы с SQL на уровне оптимизированных сложных запросов
— Понимание принципов функционирования традиционных СУБД и MPP-баз данных
— Опыт программирования на Python, Java или Scala
— Опыт оркестрации ETL-пайплайнов (Airflow)
— Умение работать с Hadoop (HDFS, YARN, HIVE, Sqoop)
— Владение Apache Spark (Spark DataFrames, Spark SQL)
— Опыт работы с банковской предметной областью
— Желательно: опыт с Kafka, Trino, Kubernetes, Helm, CI/CD
Что компания предлагает
— Долгосрочный проект
— Удаленный формат работы
— Конкурентную ставку
Контакт для связи: @aliiS_a
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/95
Стек технологий: #Python #Trino #dbt #Airflow #Spark #Hadoop #Hive #Postgres #Greenplum #Kubernetes #Gitlab
Data-инженер
Компания: Не указано
Зарплата: от 300 000 до 350 000 ₽
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Алматы
Позиция: #Senior
Мы строим платформу данных нового поколения с нуля. Наши цели: построить надёжную и масштабируемую архитектуру, внедрить лучшие практики работы с данными, развивать современный DataOps-подход.
Обязанности
— Проектирование и создание масштабируемой платформы данных с нуля
— Разработка хранилища данных на базе ClickHouse
— Построение отказоустойчивых ETL/ELT пайплайнов
— Внедрение процессов Data Quality и Data Observability
— Развитие и внедрение DataOps-подходов
— Менторство, код-ревью, развитие команды
— Участие в архитектурных решениях вместе с аналитиками, разработчиками и DevOps-инженерами
Требования
— 5+ лет опыта в Data Engineering
— Экспертиза в ClickHouse (архитектура, шардинг, репликация, оптимизация)
— Отличное знание SQL, Python
— Опыт работы с dbt, Kafka, Kafka Connect, Debezium
— Навыки работы с Airflow или аналогами
— Опыт в CI/CD
— Понимание DataOps, проектирования хранилищ данных
— Навыки командной работы и коммуникации
Что компания предлагает
— Гибкий формат: удалёнка или офис в Алматы
— Современный стек и лучшие практики
— Работа с миллионной аудиторией пользователей
— Возможность видеть реальный результат своей работы
Контакт для связи: @islam14_hr
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/97
Стек технологий: #ClickHouse #PostgreSQL #MySQL #Linux #IaC #Ansible #Prometheus #Grafana #Bash #DevOps #Python #Kafka #Airflow #dbt
Компания: Не указано
Зарплата: от 300 000 до 350 000 ₽
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Алматы
Позиция: #Senior
Мы строим платформу данных нового поколения с нуля. Наши цели: построить надёжную и масштабируемую архитектуру, внедрить лучшие практики работы с данными, развивать современный DataOps-подход.
Обязанности
— Проектирование и создание масштабируемой платформы данных с нуля
— Разработка хранилища данных на базе ClickHouse
— Построение отказоустойчивых ETL/ELT пайплайнов
— Внедрение процессов Data Quality и Data Observability
— Развитие и внедрение DataOps-подходов
— Менторство, код-ревью, развитие команды
— Участие в архитектурных решениях вместе с аналитиками, разработчиками и DevOps-инженерами
Требования
— 5+ лет опыта в Data Engineering
— Экспертиза в ClickHouse (архитектура, шардинг, репликация, оптимизация)
— Отличное знание SQL, Python
— Опыт работы с dbt, Kafka, Kafka Connect, Debezium
— Навыки работы с Airflow или аналогами
— Опыт в CI/CD
— Понимание DataOps, проектирования хранилищ данных
— Навыки командной работы и коммуникации
Что компания предлагает
— Гибкий формат: удалёнка или офис в Алматы
— Современный стек и лучшие практики
— Работа с миллионной аудиторией пользователей
— Возможность видеть реальный результат своей работы
Контакт для связи: @islam14_hr
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/97
Стек технологий: #ClickHouse #PostgreSQL #MySQL #Linux #IaC #Ansible #Prometheus #Grafana #Bash #DevOps #Python #Kafka #Airflow #dbt
DWH TeamLead
Компания: ООО ИТМ (Магнит)
Зарплата: от 350 000 до 450 000 руб.
Тип занятости: #Удаленка
Локация: #Россия
Позиция: #Senior #TeamLead
Наше Корпоративное Хранилище Данных — одно из крупнейших в России. Мы храним и обрабатываем более 1 ПБ данных! 200 источников информации, каждый из которых важен для бизнеса, и это число растет каждый день. Но вот самое интересное: нас ждет большая миграция в облако — да, да, мы первые в России, кто с такими объемами пойдет в облачные технологии!
Обязанности
— Участвовать в миграции Хранилища данных на новые технологии, используя наш фреймворк
— Управлять командой разработки от 3 человек
— Оценивать, планировать и согласовывать работы с заказчиком и командой аналитики
— Нанимать, онбордить и развивать свою команду
— Участвовать в подготовке предложений по доработкам фреймворка и инструментов
— Создавать новые и развивать старые интеграции по загрузке сырых данных в DataLake
— Разрабатывать pipline'ов доставки и обработки данных в детальный слой и витрины данных
— Писать и оптимизировать сложные скрипты обработки данных
— Прорабатывать локальные архитектурные решения
Требования
— Опыт в разработке хранилищ данных — минимум 4 года
— Управление командой от трех человек более 1 года
— Мастерство написания SQL-кода и работы с реляционными БД на экспертном уровне
— Опыт разработки разнообразных pipline'ов доставки и обработки данных
— Понимание типовых паттернов технических решений в области ETL/ELT-процессов и алгоритмов
Что компания предлагает
— Официальное трудоустройство в аккредитованную ИТ-компанию (документы на месте, не волнуйся!)
— Свобода выбора: работай удалённо, гибридно или в одном из офисов (Москва, Краснодар, Иннополис)
— Прозрачные цели и здравые процессы. Мы ценим время и мозги
— Возможности роста: оплачиваем обучение, отправляем на конференции и даже помогаем освоить новые направления
— Медицинское страхование и льготы для всей семьи
— И еще — корпоративные скидки от наших крутых партнеров!
Контакт для связи: @stanislav_muhin
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/104
Стек технологий: #Python #SQL #Oracle
Компания: ООО ИТМ (Магнит)
Зарплата: от 350 000 до 450 000 руб.
Тип занятости: #Удаленка
Локация: #Россия
Позиция: #Senior #TeamLead
Наше Корпоративное Хранилище Данных — одно из крупнейших в России. Мы храним и обрабатываем более 1 ПБ данных! 200 источников информации, каждый из которых важен для бизнеса, и это число растет каждый день. Но вот самое интересное: нас ждет большая миграция в облако — да, да, мы первые в России, кто с такими объемами пойдет в облачные технологии!
Обязанности
— Участвовать в миграции Хранилища данных на новые технологии, используя наш фреймворк
— Управлять командой разработки от 3 человек
— Оценивать, планировать и согласовывать работы с заказчиком и командой аналитики
— Нанимать, онбордить и развивать свою команду
— Участвовать в подготовке предложений по доработкам фреймворка и инструментов
— Создавать новые и развивать старые интеграции по загрузке сырых данных в DataLake
— Разрабатывать pipline'ов доставки и обработки данных в детальный слой и витрины данных
— Писать и оптимизировать сложные скрипты обработки данных
— Прорабатывать локальные архитектурные решения
Требования
— Опыт в разработке хранилищ данных — минимум 4 года
— Управление командой от трех человек более 1 года
— Мастерство написания SQL-кода и работы с реляционными БД на экспертном уровне
— Опыт разработки разнообразных pipline'ов доставки и обработки данных
— Понимание типовых паттернов технических решений в области ETL/ELT-процессов и алгоритмов
Что компания предлагает
— Официальное трудоустройство в аккредитованную ИТ-компанию (документы на месте, не волнуйся!)
— Свобода выбора: работай удалённо, гибридно или в одном из офисов (Москва, Краснодар, Иннополис)
— Прозрачные цели и здравые процессы. Мы ценим время и мозги
— Возможности роста: оплачиваем обучение, отправляем на конференции и даже помогаем освоить новые направления
— Медицинское страхование и льготы для всей семьи
— И еще — корпоративные скидки от наших крутых партнеров!
Контакт для связи: @stanislav_muhin
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/104
Стек технологий: #Python #SQL #Oracle
❤1
Database Administrator
Компания: Quantum Brains
Зарплата: от 3000$ до 6000$
Тип занятости: #Офис #Гибрид
Локация: #Тбилиси
Позиция: #Senior
Quantum Brains — финтех-команда, где Data Science, ML и глубокий анализ работают вместе для создания реального бизнеса.
Обязанности
— Администрирование и оптимизация PostgreSQL, ClickHouse
— Управление оборудованием и инфраструктурой
— Взаимодействие с продуктовой и инженерной командами по вопросам проектирования и оптимизации структур данных, выявления инцидентов и их оперативного устранения
— Автоматизация развертываний, резервного копирования, переноса данных и других рутинных операций
Требования
— Глубокие знания PostgreSQL и ClickHouse
— Опыт работы с высоконагруженными базами данных
— Установка, настройка, администрирование и миграция серверов БД
— Опыт работы с pgbouncer, HAProxy
— Понимание различных подходов, архитектур и решений для построения отказоустойчивых и высокопроизводительных кластеров ClickHouse
— Опыт интеграции ClickHouse по обмену данными с Kafka
— Опыт конфигурации настройки кластеров Kafka
— Опыт резервного копирования и восстановления данных
— Проектирование и настройка мониторинга баз данных и инфраструктуры
— Опыт работы с Grafana, Prometheus, OpenSearch
— Опыт работы с системами управления конфигурациями, например Ansible
— Написание скриптов (Bash, Python или других языков) для автоматизации рутинных задач
— Опыт работы с системами контроля версий (например, Git)
— Понимание процессов CI/CD
Что компания предлагает
— Индивидуальный подход к области ответственности и пулу задач, работа с крупным брендом рынка
— Уютный офис в центре Тбилиси
— Гибкий график (начало рабочего дня с 9 до 12)
— Компенсация спорта и медицинских расходов
— Предоставляем необходимую для работы технику
— Помощь в релокации
Контакт для связи: @kpulikova
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/112
Стек технологий: #ClickHouse #PostgreSQL #Kafka #Grafana #Prometheus #OpenSearch #Ansible #Python #Bash #Git #pgbouncer #HAProxy
Компания: Quantum Brains
Зарплата: от 3000$ до 6000$
Тип занятости: #Офис #Гибрид
Локация: #Тбилиси
Позиция: #Senior
Quantum Brains — финтех-команда, где Data Science, ML и глубокий анализ работают вместе для создания реального бизнеса.
Обязанности
— Администрирование и оптимизация PostgreSQL, ClickHouse
— Управление оборудованием и инфраструктурой
— Взаимодействие с продуктовой и инженерной командами по вопросам проектирования и оптимизации структур данных, выявления инцидентов и их оперативного устранения
— Автоматизация развертываний, резервного копирования, переноса данных и других рутинных операций
Требования
— Глубокие знания PostgreSQL и ClickHouse
— Опыт работы с высоконагруженными базами данных
— Установка, настройка, администрирование и миграция серверов БД
— Опыт работы с pgbouncer, HAProxy
— Понимание различных подходов, архитектур и решений для построения отказоустойчивых и высокопроизводительных кластеров ClickHouse
— Опыт интеграции ClickHouse по обмену данными с Kafka
— Опыт конфигурации настройки кластеров Kafka
— Опыт резервного копирования и восстановления данных
— Проектирование и настройка мониторинга баз данных и инфраструктуры
— Опыт работы с Grafana, Prometheus, OpenSearch
— Опыт работы с системами управления конфигурациями, например Ansible
— Написание скриптов (Bash, Python или других языков) для автоматизации рутинных задач
— Опыт работы с системами контроля версий (например, Git)
— Понимание процессов CI/CD
Что компания предлагает
— Индивидуальный подход к области ответственности и пулу задач, работа с крупным брендом рынка
— Уютный офис в центре Тбилиси
— Гибкий график (начало рабочего дня с 9 до 12)
— Компенсация спорта и медицинских расходов
— Предоставляем необходимую для работы технику
— Помощь в релокации
Контакт для связи: @kpulikova
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/112
Стек технологий: #ClickHouse #PostgreSQL #Kafka #Grafana #Prometheus #OpenSearch #Ansible #Python #Bash #Git #pgbouncer #HAProxy
Database Administrator
Компания: Quantum Brains
Зарплата: от 3000$ до 6000$
Тип занятости: #Офис #Гибрид
Локация: #Тбилиси
Позиция: #Senior
Quantum Brains — финтех-команда, где Data Science, ML и глубокий анализ работают вместе для создания реального бизнеса.
Обязанности
— Администрирование и оптимизация PostgreSQL, ClickHouse: управление производительностью серверов и настройка параметров для обеспечения стабильной работы; мониторинг, поддержка и оптимизация механизмов бэкапирования, проверки целостности данных; обеспечение стабильно работы под высокой нагрузкой; настройка мониторингов и алертинга.
— Управление оборудованием и инфраструктурой;
— Взаимодействие с продуктовой и инженерной командами по вопросам проектирования и оптимизации структур данных, выявления инцидентов и их оперативного устранения;
— Автоматизация развертываний, резервного копирования, переноса данных и других рутинных операций.
Требования
— Глубокие знания PostgreSQL и ClickHouse, включая: опыт работы с высоконагруженными базами данных; установка, настройка, администрирование и миграция серверов БД; опыт работы с pgbouncer, HAProxy; оптимизация производительности и конфигурации для высоконагруженных сред; настройка аутентификации и авторизации.
— Понимание различных подходов, архитектур и решений для построения отказоустойчивых и высокопроизводительных кластеров ClickHouse: опыт интеграции ClickHouse по обмену данными с Kafka; опыт конфигурации настройки кластеров Kafka.
— Опыт резервного копирования и восстановления данных;
— Проектирование и настройка мониторинга баз данных и инфраструктуры: опыт работы с Grafana, Prometheus, OpenSearch;
— Опыт работы с системами управления конфигурациями, например Ansible;
— Написание скриптов (Bash, Python или других языков) для автоматизации рутинных задач;
— Опыт работы с системами контроля версий (например, Git): понимание процессов CI/CD.
Что компания предлагает
— Индивидуальный подход к области ответственности и пулу задач, работа с крупным брендом рынка;
— Уютный офис в центре Тбилиси;
— Гибкий график (начало рабочего дня с 9 до 12);
— Компенсация спорта и медицинских расходов;
— Предоставляем необходимую для работу технику;
— Помощь в релокации.
Контакт для связи: @kpulikova
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/128
Стек технологий: #ClickHouse #PostgreSQL #Kafka #Grafana #Prometheus #OpenSearch #Ansible #Python #Bash #Git #pgbouncer #HAProxy
Компания: Quantum Brains
Зарплата: от 3000$ до 6000$
Тип занятости: #Офис #Гибрид
Локация: #Тбилиси
Позиция: #Senior
Quantum Brains — финтех-команда, где Data Science, ML и глубокий анализ работают вместе для создания реального бизнеса.
Обязанности
— Администрирование и оптимизация PostgreSQL, ClickHouse: управление производительностью серверов и настройка параметров для обеспечения стабильной работы; мониторинг, поддержка и оптимизация механизмов бэкапирования, проверки целостности данных; обеспечение стабильно работы под высокой нагрузкой; настройка мониторингов и алертинга.
— Управление оборудованием и инфраструктурой;
— Взаимодействие с продуктовой и инженерной командами по вопросам проектирования и оптимизации структур данных, выявления инцидентов и их оперативного устранения;
— Автоматизация развертываний, резервного копирования, переноса данных и других рутинных операций.
Требования
— Глубокие знания PostgreSQL и ClickHouse, включая: опыт работы с высоконагруженными базами данных; установка, настройка, администрирование и миграция серверов БД; опыт работы с pgbouncer, HAProxy; оптимизация производительности и конфигурации для высоконагруженных сред; настройка аутентификации и авторизации.
— Понимание различных подходов, архитектур и решений для построения отказоустойчивых и высокопроизводительных кластеров ClickHouse: опыт интеграции ClickHouse по обмену данными с Kafka; опыт конфигурации настройки кластеров Kafka.
— Опыт резервного копирования и восстановления данных;
— Проектирование и настройка мониторинга баз данных и инфраструктуры: опыт работы с Grafana, Prometheus, OpenSearch;
— Опыт работы с системами управления конфигурациями, например Ansible;
— Написание скриптов (Bash, Python или других языков) для автоматизации рутинных задач;
— Опыт работы с системами контроля версий (например, Git): понимание процессов CI/CD.
Что компания предлагает
— Индивидуальный подход к области ответственности и пулу задач, работа с крупным брендом рынка;
— Уютный офис в центре Тбилиси;
— Гибкий график (начало рабочего дня с 9 до 12);
— Компенсация спорта и медицинских расходов;
— Предоставляем необходимую для работу технику;
— Помощь в релокации.
Контакт для связи: @kpulikova
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/128
Стек технологий: #ClickHouse #PostgreSQL #Kafka #Grafana #Prometheus #OpenSearch #Ansible #Python #Bash #Git #pgbouncer #HAProxy
Разработчик БД
Тип занятости: #contract
Уровень: #middle
Страна: #RU
Локация: #remote
Зарплата: от 250 000 RUB до 350 000 RUB
Вакансия разработчика баз данных с полной удаленной работой в РФ, включающая проектирование, разработку и оптимизацию структур БД, написание SQL-запросов, обеспечение безопасности и производительности, миграцию данных и взаимодействие с командами разработки
Обязанности
- Проектирование, разработка и оптимизация структуры реляционных и/или нереляционных баз данных
- Написание и оптимизация SQL-запросов, хранимых процедур, триггеров и функций
- Обеспечение безопасностью и производительностью базовых данных
- Участие в проектировании конструкции хранилищ данных и систем отчётности
- Миграция данных между последовательностями и версиями СУБД
- Настройка резервного копирования, восстановления и баз данных «Детихи»
- Взаимодействие с командами разработчиков, аналитиков и DevOps для обеспечения согласованности данных и эффективного руководства
Требования
- Опыт работы с одной или несколькими СУБД (например: PostgreSQL, MySQL, Microsoft SQL Server, Oracle, MongoDB и др.)
- Уверенное выполнение SQL (включая сложные запросы, оконные функции, оптимизацию производительности)
- Понимание нормализации и денормализации данных
- Знание методологий проектирования баз данных (ER-моделирование, звёздная/снежинчатая схемы и др.)
- Опыт работы с инструментами управления и администрирования БД
Будет плюсом
- Опыт работы с ETL/ELT-процессами
- Знание языков программирования (Python, Java, C# и др.)
- Понимание основ DevOps-практик
- Опыт работы с облачными платформами (AWS RDS/Aurora, Azure SQL, Google Cloud SQL и др.)
- Знание завершения строительства Хранилища данных и Озера данных
- Сертификация по СУБД (например, Oracle Certified Professional, Microsoft Certified: администратор базы данных Azure и т. д.)
Что предлагаем
- Комфортный доход по итогам собеседования (пересмотр заработной платы)
- 5-дневную рабочую неделю с гибким началом дня (8:00-11:00 по Мск)
- Удобный формат работы
- Современные и интересные задачи на проекте
- Возможность обучения и карьерного роста
Дополнительная информация
Оформление: ИП, ГПХ; Локация РФ; Зарплата указана в рублях; В требованиях указано 'Детихи' - возможно опечатка, должно быть 'баз данных'
Контакты
- Telegram: @patrikeeva_mia_dev
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/157
Стек технологий: #postgresql #mysql #microsoft_sql_server #oracle #mongodb #python #java #c# #aws_rds #aws_aurora #azure_sql #google_cloud_sql
Тип занятости: #contract
Уровень: #middle
Страна: #RU
Локация: #remote
Зарплата: от 250 000 RUB до 350 000 RUB
Вакансия разработчика баз данных с полной удаленной работой в РФ, включающая проектирование, разработку и оптимизацию структур БД, написание SQL-запросов, обеспечение безопасности и производительности, миграцию данных и взаимодействие с командами разработки
Обязанности
- Проектирование, разработка и оптимизация структуры реляционных и/или нереляционных баз данных
- Написание и оптимизация SQL-запросов, хранимых процедур, триггеров и функций
- Обеспечение безопасностью и производительностью базовых данных
- Участие в проектировании конструкции хранилищ данных и систем отчётности
- Миграция данных между последовательностями и версиями СУБД
- Настройка резервного копирования, восстановления и баз данных «Детихи»
- Взаимодействие с командами разработчиков, аналитиков и DevOps для обеспечения согласованности данных и эффективного руководства
Требования
- Опыт работы с одной или несколькими СУБД (например: PostgreSQL, MySQL, Microsoft SQL Server, Oracle, MongoDB и др.)
- Уверенное выполнение SQL (включая сложные запросы, оконные функции, оптимизацию производительности)
- Понимание нормализации и денормализации данных
- Знание методологий проектирования баз данных (ER-моделирование, звёздная/снежинчатая схемы и др.)
- Опыт работы с инструментами управления и администрирования БД
Будет плюсом
- Опыт работы с ETL/ELT-процессами
- Знание языков программирования (Python, Java, C# и др.)
- Понимание основ DevOps-практик
- Опыт работы с облачными платформами (AWS RDS/Aurora, Azure SQL, Google Cloud SQL и др.)
- Знание завершения строительства Хранилища данных и Озера данных
- Сертификация по СУБД (например, Oracle Certified Professional, Microsoft Certified: администратор базы данных Azure и т. д.)
Что предлагаем
- Комфортный доход по итогам собеседования (пересмотр заработной платы)
- 5-дневную рабочую неделю с гибким началом дня (8:00-11:00 по Мск)
- Удобный формат работы
- Современные и интересные задачи на проекте
- Возможность обучения и карьерного роста
Дополнительная информация
Оформление: ИП, ГПХ; Локация РФ; Зарплата указана в рублях; В требованиях указано 'Детихи' - возможно опечатка, должно быть 'баз данных'
Контакты
- Telegram: @patrikeeva_mia_dev
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/157
Стек технологий: #postgresql #mysql #microsoft_sql_server #oracle #mongodb #python #java #c# #aws_rds #aws_aurora #azure_sql #google_cloud_sql
❤2
MySQL Database Administrator
Тип занятости: #full_time
Уровень: #middle+
Страна: #CY
Локация: #office #hybrid
MySQL Database Administrator position in Limassol with relocation assistance
Обязанности
- Администрированием СУБД MySQL (Percona)
- Тюнингом производительности ОС и железа (у нас Bare Metal)
- Подбором конфигураций серверов для новых проектов и расширения старых
- Организацией мониторинга баз данных, их конфигурированием под большие нагрузки
- Настройкой репликации, резервирования БД
- Настройкой безопасности и уровней доступа к инфраструктуре
- Автоматизацией управления конфигурациями Ansible
Требования
- Глубокие знания и опыт работы с ОС Linux
- Знание одного из скриптовых языков (python/bash)
- Опыт работы с инструментами Percona Toolkit, Percona Monitoring and Management
- Опыт работы с высоконагруженными системами высокой доступности
Будет плюсом
- Опыт работы с системами сбора и анализа логов (ELK/LogHouse/Graylog)
- Опыт работы с системами мониторинга (Zabbix, Prometheus)
- Опыт работы с ClickHouse
- Опыт работы с системами управления конфигурациями (Ansible)
Что предлагаем
- Конкурентный уровень дохода, который зависит от ваших профессиональных навыков
- Бонус по результатам работы за год
- Компенсация за успешную рекомендацию кандидата по реферальной программе
- Помощь с релокацией, оформлением необходимых документов, визы для сотрудника, а также для членов семьи
- Беспроцентная рассрочка на покупку автомобиля от компании
- Оплачиваемый отпуск
- Насыщенная корпоративная жизнь, подарки для сотрудников и их детей
Дополнительная информация
Есть релокейт, работа с Bare Metal системами
Контакты
- Telegram: @ssmetankina
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/174
Стек технологий: #mysql #percona #linux #python #bash #percona_toolkit #percona_monitoring_and_management #ansible #elk #loghouse #graylog #zabbix #prometheus #clickhouse
Тип занятости: #full_time
Уровень: #middle+
Страна: #CY
Локация: #office #hybrid
MySQL Database Administrator position in Limassol with relocation assistance
Обязанности
- Администрированием СУБД MySQL (Percona)
- Тюнингом производительности ОС и железа (у нас Bare Metal)
- Подбором конфигураций серверов для новых проектов и расширения старых
- Организацией мониторинга баз данных, их конфигурированием под большие нагрузки
- Настройкой репликации, резервирования БД
- Настройкой безопасности и уровней доступа к инфраструктуре
- Автоматизацией управления конфигурациями Ansible
Требования
- Глубокие знания и опыт работы с ОС Linux
- Знание одного из скриптовых языков (python/bash)
- Опыт работы с инструментами Percona Toolkit, Percona Monitoring and Management
- Опыт работы с высоконагруженными системами высокой доступности
Будет плюсом
- Опыт работы с системами сбора и анализа логов (ELK/LogHouse/Graylog)
- Опыт работы с системами мониторинга (Zabbix, Prometheus)
- Опыт работы с ClickHouse
- Опыт работы с системами управления конфигурациями (Ansible)
Что предлагаем
- Конкурентный уровень дохода, который зависит от ваших профессиональных навыков
- Бонус по результатам работы за год
- Компенсация за успешную рекомендацию кандидата по реферальной программе
- Помощь с релокацией, оформлением необходимых документов, визы для сотрудника, а также для членов семьи
- Беспроцентная рассрочка на покупку автомобиля от компании
- Оплачиваемый отпуск
- Насыщенная корпоративная жизнь, подарки для сотрудников и их детей
Дополнительная информация
Есть релокейт, работа с Bare Metal системами
Контакты
- Telegram: @ssmetankina
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/174
Стек технологий: #mysql #percona #linux #python #bash #percona_toolkit #percona_monitoring_and_management #ansible #elk #loghouse #graylog #zabbix #prometheus #clickhouse
❤1
Lead Database Developer/Lead Architect
Тип занятости: #full_time
Уровень: #lead
Страна: #RU
Локация: #remote
Lead Database Developer/Lead Architect position requiring extensive experience in backend system architecture design, PostgreSQL, Python backend development, and modern architectural approaches
Требования
- Опыт архитектурного проектирования backend-систем от 4–5 лет
- Опыт работы с PostgreSQL
- Опыт разработки backend-сервисов на Python (FastAPI/Aiohttp/DRF/Flask)
- Опыт применения Python в сервисах вокруг БД (не web/fullstack)
- Понимание микросервисной архитектуры, API-first и event-driven подходов
- Опыт интеграций через REST/gRPC
- Опыт работы с очередями (Kafka или RabbitMQ)
- Понимание SOLID, Clean Architecture
- Умение готовить архитектурные документы
- Проектирование и оптимизация реляционных моделей
- Опыт интеграции (REST/gRPC/GraphQL)
- Работа с ETL / потоками данных, базовые знания аналитических запросов и агрегаций
Будет плюсом
- Опыт работы с .NET/ASP .NET Core, an open-source web development framework | .NET Core/C#
- Опыт проектирования высоконагруженных и распределённых систем
- Знание ClickHouse
- Опыт миграции монолитов в микросервисную архитектуру
- Работа с AWS, Azure, Yandex .Cloud, GCP
- Настройка мониторинга (Prometheus, Grafana, ELK)
- Аудит архитектуры и кода
- Опыт защиты технических решений
Дополнительная информация
Строго РФ, часовой пояс: МСК. Просьба присылать CV в ТГ
Контакты
- Telegram: @elenachernenko
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/193
Стек технологий: #postgresql #python #fastapi #aiohttp #drf #flask #rest #grpc #kafka #rabbitmq #graphql #etl #net #asp #csharp #clickhouse #aws #azure #gcp #prometheus #grafana #elk
Тип занятости: #full_time
Уровень: #lead
Страна: #RU
Локация: #remote
Lead Database Developer/Lead Architect position requiring extensive experience in backend system architecture design, PostgreSQL, Python backend development, and modern architectural approaches
Требования
- Опыт архитектурного проектирования backend-систем от 4–5 лет
- Опыт работы с PostgreSQL
- Опыт разработки backend-сервисов на Python (FastAPI/Aiohttp/DRF/Flask)
- Опыт применения Python в сервисах вокруг БД (не web/fullstack)
- Понимание микросервисной архитектуры, API-first и event-driven подходов
- Опыт интеграций через REST/gRPC
- Опыт работы с очередями (Kafka или RabbitMQ)
- Понимание SOLID, Clean Architecture
- Умение готовить архитектурные документы
- Проектирование и оптимизация реляционных моделей
- Опыт интеграции (REST/gRPC/GraphQL)
- Работа с ETL / потоками данных, базовые знания аналитических запросов и агрегаций
Будет плюсом
- Опыт работы с .NET/ASP .NET Core, an open-source web development framework | .NET Core/C#
- Опыт проектирования высоконагруженных и распределённых систем
- Знание ClickHouse
- Опыт миграции монолитов в микросервисную архитектуру
- Работа с AWS, Azure, Yandex .Cloud, GCP
- Настройка мониторинга (Prometheus, Grafana, ELK)
- Аудит архитектуры и кода
- Опыт защиты технических решений
Дополнительная информация
Строго РФ, часовой пояс: МСК. Просьба присылать CV в ТГ
Контакты
- Telegram: @elenachernenko
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/193
Стек технологий: #postgresql #python #fastapi #aiohttp #drf #flask #rest #grpc #kafka #rabbitmq #graphql #etl #net #asp #csharp #clickhouse #aws #azure #gcp #prometheus #grafana #elk
Администратор Баз данных
Компания: Jetlyn
Тип занятости: #contract
Уровень: #senior
Страна: #RU
Локация: #remote
Зарплата: от 250 000 RUB до 300 000 RUB
Аутстафф проект в сфере авиации (гос. проект). Сроки проекта: 24.11.2025-30.06.2026. Сроки могут быть увеличены по результату выполнения задач и потребностей на проекте. Оформление: ИП/ТК. Локация/Гражданство: РФ.
Обязанности
- Разворачивание и настройка СПО на целевом стенде Заказчика
Требования
- Опыт администрирования и настройки Linux-систем (CentOS, Astra Linux, Alt, РЕД ОС) от 3-х лет
- Опыт администрирования СУБД PostgreSQL от 3-х лет
- Навыки написания скриптов автоматизации с использованием: Bash, Python, Perl
Будет плюсом
- Опыт администрирования web-серверов (Apache, HAproxy, Nginx)
- Опыт администрирования серверов приложений apache tomcat
- Опыт настройки и практического использования систем мониторинга zabbix, prometheus
- Опыт работы с системами управления конфигурациям (желательно ansible)
- Знание продуктов Atlassian (JIRA, Confluence, Bamboo) и навыки их администрирования
Дополнительная информация
Грейд, роль: Senior Администратор Баз данных. Вилка: 250 000 - 300 000 (по результатам интервью).
Контакты
- Telegram: @hr_natalya_d
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/205
Стек технологий: #linux #centos #astra_linux #alt #ред_ос #postgresql #bash #python #perl #apache #haproxy #nginx #apache_tomcat #zabbix #prometheus #ansible #jira #confluence #bamboo
Компания: Jetlyn
Тип занятости: #contract
Уровень: #senior
Страна: #RU
Локация: #remote
Зарплата: от 250 000 RUB до 300 000 RUB
Аутстафф проект в сфере авиации (гос. проект). Сроки проекта: 24.11.2025-30.06.2026. Сроки могут быть увеличены по результату выполнения задач и потребностей на проекте. Оформление: ИП/ТК. Локация/Гражданство: РФ.
Обязанности
- Разворачивание и настройка СПО на целевом стенде Заказчика
Требования
- Опыт администрирования и настройки Linux-систем (CentOS, Astra Linux, Alt, РЕД ОС) от 3-х лет
- Опыт администрирования СУБД PostgreSQL от 3-х лет
- Навыки написания скриптов автоматизации с использованием: Bash, Python, Perl
Будет плюсом
- Опыт администрирования web-серверов (Apache, HAproxy, Nginx)
- Опыт администрирования серверов приложений apache tomcat
- Опыт настройки и практического использования систем мониторинга zabbix, prometheus
- Опыт работы с системами управления конфигурациям (желательно ansible)
- Знание продуктов Atlassian (JIRA, Confluence, Bamboo) и навыки их администрирования
Дополнительная информация
Грейд, роль: Senior Администратор Баз данных. Вилка: 250 000 - 300 000 (по результатам интервью).
Контакты
- Telegram: @hr_natalya_d
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/205
Стек технологий: #linux #centos #astra_linux #alt #ред_ос #postgresql #bash #python #perl #apache #haproxy #nginx #apache_tomcat #zabbix #prometheus #ansible #jira #confluence #bamboo
Администратор Баз данных
Компания: Jetlyn
Тип занятости: #contract
Уровень: #senior
Страна: #RU
Локация: #remote
Зарплата: от 250 000 RUB до 300 000 RUB
Аутстафф проект в сфере авиации (гос. проект). Сроки проекта: 24.11.2025-30.06.2026. Сроки могут быть увеличены по результату выполнения задач и потребностей на проекте. Оформление: ИП/ТК. Локация/Гражданство: РФ.
Обязанности
- Разворачивание и настройка СПО на целевом стенде Заказчика
Требования
- Опыт администрирования и настройки Linux-систем (CentOS, Astra Linux, Alt, РЕД ОС) от 3-х лет
- Опыт администрирования СУБД PostgreSQL от 3-х лет
- Навыки написания скриптов автоматизации с использованием: Bash, Python, Perl
Будет плюсом
- Опыт администрирования web-серверов (Apache, HAproxy, Nginx)
- Опыт администрирования серверов приложений apache tomcat
- Опыт настройки и практического использования систем мониторинга zabbix, prometheus
- Опыт работы с системами управления конфигурациям (желательно ansible)
- Знание продуктов Atlassian (JIRA, Confluence, Bamboo) и навыки их администрирования
Дополнительная информация
Грейд, роль: Senior Администратор Баз данных. Вилка: 250 000 - 300 000 (по результатам интервью).
Контакты
- Telegram: @hr_natalya_d
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/205
Стек технологий: #linux #centos #astra_linux #alt #ред_ос #postgresql #bash #python #perl #apache #haproxy #nginx #apache_tomcat #zabbix #prometheus #ansible #jira #confluence #bamboo
Компания: Jetlyn
Тип занятости: #contract
Уровень: #senior
Страна: #RU
Локация: #remote
Зарплата: от 250 000 RUB до 300 000 RUB
Аутстафф проект в сфере авиации (гос. проект). Сроки проекта: 24.11.2025-30.06.2026. Сроки могут быть увеличены по результату выполнения задач и потребностей на проекте. Оформление: ИП/ТК. Локация/Гражданство: РФ.
Обязанности
- Разворачивание и настройка СПО на целевом стенде Заказчика
Требования
- Опыт администрирования и настройки Linux-систем (CentOS, Astra Linux, Alt, РЕД ОС) от 3-х лет
- Опыт администрирования СУБД PostgreSQL от 3-х лет
- Навыки написания скриптов автоматизации с использованием: Bash, Python, Perl
Будет плюсом
- Опыт администрирования web-серверов (Apache, HAproxy, Nginx)
- Опыт администрирования серверов приложений apache tomcat
- Опыт настройки и практического использования систем мониторинга zabbix, prometheus
- Опыт работы с системами управления конфигурациям (желательно ansible)
- Знание продуктов Atlassian (JIRA, Confluence, Bamboo) и навыки их администрирования
Дополнительная информация
Грейд, роль: Senior Администратор Баз данных. Вилка: 250 000 - 300 000 (по результатам интервью).
Контакты
- Telegram: @hr_natalya_d
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/205
Стек технологий: #linux #centos #astra_linux #alt #ред_ос #postgresql #bash #python #perl #apache #haproxy #nginx #apache_tomcat #zabbix #prometheus #ansible #jira #confluence #bamboo
Telegram
SQL Jobs | Работа | Вакансии | Удалёнка [IT MATCH]
Администратор Баз данных
Компания: Jetlyn
Тип занятости: #contract
Уровень: #senior
Страна: #RU
Локация: #remote
Зарплата: от 250 000 RUB до 300 000 RUB
Аутстафф проект в сфере авиации (гос. проект). Сроки проекта: 24.11.2025-30.06.2026. Сроки могут быть…
Компания: Jetlyn
Тип занятости: #contract
Уровень: #senior
Страна: #RU
Локация: #remote
Зарплата: от 250 000 RUB до 300 000 RUB
Аутстафф проект в сфере авиации (гос. проект). Сроки проекта: 24.11.2025-30.06.2026. Сроки могут быть…
Senior Data Engineer
Компания: luckyhunter
Тип занятости: #full_time
Уровень: #senior
Локация: #remote
Зарплата: до 5 000 USD
Контакты
- Telegram: @veronikavlasovets
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/214
Стек технологий: #sql #python #snowflake #dbt #apache_airflow #azure_devops
Компания: luckyhunter
Тип занятости: #full_time
Уровень: #senior
Локация: #remote
Зарплата: до 5 000 USD
Подробное описание вакансии:
Нажмите, чтобы развернуть...
Международная технологическая компания с более чем 15-летним опытом работы в области обработки данных и искусственного интеллекта, специализирующаяся на аутстаффинге и техническом консалтинге в поисках Senior Data Engineer на крупный проект для энергетической компании из Германии.
Требования
- От 5 лет опыта работы
- Опыт проектирования хранилищ данных и архитектуры данных
- Уверенное владение SQL: написание и оптимизация сложных запросов, работа с большими объёмами данных
- Практический опыт применения методологии Data Vault 2.0
- Владение Python для автоматизации ETL/ELT, обработки и анализа данных
- Опыт с современным стеком: Snowflake (настройка, безопасность, оптимизация), dbt (Core), Apache Airflow (оркестрация пайплайнов)
- Знакомство с Azure DevOps (CI/CD, управление задачами, версионирование)
- Английский — не ниже B2
Что предлагаем
- Формат сотрудничества: B2B-договор
- Полностью удалённая работа из любой точки мира, кроме России, Беларуси и Украины. Доступность в рамках часового пояса CET (до 18:00 CET)
- Рaid bench time
- Возможность участвовать во внутренних проектах для поддержания загрузки между клиентскими проектами
- Оплачиваемый больничный
- Компенсация стоимости сертификаций и обучения
- Доступ к передовым проектам в области AI и Data
Дополнительная информация
Работа полностью удалённая из любой точки мира, кроме России, Беларуси и Украины. Требуется доступность в рамках часового пояса CET (до 18:00 CET). Формат сотрудничества: B2B-договор.
Контакты
- Telegram: @veronikavlasovets
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/214
Стек технологий: #sql #python #snowflake #dbt #apache_airflow #azure_devops