SQL Jobs | Работа | Вакансии | Удалёнка [IT MATCH]
358 subscribers
2 photos
111 links
Админ/реклама - @chezarius

Разместить вакансию: https://t.me/it_match_bot
Download Telegram
Senior Data Engineer / DWH Architect

Компания: Хантфлоу
Зарплата: 300-400 тыс. руб.
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Москва
Позиция: #Senior

Хантфлоу — компания в области HRTech, предоставляющая передовые решения для автоматизации рекрутинга. Наш продукт помогает компаниям эффективно закрывать вакансии, сокращая время на поиск и отбор кандидатов.

Обязанности
— Построение архитектуры DWH
— Проектирование и реализация процессов загрузки данных из множества OLTP PostgreSQL-инстансов в DWH
— Разработка и поддержка ETL/ELT пайплайнов
— Интеграция дополнительных источников данных
— Настройка и автоматизация мониторинга

Требования
— Опыт работы DE 3+ года
— Продвинутое владение SQL
— Знание технологий: Python, Git, Docker, Airflow
— Опыт построения ETL/ELT пайплайнов
— Опыт настройки мониторинга

Что компания предлагает
— Рабочий MacBook Pro
— Обучение за счет компании
— Расширенная программа ДМС (после испытательного срока)
— Компенсация интернета или проезда
— 12 дней «без больничного» в год

Контакт для связи: koptelov@huntflow.ru, @meacca (Telegram)

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/37

Стек технологий: #Python #PostgreSQL #Clickhouse #Git #Docker #Airflow #dbt
Data-engineer

Компания: 7RedLines
Зарплата: 130 000 – 160 000 ₽ на руки
Тип занятости: #Удаленка
Локация: #Удаленно
Позиция: #Middle

Обязанности
— Миграция старой логики ХД и разработка нового ХД с целью организации более структурированного хранения данных по слоям
— Миграция логики BI-отчетности
— Внедрение подхода data mesh

Требования
— Опыт разработки в MSSQL Server (обязательно)
— Опыт разработки в Report Designer (обязательно)
— Глубокое знание SQL и опыт работы с реляционными СУБД (MSSQL, PostgreSQL)
— Опыт программирования на T-SQL и PLpgSQL
— Базовые навыки работы в cmd и bash
— Знание Python 3.* и модулей для работы с данными
— Опыт создания потоков данных на Apache Airflow и Kafka
— Понимание подходов к разработке корпоративных хранилищ данных
— Опыт разработки витрин для BI-приложений
— Знание основ безопасности данных (персональные данные, шифрование, доступы)
— Понимание принципов DevOps (CI/CD, Docker, Kubernetes)
— Навыки работы с git

Будет плюсом:
— Знание NoSQL систем
— Опыт с SSIS и SSRS
— Понимание подходов Data Governance и Data Mesh
— Организация хранилищ данных для ML систем
— Опыт в построении real-time и near real-time data-решений
— Работа с BI-системами QlikSense и FineBI
— Опыт интеграции и получения данных из 1C

Что компания предлагает
— Оформление по ТК РФ
— Удаленный формат работы
— График 5/2

Контакт для связи:
Тг: @HR7RedLines
Эл.почта: i.filimonova@7rlines.com

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/39

Стек технологий: #MSSQL #PostgreSQL #Python #Airflow #Kafka #Docker #Kubernetes #Git #T-SQL #PLpgSQL
🥴1
Разработчик на Python/SQL

Компания: Brainics
Зарплата: 200000-260000 руб.
Тип занятости: #Удаленка
Локация: #Россия
Позиция: #Middle

О проекте: Разработка сервисов автоматизации на базе SOAR R-Vision.

Обязанности
— Разработка сервисов автоматизации
— Написание скриптов на Python и Bash
— Работа с базами данных (PGSQL, MySQL, Redis, Mongo DB)
— Тестирование кода (pytest, unittest)
— Работа с Docker и CI/CD
— Взаимодействие с сетевыми протоколами и технологиями (API, websocket)

Требования
— Опыт в финтех обязателен
— Уверенное владение Python 3.x
— Навыки написания скриптов на Bash под Linux
— Уверенное владение Linux (RHEL/Ред ОС), понимание устройства ОС
— Опыт работы с базами данных (PGSQL, MySQL, Redis, Mongo DB)
— Знание SQL
— Опыт тестирования (pytest, unittest)
— Работа с Docker, git, gitlab
— Опыт работы с CI/CD
— Понимание сетевых протоколов и технологий

Что компания предлагает
— Удаленный формат работы
— Проект в области автоматизации
— Возможность работы с современными технологиями

Контакт для связи: @mila_brainics

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/40

Стек технологий: #python #SQL #linux #git
🔥1
Data Engineer

Компания: Гарда Технологии
Зарплата: по договоренности
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Россия
Позиция: #Senior

Обязанности
— Проектирование схемы, ETL, тестирование хранилищ данных для продуктов компании
— Настройка и оптимизация конвейеров данных (Airflow, Python, SQL, ClickHouse)
— Разработка и внедрение стратегий резервного копирования
— Мониторинг системы оповещения
— Решение проблем в работе конвейеров, обеспечение качества данных
— Моделирование хранилищ данных и процессов обработки данных

Требования
— Навыки работы и тонкой настройки различных баз данных (SQL, ClickHouse)
— Понимание принципов работы Airflow и Kafka
— Понимание процесса непрерывной интеграции CI/CD

Будет плюсом:
— Понимание архитектуры и процесса обработки данных фреймворком Apache Hadoop
— Знание стандартов и best practice в области хранения данных
— Навыки работы с большим пулом различных баз данных (MSSQL, Oracle, PostgreSQL, ClickHouse, MongoDB, Greenplum, Apache Hive, NoSQL, S3 хранилища)
— Работа с системами виртуализации/контейнеризации

Что компания предлагает
— Работу в аккредитованной ИТ-компании
— Ежеквартальное и годовое премирование сотрудников (после испытательного срока)
— ДМС со стоматологией
— Компенсация расходов на спорт, ежемесячная компенсация питания после трех месяцев работы
— Возможность гибридной или удалённой работы, с гибким началом рабочего дня

Контакт для связи: @nadja_chh

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/41

Стек технологий: #Airflow #Python #SQL #ClickHouse #Kafka #CI/CD #Hadoop #MSSQL #Oracle #PostgreSQL #MongoDB #Greenplum #ApacheHive #NoSQL #S3
BD-1002 — Senior Data Engineer / ClickHouse

Компания: Крупный ритейл-проект (российская сеть розничных магазинов)
Зарплата: 280.000–350.000 ₽
Тип занятости: #Удаленка #fulltime
Локация: #РФ #РБ
Позиция: #Senior

Крупный ритейл-проект ищет сильного Data Engineer для оптимизации и работы с ClickHouse. Старт ASAP, задачи технически насыщенные и с хорошим бюджетом.

Обязанности
— Работа с ClickHouse: движки, сортировки, фильтры
— Оптимизация по скорости и памяти
— Агрегации, группировки, партиционирование
— Работа со словарями и большими объёмами данных

Требования
— ClickHouse (движки, партиции, словари, оптимизация)
— SQL, Python будет плюсом
— Опыт от 2 лет на позиции Data Engineer
— Уверенное владение инструментами анализа и трансформации данных

Что компания предлагает
— Технически насыщенные задачи
— Хороший бюджет проекта
— Возможность глубокой работы с ClickHouse

Контакт для связи: @skeldafn (с пометкой и кодом вакансии BD-1002)

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/42

Стек технологий: #ClickHouse #SQL #Python #BigData
Data Engineer (Инженер данных)

Компания: Ланит
Зарплата: по договоренности
Тип занятости: #Удаленка
Локация: #Belarus #Беларусь #РБ
Позиция: #Middle #Middle+ #Senior

💻Добрый день, коллеги! Мы в поисках Data Engineer (Инженера данных), проект банка, компания Ланит.

Обязанности
— Разработка процессов загрузки данных (ETL)
— Работа с современными системами хранения данных (MPP и NoSQL)
— Оптимизация запросов и обработки данных
— Взаимодействие с командой проекта

Требования
— Опыт работы инженером или разработчиком от 3 лет
— Знание одного из языков: Python или Java
— Понимание основ ООП, теории алгоритмов и структур данных
— Уверенное владение SQL
— Опыт написания ETL-процессов
— Знание современных систем хранения данных (MPP и NoSQL)
— Базовые знания Pandas, Numpy и Groovy (будет плюсом)
— Знание Apache Kafka (будет плюсом)

Что компания предлагает
— Удаленный формат работы
— Интересный проект в банковской сфере
— Возможность профессионального роста
— Работу в стабильной компании

Контакт для связи: @marynachka

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/43

Стек технологий: #SQL #Java #Groovy #Python #ETL #pandas #numpy #ApacheKafka

Статус: #вакансия #job #vacancy #работа
Data Engineer (Senior)

Компания: Российская сеть розничных магазинов
Зарплата: по договоренности
Тип занятости: #Удаленка
Локация: #РФ #РБ
Позиция: #Senior

Разработка и поддержка инфраструктуры данных для крупной розничной сети. Проект продолжительностью 3 месяца с возможностью продления.

Обязанности
— Миграция из Managed Service в собственные Kubernetes
— Разработка модулей и скриптов данных для пилота
— Разработка скриптов для повышения качества данных
— Разработка CI/CD конвейеров (1 DevOps/1 DE)
— Разработка модулей для Alluxio (0,5 DevOps)
— I&D. Разработка модулей для поддержки промышленной системы (0,5 DevOps)
— Разработка модулей межсервисного шифрования (0,5 DevOps)
— Разработка общего метахранилища (0,5 DevOps)
— I&D. Разработка мониторинга сервисов и инфраструктуры (0,5 DevOps)

Требования
— Опыт работы с Apache (Spark, Hive, Airflow)
— Знание Yandex Cloud
— Владение Python и SQL
— Опыт работы с Linux и Docker
— Понимание streaming-технологий

Что компания предлагает
— Удаленный формат работы
— Возможность продления проекта
— Участие в масштабных задачах по обработке данных

Контакт для связи: @grosssoft1600, +7 999 689 1600 (Екатерина, IT-recruiter)

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/47

Стек технологий: #Apache #Spark #Hive #Airflow #YandexCloud #Python #SQL #Linux #Docker #Streaming
Data Engineer

Компания: ГК Рост
Зарплата: по договоренности
Тип занятости: #Гибрид
Локация: #Москва
Позиция: #Middle #Senior

Лидер российского рынка овощей защищенного грунта. Численность сотрудников холдинга – более 12,500 человек.

Обязанности
— Анализ систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
— Разработка и поддержка ETL/ELT процессов из различных источников (Airflow)
— Сбор, анализ и формализация требований к разрабатываемым решениям (модели данных, витрины данных для аналитики)
— Разработка и поддержка моделей и витрин данных (DBT)
— Обеспечение качества данных (чистота, точность, целостность, полнота)
— Формирование технической документации (ELT/ETL процессы и алгоритмы)
— Улучшение архитектуры данных, внедрение новых технологий обработки и хранения
— Описание объектов данных в дата-каталоге, поддержка актуального состояния

Требования
— Опыт проектирования, разработки и запуска ETL процессов (Airflow)
— Опыт проектирования и разработки баз данных OLTP, OLAP (MS SQL)
— Знание SQL (сложные запросы, оконные функции, оптимизация), Python
— Навыки работы с GitLab, настройка CI/CD пайплайнов
— Понимание работы BI-инструментов (Power BI)

Что компания предлагает
— Официальное оформление в ООО "УК ""РОСТ"
— График работы: 40 часов в неделю (гибридный формат)
— Комфортабельное рабочее место, корпоративная мобильная связь
— Добровольное медицинское страхование
— Конкурентоспособная заработная плата
— Обучение и развитие за счет компании
— Отпуск 28 календарных дней
— Офис: м. Киевская, БЦ "Атлантик"

Контакт для связи: @AlexandraKononenko

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/48

Стек технологий: #MSSQL #SSAS #PowerBI #Airflow #DBT #GitLab #Docker #Linux #SQL #Python
Data Engineer

Компания: Крупная финтех-компания (не РФ)
Зарплата: Конкурентная заработная плата
Тип занятости: #Офис #Гибрид
Локация: #Ташкент
Позиция: #Middle #Senior

Крупная финтех-компания, пионер мобильного банкинга, ищет Data Engineer. Мы развиваем мультифункциональную платформу, которая объединяет финансовые, сервисные и бизнес-решения и которой пользуются более 20 млн человек.

Обязанности
— Анализ требований к витринам данных, работая в тесной связке с Data Analysts и Data Scientists.
— Поиск и исследование источников данных для их последующей интеграции с Data Lake.
— Разработка ETL/ELT-процессов с использованием PySpark.
— Разработка оркестрации ETL-процессов в Airflow.
— Развитие инструментов для контроля и поддержания качества данных (Data Quality).
— Проектирование структуры хранилищ данных (DWH, Data Lake).

Требования
— Отличные знания SQL для написания сложных и производительных запросов (CTE, оконные функции).
— Опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL.
— Знание Python для разработки ETL/ELT пайплайнов.
— Опыт работы со стеком Big Data: HiveQL Hadoop, Apache AirFlow, Apache Spark, Apache Flink, Airbyte.
— Понимание концепции Data Vault хранилищ данных (DWH, Data Lake).
— Опыт написания сервисов для взаимодействия с внешними источниками данных.
— Понимание принципов построения системных интеграций.

Что компания предлагает
— Релокационный пакет.
— Работу в офисе в Ташкенте или гибридный формат по договоренности.
— Конкурентную заработную плату.
— Постоянное обучение и профессиональный рост.
— Фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
— Яркая корпоративная культура и кафетерий бенефитов.

Контакт для связи: @haas_mari

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/54

Стек технологий: #SQL #Python #PySpark #Airflow #Hadoop #ClickHouse #PostgreSQL #ApacheSpark #ApacheFlink #Airbyte
ClickHouse Admin (Junior+/Middle)

Компания: Крупная международная продуктовая ИТ-компания
Зарплата: от 4000 евро на руки
Тип занятости: #Офис
Локация: #Limassol #Cyprus
Позиция: #Junior #Middle

Работа в офисе в Лимасоле с гибким графиком и компенсациями.

Обязанности
— Администрирование и поддержка ClickHouse
— Оптимизация производительности
— Управление конфигурациями, репликацией, Zookeeper
— Мониторинг, инциденты, помощь разработчикам
— Контроль качества данных и метрик

Требования
— Linux (уверенно)
— ClickHouse: структура, движки, репликация, шардинг
— Bash, SQL
— Системы мониторинга

Что компания предлагает
— Гибкий старт дня (8–10), 5/2
— Ланчи 2 раза в день
— Компенсации спорта и английских курсов
— Индексация ЗП

Контакт для связи: @dgold91

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/58

Стек технологий: #ClickHouse #Linux #Bash #SQL #Zookeeper #Python #Ansible #Puppet #SaltStack #MySQL #PostgreSQL
IT Operations Engineer DBA

Компания: Unipesa
Зарплата: 3000-4000 usd
Тип занятости: #Удаленка
Локация: #Удаленно
Позиция: #Middle

Мы компания-разработчик FinTech решений Unipesa, специализируемся на разработке B2B2C для платежных сервисов.

Обязанности
— проектирование компонентов ИТ-инфраструктуры хостов, контейнеров Docker, баз данных и т.д.
— управление базами данных (MySQL)
— администрирование хостов Linux
— внедрение мониторинга и ведения журналов служб (Grafana, Prometheus, Graylog)
— обеспечение бесперебойной работы систем

Требования
— опыт работы на позиции IT-инженера или DevOps от 3-5 лет
— опыт управления базами данных MySQL и анализа производительности
— знание следующих технологий: ОС Linux, базы данных, скриптовые языки, виртуализация, сети, облачные технологии (AWS или Hetzner)
— широкий кругозор в сфере современных технологий и способность быстро осваивать новые технологии
— разработка на одном из скриптовых языков (Powershell, Bash, Python и т. д.)
— опыт работы с технологией контейнеризации (Docker)

Что компания предлагает
— удаленный формат работы
— сервисный договор с иностранной компанией

Контакт для связи: @Liska1008

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/64

Стек технологий: #MySQL #Linux #Docker #Grafana #Prometheus #Graylog #AWS #Hetzner #Bash #Python #Powershell
Инженер (DBA) Cassandra/Kafka

Компания: Компания, автоматизирующая документооборот, бухгалтерию и отчетность
Зарплата: обсуждается, соцпакет
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Екатеринбург #Санкт-Петербург #Новосибирск #Ижевск #Самара #Ростов-на-Дону #Казань #Иннополис #Пермь
Позиция: #Junior #Middle #Senior

Компания рассматривает кандидатов только из России.

Обязанности
— Предоставление новых кластеров Cassandra/Kafka командам разработки
— Накопление экспертизы, автоматизация знаний по сопровождению и внедрение их на все кластеры этого вида БД
— Анализ производительности кластеров БД и поиск узких мест, оптимизация и тюнинг запросов, конфигурации
— Мониторинг Cassandra/Kafka компонентов его стека и ОС Linux
— Участие в дизайн-ревью, консультирование проектов в выборе оптимальной для поставленной задачи базы данных
— Работа в команде: обмен опытом, совместное владение и управление знаниями, формирование целей развития группы БД

Требования
— Практический опыт DBA от 2х лет
— Опыт проектирования и сопровождения высоконагруженных кластеров Cassandra/Kafka
— Понимание основ работы нереляционных баз данных
— Знания и опыт работы с ОС Linux (CentOS, Ubuntu, AlmaLinux)
— Опыт автоматизации процессов сопровождения (Ansible, Bash, Python и др.)
— Навык конструктивного общения с командами разработки

Что компания предлагает
— Гибкий формат работы (офис, удаленка, гибрид)
— Соцпакет
— Возможность работы в команде экспертов

Контакт для связи: @fr_rec

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/67

Стек технологий: #Ansible #Python #Git #Cassandra #Kafka #JVM #Jmxtrans #Vector #Filebeat #Diamond #Telegraf #Linux #Teamcity #Bash #Graphite #Grafana #Sentry #GitLabCI #ELK #YouTrack

#вакансия #vacancy #удаленно
Архитектор данных (Data Architect)

Компания: FinTech
Зарплата: по договоренности
Тип занятости: #Офис #Гибрид
Локация: #Ташкент
Позиция: #Senior

Крупная финтех-компания ищет Архитектора данных.

Обязанности
— Разработка стратегии доменов данных.
— Проектирование шаблонов логических моделей данных для информационных и функциональных областей.
— Создание корпоративных моделей данных с учетом технических и архитектурных ограничений.
— Доработка и актуализация моделей новых сущностей и атрибутов.
— Разработка правил использования данных в информационных системах.
— Проектирование концептуальной архитектуры и архитектуры решений для контура управления данными.
— Разработка методологий и правил использования данных.
— Инициирование предложений по выделению логических слоев данных.
— Контроль целостности и актуальности моделей данных.
— Поддержка актуальной документации и глоссария.

Требования
— Опыт работы архитектором платформы данных от 3-х лет.
— Опыт в разработке логических моделей данных информационной системы.
— Опыт формирования процессов управления данными, контрактов на данные, а также разработки дата-продуктов.
— Понимание принципов формирования UML-диаграмм классов, потоков данных, последовательностей.
— Понимание и опыт формирования ER-диаграмм.
— Знание Sparx Enterprise Architect или аналогичных CASE-средств проектирования.
— Знание методик и подходов проектирования архитектуры хранилищ данных (on-premise и cloud-native).
— Знание принципов архитектурных паттернов работы ML-Ops конвейера.
— Практический опыт построения системы исполнения моделей машинного обучения.
— Знание принципов построения хранилищ данных (Inmon, Kimball, DataVault и т.п.).
— Глубокие знания в области технологий сбора, хранения и обработки данных (Datalake, DWH, Data Lakehouse, Data Streaming).
— Понимание принципов построения интеграционных процессов.
— Опыт работы с: Object Storage S3, Hadoop, Kubernetes, Spark, Impala, Iceberg, Kafka, MS SQL Server, PostgreSQL, Clickhouse.
— Глубокие знания SQL и Python.

Что компания предлагает
— Работу в офисе в Ташкенте или гибридный формат по договоренности.
— Конкурентную заработную плату.
— Постоянное обучение и профессиональный рост.
— Заботу о здоровье: фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
— Яркую корпоративную культуру и кафетерий бенефитов.

Контакт для связи: @spetrushkin

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/70

Стек технологий: #S3 #Hadoop #Kubernetes #Spark #Impala #Iceberg #Kafka #MSSQLServer #PostgreSQL #Clickhouse #SQL #Python
Database Administrator

Компания: Quantum Brains
Зарплата: от 3000$ до 6000$ (по результатам интервью)
Тип занятости: #Офис #Гибрид
Локация: #Тбилиси
Позиция: #Middle #Senior

Quantum Brains — финтех-команда, где Data Science, ML и глубокий анализ работают вместе для создания реального бизнеса.

Обязанности
— Администрирование и оптимизация PostgreSQL, ClickHouse;
— Управление оборудованием и инфраструктурой;
— Взаимодействие с продуктовой и инженерной командами по вопросам проектирования и оптимизации структур данных;
— Автоматизация развертываний, резервного копирования, переноса данных и других рутинных операций.

Требования
— Глубокие знания PostgreSQL и ClickHouse;
— Опыт работы с высоконагруженными базами данных;
— Понимание архитектур для построения отказоустойчивых кластеров ClickHouse;
— Опыт резервного копирования и восстановления данных;
— Навыки работы с Grafana, Prometheus, OpenSearch;
— Опыт автоматизации (Bash, Python, Ansible);
— Знание Git и процессов CI/CD.

Что компания предлагает
— Индивидуальный подход к задачам, работа с крупным брендом;
— Уютный офис в центре Тбилиси;
— Гибкий график (начало рабочего дня с 9 до 12);
— Компенсация спорта и медицинских расходов;
— Предоставление необходимой техники;
— Помощь в релокации.

Контакт для связи: @kpulikova

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/76

Стек технологий: #ClickHouse #PostgreSQL #Kafka #Grafana #Prometheus #OpenSearch #Ansible #Python #Bash #Git #pgbouncer #HAProxy
Data Engineer

Компания: Крупная финтех-компания (не РФ)
Зарплата: Конкурентная заработная плата
Тип занятости: #Офис #Гибрид
Локация: #Ташкент
Позиция: #Middle #Senior

Крупная финтех-компания, пионер мобильного банкинга, развивает мультифункциональную платформу, объединяющую финансовые, сервисные и бизнес-решения. Платформой пользуются более 20 млн человек.

Обязанности
— Анализ требований к витринам данных в связке с Data Analysts и Data Scientists.
— Поиск и исследование источников данных для интеграции с Data Lake.
— Разработка ETL/ELT-процессов с использованием PySpark.
— Разработка оркестрации ETL-процессов в Airflow.
— Развитие инструментов контроля качества данных (Data Quality).
— Проектирование структуры хранилищ данных (DWH, Data Lake).

Требования
— Отличные знания SQL (CTE, оконные функции).
— Опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL.
— Знание Python для разработки ETL/ELT пайплайнов.
— Опыт работы со стеком Big Data: HiveQL Hadoop, Apache AirFlow, Apache Spark, Apache Flink, Airbyte.
— Понимание концепции Data Vault хранилищ данных (DWH, Data Lake).
— Опыт написания сервисов для взаимодействия с внешними источниками данных.
— Понимание принципов построения системных интеграций.

Что компания предлагает
— Работу в офисе или гибридный формат.
— Конкурентную заработную плату.
— Постоянное обучение и профессиональный рост.
— Фитнес-зал, массажные кресла и спортивные клубы в офисе.
— Яркую корпоративную культуру и кафетерий бенефитов.

Контакт для связи: @spetrushkin

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/87

Стек технологий: #SQL #Python #PySpark #Airflow #Hadoop #ClickHouse #PostgreSQL #MSQL #ApacheSpark #ApacheFlink #Airbyte #DataLake #DWH
Data инженер

Компания: Top Selection
Зарплата: 350-420K
Тип занятости: #Удаленка
Локация: #РФ
Позиция: #Senior

Мы в поиске Data инженера на проектную занятость. Долгосрочный проект с оформлением по ИП.

Обязанности
— Разработка и оптимизация сложных SQL-запросов
— Оркестрация ETL-пайплайнов с помощью Airflow
— Работа с технологиями экосистемы Hadoop (HDFS, YARN, HIVE, Sqoop)
— Разработка и поддержка решений на Apache Spark (Spark DataFrames, Spark SQL)
— Взаимодействие с инструментом dbt
— Работа с банковской предметной областью

Требования
— Опыт работы с SQL на уровне оптимизированных сложных запросов
— Понимание принципов функционирования традиционных СУБД и MPP-баз данных
— Опыт программирования на Python, Java или Scala
— Опыт оркестрации ETL-пайплайнов (Airflow)
— Умение работать с Hadoop (HDFS, YARN, HIVE, Sqoop)
— Владение Apache Spark (Spark DataFrames, Spark SQL)
— Опыт работы с банковской предметной областью
— Желательно: опыт с Kafka, Trino, Kubernetes, Helm, CI/CD

Что компания предлагает
— Долгосрочный проект
— Удаленный формат работы
— Конкурентную ставку

Контакт для связи: @aliiS_a

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/95

Стек технологий: #Python #Trino #dbt #Airflow #Spark #Hadoop #Hive #Postgres #Greenplum #Kubernetes #Gitlab
Data-инженер

Компания: Не указано
Зарплата: от 300 000 до 350 000 ₽
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Алматы
Позиция: #Senior

Мы строим платформу данных нового поколения с нуля. Наши цели: построить надёжную и масштабируемую архитектуру, внедрить лучшие практики работы с данными, развивать современный DataOps-подход.

Обязанности
— Проектирование и создание масштабируемой платформы данных с нуля
— Разработка хранилища данных на базе ClickHouse
— Построение отказоустойчивых ETL/ELT пайплайнов
— Внедрение процессов Data Quality и Data Observability
— Развитие и внедрение DataOps-подходов
— Менторство, код-ревью, развитие команды
— Участие в архитектурных решениях вместе с аналитиками, разработчиками и DevOps-инженерами

Требования
— 5+ лет опыта в Data Engineering
— Экспертиза в ClickHouse (архитектура, шардинг, репликация, оптимизация)
— Отличное знание SQL, Python
— Опыт работы с dbt, Kafka, Kafka Connect, Debezium
— Навыки работы с Airflow или аналогами
— Опыт в CI/CD
— Понимание DataOps, проектирования хранилищ данных
— Навыки командной работы и коммуникации

Что компания предлагает
— Гибкий формат: удалёнка или офис в Алматы
— Современный стек и лучшие практики
— Работа с миллионной аудиторией пользователей
— Возможность видеть реальный результат своей работы

Контакт для связи: @islam14_hr

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/97

Стек технологий: #ClickHouse #PostgreSQL #MySQL #Linux #IaC #Ansible #Prometheus #Grafana #Bash #DevOps #Python #Kafka #Airflow #dbt
DWH TeamLead

Компания: ООО ИТМ (Магнит)
Зарплата: от 350 000 до 450 000 руб.
Тип занятости: #Удаленка
Локация: #Россия
Позиция: #Senior #TeamLead

Наше Корпоративное Хранилище Данных — одно из крупнейших в России. Мы храним и обрабатываем более 1 ПБ данных! 200 источников информации, каждый из которых важен для бизнеса, и это число растет каждый день. Но вот самое интересное: нас ждет большая миграция в облако — да, да, мы первые в России, кто с такими объемами пойдет в облачные технологии!

Обязанности
— Участвовать в миграции Хранилища данных на новые технологии, используя наш фреймворк
— Управлять командой разработки от 3 человек
— Оценивать, планировать и согласовывать работы с заказчиком и командой аналитики
— Нанимать, онбордить и развивать свою команду
— Участвовать в подготовке предложений по доработкам фреймворка и инструментов
— Создавать новые и развивать старые интеграции по загрузке сырых данных в DataLake
— Разрабатывать pipline'ов доставки и обработки данных в детальный слой и витрины данных
— Писать и оптимизировать сложные скрипты обработки данных
— Прорабатывать локальные архитектурные решения

Требования
— Опыт в разработке хранилищ данных — минимум 4 года
— Управление командой от трех человек более 1 года
— Мастерство написания SQL-кода и работы с реляционными БД на экспертном уровне
— Опыт разработки разнообразных pipline'ов доставки и обработки данных
— Понимание типовых паттернов технических решений в области ETL/ELT-процессов и алгоритмов

Что компания предлагает
— Официальное трудоустройство в аккредитованную ИТ-компанию (документы на месте, не волнуйся!)
— Свобода выбора: работай удалённо, гибридно или в одном из офисов (Москва, Краснодар, Иннополис)
— Прозрачные цели и здравые процессы. Мы ценим время и мозги
— Возможности роста: оплачиваем обучение, отправляем на конференции и даже помогаем освоить новые направления
— Медицинское страхование и льготы для всей семьи
— И еще — корпоративные скидки от наших крутых партнеров!

Контакт для связи: @stanislav_muhin

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/104

Стек технологий: #Python #SQL #Oracle
1
Database Administrator

Компания: Quantum Brains
Зарплата: от 3000$ до 6000$
Тип занятости: #Офис #Гибрид
Локация: #Тбилиси
Позиция: #Senior

Quantum Brains — финтех-команда, где Data Science, ML и глубокий анализ работают вместе для создания реального бизнеса.

Обязанности
— Администрирование и оптимизация PostgreSQL, ClickHouse
— Управление оборудованием и инфраструктурой
— Взаимодействие с продуктовой и инженерной командами по вопросам проектирования и оптимизации структур данных, выявления инцидентов и их оперативного устранения
— Автоматизация развертываний, резервного копирования, переноса данных и других рутинных операций

Требования
— Глубокие знания PostgreSQL и ClickHouse
— Опыт работы с высоконагруженными базами данных
— Установка, настройка, администрирование и миграция серверов БД
— Опыт работы с pgbouncer, HAProxy
— Понимание различных подходов, архитектур и решений для построения отказоустойчивых и высокопроизводительных кластеров ClickHouse
— Опыт интеграции ClickHouse по обмену данными с Kafka
— Опыт конфигурации настройки кластеров Kafka
— Опыт резервного копирования и восстановления данных
— Проектирование и настройка мониторинга баз данных и инфраструктуры
— Опыт работы с Grafana, Prometheus, OpenSearch
— Опыт работы с системами управления конфигурациями, например Ansible
— Написание скриптов (Bash, Python или других языков) для автоматизации рутинных задач
— Опыт работы с системами контроля версий (например, Git)
— Понимание процессов CI/CD

Что компания предлагает
— Индивидуальный подход к области ответственности и пулу задач, работа с крупным брендом рынка
— Уютный офис в центре Тбилиси
— Гибкий график (начало рабочего дня с 9 до 12)
— Компенсация спорта и медицинских расходов
— Предоставляем необходимую для работы технику
— Помощь в релокации

Контакт для связи: @kpulikova

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/112

Стек технологий: #ClickHouse #PostgreSQL #Kafka #Grafana #Prometheus #OpenSearch #Ansible #Python #Bash #Git #pgbouncer #HAProxy
Database Administrator

Компания: Quantum Brains
Зарплата: от 3000$ до 6000$
Тип занятости: #Офис #Гибрид
Локация: #Тбилиси
Позиция: #Senior

Quantum Brains — финтех-команда, где Data Science, ML и глубокий анализ работают вместе для создания реального бизнеса.

Обязанности
— Администрирование и оптимизация PostgreSQL, ClickHouse: управление производительностью серверов и настройка параметров для обеспечения стабильной работы; мониторинг, поддержка и оптимизация механизмов бэкапирования, проверки целостности данных; обеспечение стабильно работы под высокой нагрузкой; настройка мониторингов и алертинга.
— Управление оборудованием и инфраструктурой;
— Взаимодействие с продуктовой и инженерной командами по вопросам проектирования и оптимизации структур данных, выявления инцидентов и их оперативного устранения;
— Автоматизация развертываний, резервного копирования, переноса данных и других рутинных операций.

Требования
— Глубокие знания PostgreSQL и ClickHouse, включая: опыт работы с высоконагруженными базами данных; установка, настройка, администрирование и миграция серверов БД; опыт работы с pgbouncer, HAProxy; оптимизация производительности и конфигурации для высоконагруженных сред; настройка аутентификации и авторизации.
— Понимание различных подходов, архитектур и решений для построения отказоустойчивых и высокопроизводительных кластеров ClickHouse: опыт интеграции ClickHouse по обмену данными с Kafka; опыт конфигурации настройки кластеров Kafka.
— Опыт резервного копирования и восстановления данных;
— Проектирование и настройка мониторинга баз данных и инфраструктуры: опыт работы с Grafana, Prometheus, OpenSearch;
— Опыт работы с системами управления конфигурациями, например Ansible;
— Написание скриптов (Bash, Python или других языков) для автоматизации рутинных задач;
— Опыт работы с системами контроля версий (например, Git): понимание процессов CI/CD.

Что компания предлагает
— Индивидуальный подход к области ответственности и пулу задач, работа с крупным брендом рынка;
— Уютный офис в центре Тбилиси;
— Гибкий график (начало рабочего дня с 9 до 12);
— Компенсация спорта и медицинских расходов;
— Предоставляем необходимую для работу технику;
— Помощь в релокации.

Контакт для связи: @kpulikova

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/128

Стек технологий: #ClickHouse #PostgreSQL #Kafka #Grafana #Prometheus #OpenSearch #Ansible #Python #Bash #Git #pgbouncer #HAProxy