Data Engineer
Компария: 7RedLines
Зарплата: 120 000 – 140 000 ₽ на руки
Тип занятости: #Удаленка
Локация: #Россия
Позиция: #Middle
Компания 7RedLines занимается разработкой и поддержкой решений для работы с данными. Мы ищем Data Engineer для участия в проектировании и развитии хранилищ данных, а также автоматизации ETL-процессов.
Обязанности
— Разработка хранилищ данных и витрин данных
— Проектирование, разработка и поддержка ETL-процессов
— Контроль качества загружаемых данных (ручные и автоматические тесты DQ)
— Интеграция новых источников
— Работа в команде с системными аналитиками
Требования
— Опыт работы 2–3 года в области Data Engineering
— Знание SQL и Python
— Опыт работы с СУБД: PostgreSQL, Clickhouse, Greenplum, MS SQL Server
— Опыт использования ETL-инструментов: Apache NiFi, Apache Airflow
— (Будет плюсом) Опыт работы с Hadoop, PySpark, Apache Kafka, Arenadata
Что компания предлагает
— Официальное оформление по ТК РФ
— Полная занятость с графиком 5/2
— Удаленный формат работы
— Возможность работать с современными технологиями
Контакт для связи: @HR7RedLines
Стек технологий: #SQL #Python #PostgreSQL #Clickhouse #Greenplum #MSQL #ApacheNiFi #ApacheAirflow #Hadoop #PySpark #ApacheKafka #Arenadata
Компария: 7RedLines
Зарплата: 120 000 – 140 000 ₽ на руки
Тип занятости: #Удаленка
Локация: #Россия
Позиция: #Middle
Компания 7RedLines занимается разработкой и поддержкой решений для работы с данными. Мы ищем Data Engineer для участия в проектировании и развитии хранилищ данных, а также автоматизации ETL-процессов.
Обязанности
— Разработка хранилищ данных и витрин данных
— Проектирование, разработка и поддержка ETL-процессов
— Контроль качества загружаемых данных (ручные и автоматические тесты DQ)
— Интеграция новых источников
— Работа в команде с системными аналитиками
Требования
— Опыт работы 2–3 года в области Data Engineering
— Знание SQL и Python
— Опыт работы с СУБД: PostgreSQL, Clickhouse, Greenplum, MS SQL Server
— Опыт использования ETL-инструментов: Apache NiFi, Apache Airflow
— (Будет плюсом) Опыт работы с Hadoop, PySpark, Apache Kafka, Arenadata
Что компания предлагает
— Официальное оформление по ТК РФ
— Полная занятость с графиком 5/2
— Удаленный формат работы
— Возможность работать с современными технологиями
Контакт для связи: @HR7RedLines
Стек технологий: #SQL #Python #PostgreSQL #Clickhouse #Greenplum #MSQL #ApacheNiFi #ApacheAirflow #Hadoop #PySpark #ApacheKafka #Arenadata
Senior Data Engineer
Компания: Enfint
Зарплата: по договоренности
Тип занятости: #Офис
Локация: #Dubai
Позиция: #Senior
Enfint is seeking a Senior Data Engineer to join their team in Dubai. The company offers an opportunity to work on cutting-edge technologies in a highly innovative environment.
Обязанности
— Building and maintaining data pipelines in production
— Working with structured, semi-structured, and unstructured data
— Developing ML pipelines for streaming/batch workflows
— Performing exploratory data analysis (EDA) and feature engineering
— Ensuring data quality and implementing imputation techniques
— Collaborating with the team on CI/CD and automation processes
Требования
— 5+ years of commercial experience in a data-driven leadership role
— 2+ years of hands-on experience with data pipelines and ML workflows
— Strong proficiency in Python and clean, maintainable code
— Expertise in Spark (PySpark), SQL/No-SQL DBMS, and Git
— Knowledge of testing frameworks and data validation
— Experience with Apache Airflow/Jenkins for scheduling
— Strong command of English (written and verbal)
Что компания предлагает
— Opportunity to work on cutting-edge technologies
— Dynamic and friendly work environment
— Relocation assistance (if needed)
— Comfortable office in a convenient location (Dubai)
— Medical insurance
Контакт для связи: @Liz_Kostina или ekostina@enfint.ai
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/22
Стек технологий: #Python #Spark #PySpark #Jupyter #SQL #NoSQL #Git #ApacheAirflow #Jenkins #EDA #MachineLearning
Компания: Enfint
Зарплата: по договоренности
Тип занятости: #Офис
Локация: #Dubai
Позиция: #Senior
Enfint is seeking a Senior Data Engineer to join their team in Dubai. The company offers an opportunity to work on cutting-edge technologies in a highly innovative environment.
Обязанности
— Building and maintaining data pipelines in production
— Working with structured, semi-structured, and unstructured data
— Developing ML pipelines for streaming/batch workflows
— Performing exploratory data analysis (EDA) and feature engineering
— Ensuring data quality and implementing imputation techniques
— Collaborating with the team on CI/CD and automation processes
Требования
— 5+ years of commercial experience in a data-driven leadership role
— 2+ years of hands-on experience with data pipelines and ML workflows
— Strong proficiency in Python and clean, maintainable code
— Expertise in Spark (PySpark), SQL/No-SQL DBMS, and Git
— Knowledge of testing frameworks and data validation
— Experience with Apache Airflow/Jenkins for scheduling
— Strong command of English (written and verbal)
Что компания предлагает
— Opportunity to work on cutting-edge technologies
— Dynamic and friendly work environment
— Relocation assistance (if needed)
— Comfortable office in a convenient location (Dubai)
— Medical insurance
Контакт для связи: @Liz_Kostina или ekostina@enfint.ai
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/22
Стек технологий: #Python #Spark #PySpark #Jupyter #SQL #NoSQL #Git #ApacheAirflow #Jenkins #EDA #MachineLearning
Middle+/ Senior Data Engineer
Компания: Ptolemay
Зарплата: $3 000–$4 000
Тип занятости: #Удаленка #fulltime
Локация: #любая
Позиция: #Middle #Senior
Ptolemay - IT аутсорс- и аутстафф-компания полного цикла по разработке мобильных и веб-приложений для бизнеса и стартапов. Ищем Middle+/ Senior Data Engineer с уверенным опытом в финтехе и глубокой экспертизой в построении масштабируемых пайплайнов на аутстафф-проект.
Обязанности
— Мигрировать процессы для аналитики и отчетности.
— Настроить регламентную загрузку данных.
— Работать с общебанковской data-платформой (Data Lake, DWH).
— Разрабатывать end-to-end пайплайны для сбора и обработки данных.
— Выбирать оптимальные форматы хранения и архитектуру интеграции.
— Анализировать и оптимизировать производительность пайплайнов.
— Развивать архитектуру данных и внедрять новые технологии.
— Управлять обновлениями и уязвимостями, восстанавливать сервисы, обрабатывать инциденты.
Требования
— 5+ лет опыта в роли Data Engineer (опыт во время учебы не засчитывается).
— Уверенное знание SQL, включая оптимизацию сложных запросов.
— Понимание архитектуры классических и MPP-СУБД.
— Опыт разработки на Python и/или Java, Scala.
— Опыт работы с Apache Airflow.
— Опыт работы с dbt.
— Опыт с Hadoop-стеком: HDFS, YARN, Hive, Sqoop.
— Владение Apache Spark (Spark SQL, DataFrames).
— Опыт работы в финтехе, знание банковской предметной области.
Что компания предлагает
— Удалённая работа.
— Фулл-тайм.
— Гибкий график.
— Аутстафф-система.
— Долгосрочный проект (от 6 месяцев).
— Зарплата: $3 000–$4 000 по итогам собеседования.
Контакт для связи: @rinapina_ptolemay
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/27
Стек технологий: #SQL #Python #Java #Scala #ApacheAirflow #dbt #Hadoop #HDFS #YARN #Hive #Sqoop #ApacheSpark #Kafka #Trino #Kubernetes #Helm
Компания: Ptolemay
Зарплата: $3 000–$4 000
Тип занятости: #Удаленка #fulltime
Локация: #любая
Позиция: #Middle #Senior
Ptolemay - IT аутсорс- и аутстафф-компания полного цикла по разработке мобильных и веб-приложений для бизнеса и стартапов. Ищем Middle+/ Senior Data Engineer с уверенным опытом в финтехе и глубокой экспертизой в построении масштабируемых пайплайнов на аутстафф-проект.
Обязанности
— Мигрировать процессы для аналитики и отчетности.
— Настроить регламентную загрузку данных.
— Работать с общебанковской data-платформой (Data Lake, DWH).
— Разрабатывать end-to-end пайплайны для сбора и обработки данных.
— Выбирать оптимальные форматы хранения и архитектуру интеграции.
— Анализировать и оптимизировать производительность пайплайнов.
— Развивать архитектуру данных и внедрять новые технологии.
— Управлять обновлениями и уязвимостями, восстанавливать сервисы, обрабатывать инциденты.
Требования
— 5+ лет опыта в роли Data Engineer (опыт во время учебы не засчитывается).
— Уверенное знание SQL, включая оптимизацию сложных запросов.
— Понимание архитектуры классических и MPP-СУБД.
— Опыт разработки на Python и/или Java, Scala.
— Опыт работы с Apache Airflow.
— Опыт работы с dbt.
— Опыт с Hadoop-стеком: HDFS, YARN, Hive, Sqoop.
— Владение Apache Spark (Spark SQL, DataFrames).
— Опыт работы в финтехе, знание банковской предметной области.
Что компания предлагает
— Удалённая работа.
— Фулл-тайм.
— Гибкий график.
— Аутстафф-система.
— Долгосрочный проект (от 6 месяцев).
— Зарплата: $3 000–$4 000 по итогам собеседования.
Контакт для связи: @rinapina_ptolemay
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/27
Стек технологий: #SQL #Python #Java #Scala #ApacheAirflow #dbt #Hadoop #HDFS #YARN #Hive #Sqoop #ApacheSpark #Kafka #Trino #Kubernetes #Helm
🥴1