Data Engineer
Компария: 7RedLines
Зарплата: 120 000 – 140 000 ₽ на руки
Тип занятости: #Удаленка
Локация: #Россия
Позиция: #Middle
Компания 7RedLines занимается разработкой и поддержкой решений для работы с данными. Мы ищем Data Engineer для участия в проектировании и развитии хранилищ данных, а также автоматизации ETL-процессов.
Обязанности
— Разработка хранилищ данных и витрин данных
— Проектирование, разработка и поддержка ETL-процессов
— Контроль качества загружаемых данных (ручные и автоматические тесты DQ)
— Интеграция новых источников
— Работа в команде с системными аналитиками
Требования
— Опыт работы 2–3 года в области Data Engineering
— Знание SQL и Python
— Опыт работы с СУБД: PostgreSQL, Clickhouse, Greenplum, MS SQL Server
— Опыт использования ETL-инструментов: Apache NiFi, Apache Airflow
— (Будет плюсом) Опыт работы с Hadoop, PySpark, Apache Kafka, Arenadata
Что компания предлагает
— Официальное оформление по ТК РФ
— Полная занятость с графиком 5/2
— Удаленный формат работы
— Возможность работать с современными технологиями
Контакт для связи: @HR7RedLines
Стек технологий: #SQL #Python #PostgreSQL #Clickhouse #Greenplum #MSQL #ApacheNiFi #ApacheAirflow #Hadoop #PySpark #ApacheKafka #Arenadata
Компария: 7RedLines
Зарплата: 120 000 – 140 000 ₽ на руки
Тип занятости: #Удаленка
Локация: #Россия
Позиция: #Middle
Компания 7RedLines занимается разработкой и поддержкой решений для работы с данными. Мы ищем Data Engineer для участия в проектировании и развитии хранилищ данных, а также автоматизации ETL-процессов.
Обязанности
— Разработка хранилищ данных и витрин данных
— Проектирование, разработка и поддержка ETL-процессов
— Контроль качества загружаемых данных (ручные и автоматические тесты DQ)
— Интеграция новых источников
— Работа в команде с системными аналитиками
Требования
— Опыт работы 2–3 года в области Data Engineering
— Знание SQL и Python
— Опыт работы с СУБД: PostgreSQL, Clickhouse, Greenplum, MS SQL Server
— Опыт использования ETL-инструментов: Apache NiFi, Apache Airflow
— (Будет плюсом) Опыт работы с Hadoop, PySpark, Apache Kafka, Arenadata
Что компания предлагает
— Официальное оформление по ТК РФ
— Полная занятость с графиком 5/2
— Удаленный формат работы
— Возможность работать с современными технологиями
Контакт для связи: @HR7RedLines
Стек технологий: #SQL #Python #PostgreSQL #Clickhouse #Greenplum #MSQL #ApacheNiFi #ApacheAirflow #Hadoop #PySpark #ApacheKafka #Arenadata
Data Engineer (Middle+/Senior)
Компания: IFellow
Зарплата: от 350 000
Тип занятости: #Гибрид
Локация: #Москва #Санкт-Петербург
Позиция: #Middle #Senior
Обязанности
— Участвовать в проектировании архитектуры фреймворка
— Разрабатывать новый/дорабатывать текущий функционал и тестировать его
— Взаимодействовать с коллегами: как с разработчиками, так и с DevOPS-инженерами
— Оптимизировать и масштабировать системы
Требования
— Уверенное знание SQL
— Уверенное знание языков Scala/Java, Bash
— Опыт работы с базами данных (SQL/NoSQL)
— Понимание концепции хранилищ данных (DWH, Data Lake): слои, витрины, агрегаты, Data Quality, полная-инкрементальная загрузки
— Знание типов медленно меняющихся измерений
— Знание основных компонент инфраструктуры Hadoop, понимание принципов их работы (HDFS, YARN, HIVE, Oozie)
— Уверенное знание архитектуры, принципов работы и API инструментов Apache Spark, Apache Flink, Apache Kafka, Apache Iceberg, Trino, Velox
— Понимание основных принципов RESTful API
— Хорошее понимание архитектуры микросервисов
Дополнительные требования:
— Навыки программирования на Python
— Опыт работы с ClickHouse
— Опыт работы с S3 и Kubernetes
— Опыт менторства
Что компания предлагает
— Гибридный формат работы (3 дня офис, 2 дня дома)
Контакт для связи: @varvara_bash
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/13
Стек технологий: #Java #Scala #SQL #DWH #DataLake #Hadoop #RESTfulAPI #ApacheSpark #ApacheFlink #ApacheKafka #ApacheIceberg #Trino #Velox #Git #Python #ClickHouse #S3 #Kubernetes
#data #вакансия #job #vacancy #москва #спб
Компания: IFellow
Зарплата: от 350 000
Тип занятости: #Гибрид
Локация: #Москва #Санкт-Петербург
Позиция: #Middle #Senior
Обязанности
— Участвовать в проектировании архитектуры фреймворка
— Разрабатывать новый/дорабатывать текущий функционал и тестировать его
— Взаимодействовать с коллегами: как с разработчиками, так и с DevOPS-инженерами
— Оптимизировать и масштабировать системы
Требования
— Уверенное знание SQL
— Уверенное знание языков Scala/Java, Bash
— Опыт работы с базами данных (SQL/NoSQL)
— Понимание концепции хранилищ данных (DWH, Data Lake): слои, витрины, агрегаты, Data Quality, полная-инкрементальная загрузки
— Знание типов медленно меняющихся измерений
— Знание основных компонент инфраструктуры Hadoop, понимание принципов их работы (HDFS, YARN, HIVE, Oozie)
— Уверенное знание архитектуры, принципов работы и API инструментов Apache Spark, Apache Flink, Apache Kafka, Apache Iceberg, Trino, Velox
— Понимание основных принципов RESTful API
— Хорошее понимание архитектуры микросервисов
Дополнительные требования:
— Навыки программирования на Python
— Опыт работы с ClickHouse
— Опыт работы с S3 и Kubernetes
— Опыт менторства
Что компания предлагает
— Гибридный формат работы (3 дня офис, 2 дня дома)
Контакт для связи: @varvara_bash
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/13
Стек технологий: #Java #Scala #SQL #DWH #DataLake #Hadoop #RESTfulAPI #ApacheSpark #ApacheFlink #ApacheKafka #ApacheIceberg #Trino #Velox #Git #Python #ClickHouse #S3 #Kubernetes
#data #вакансия #job #vacancy #москва #спб
Data Engineer (Инженер данных)
Компания: Ланит
Зарплата: по договоренности
Тип занятости: #Удаленка
Локация: #Belarus #Беларусь #РБ
Позиция: #Middle #Middle+ #Senior
💻Добрый день, коллеги! Мы в поисках Data Engineer (Инженера данных), проект банка, компания Ланит.
Обязанности
— Разработка процессов загрузки данных (ETL)
— Работа с современными системами хранения данных (MPP и NoSQL)
— Оптимизация запросов и обработки данных
— Взаимодействие с командой проекта
Требования
— Опыт работы инженером или разработчиком от 3 лет
— Знание одного из языков: Python или Java
— Понимание основ ООП, теории алгоритмов и структур данных
— Уверенное владение SQL
— Опыт написания ETL-процессов
— Знание современных систем хранения данных (MPP и NoSQL)
— Базовые знания Pandas, Numpy и Groovy (будет плюсом)
— Знание Apache Kafka (будет плюсом)
Что компания предлагает
— Удаленный формат работы
— Интересный проект в банковской сфере
— Возможность профессионального роста
— Работу в стабильной компании
Контакт для связи: @marynachka
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/43
Стек технологий: #SQL #Java #Groovy #Python #ETL #pandas #numpy #ApacheKafka
Статус: #вакансия #job #vacancy #работа
Компания: Ланит
Зарплата: по договоренности
Тип занятости: #Удаленка
Локация: #Belarus #Беларусь #РБ
Позиция: #Middle #Middle+ #Senior
💻Добрый день, коллеги! Мы в поисках Data Engineer (Инженера данных), проект банка, компания Ланит.
Обязанности
— Разработка процессов загрузки данных (ETL)
— Работа с современными системами хранения данных (MPP и NoSQL)
— Оптимизация запросов и обработки данных
— Взаимодействие с командой проекта
Требования
— Опыт работы инженером или разработчиком от 3 лет
— Знание одного из языков: Python или Java
— Понимание основ ООП, теории алгоритмов и структур данных
— Уверенное владение SQL
— Опыт написания ETL-процессов
— Знание современных систем хранения данных (MPP и NoSQL)
— Базовые знания Pandas, Numpy и Groovy (будет плюсом)
— Знание Apache Kafka (будет плюсом)
Что компания предлагает
— Удаленный формат работы
— Интересный проект в банковской сфере
— Возможность профессионального роста
— Работу в стабильной компании
Контакт для связи: @marynachka
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.me/it_match_sql/43
Стек технологий: #SQL #Java #Groovy #Python #ETL #pandas #numpy #ApacheKafka
Статус: #вакансия #job #vacancy #работа