Data Engineer/ Search Engineer
#вакансия #dataengineer #Elasticsearch #AWS
Location: Remote (outside of Russia)
Work format: Remote, Full-time
Salary range: $25-35 per hour
Company name: CloudSquad
Contacts: @natalia_kurland
Our customer is generative AI company headquartered in San Francisco provides a comprehensive AI platform tailored for enterprise use. In late 2023, the company secured $100 million in Series B funding from leading institutional investors, including a prominent growth equity firm and several other major venture capital groups.
We are looking for an experienced Elasticsearch Engineer to help us scale and optimize search infrastructure across multi- and single-tenant environments. You will be responsible for improving performance isolation, managing large-scale clusters (terabytes of data per tenant), and designing a scalable, resilient Elasticsearch/OpenSearch architecture to meet enterprise requirements.
Hiring specifics:
Candidates must be located outside of Russia
Preferred candidates in or near GMT+1 time zones
Minimum 1 years hands-on experience with Elasticsearch required
Minimum 1 years experience with major cloud platforms (AWS/GCP) required
English proficiency: Upper Intermediate (B2+) or higher required
Key Responsibilities:
Optimize and scale multi-tenant Elasticsearch/OpenSearch deployments
Design and implement sharding strategies for performance isolation
Implement backup, recovery, and cross-cluster replication strategies
Collaborate with platform and application teams on data ingestion and retrieval patterns, automated provisioning
Requirements:
3–5+ years managing Elasticsearch/OpenSearch in production at scale
Deep knowledge of cluster design, indexing strategies, and search performance tuning
Experience with AWS OpenSearch, Elasticsearch Service, and/or Elastic Cloud
Familiarity with Kubernetes-based deployments is a plus
Contacts: @natalia_kurland
#вакансия #dataengineer #Elasticsearch #AWS
Location: Remote (outside of Russia)
Work format: Remote, Full-time
Salary range: $25-35 per hour
Company name: CloudSquad
Contacts: @natalia_kurland
Our customer is generative AI company headquartered in San Francisco provides a comprehensive AI platform tailored for enterprise use. In late 2023, the company secured $100 million in Series B funding from leading institutional investors, including a prominent growth equity firm and several other major venture capital groups.
We are looking for an experienced Elasticsearch Engineer to help us scale and optimize search infrastructure across multi- and single-tenant environments. You will be responsible for improving performance isolation, managing large-scale clusters (terabytes of data per tenant), and designing a scalable, resilient Elasticsearch/OpenSearch architecture to meet enterprise requirements.
Hiring specifics:
Candidates must be located outside of Russia
Preferred candidates in or near GMT+1 time zones
Minimum 1 years hands-on experience with Elasticsearch required
Minimum 1 years experience with major cloud platforms (AWS/GCP) required
English proficiency: Upper Intermediate (B2+) or higher required
Key Responsibilities:
Optimize and scale multi-tenant Elasticsearch/OpenSearch deployments
Design and implement sharding strategies for performance isolation
Implement backup, recovery, and cross-cluster replication strategies
Collaborate with platform and application teams on data ingestion and retrieval patterns, automated provisioning
Requirements:
3–5+ years managing Elasticsearch/OpenSearch in production at scale
Deep knowledge of cluster design, indexing strategies, and search performance tuning
Experience with AWS OpenSearch, Elasticsearch Service, and/or Elastic Cloud
Familiarity with Kubernetes-based deployments is a plus
Contacts: @natalia_kurland
❤1
📌 Netbell.ru открывает набор data engineer+analytics от middle и выше
Проекты: финтех, телеком, ритейл, e-com
Стек: Hadoop, GreenPlum, Airflow, Clickhouse, Spark и Hive
Формат: Remote по РФ или worldwide, в зависимости от проекта
Оформление: ТК, ИП, CМЗ, обсуждаемо
Вилка: от 180-220к + в зависимости от грейда
CV присылайте в лс @annasoma
Проекты: финтех, телеком, ритейл, e-com
Стек: Hadoop, GreenPlum, Airflow, Clickhouse, Spark и Hive
Формат: Remote по РФ или worldwide, в зависимости от проекта
Оформление: ТК, ИП, CМЗ, обсуждаемо
Вилка: от 180-220к + в зависимости от грейда
CV присылайте в лс @annasoma
😁8👎1
Привет! Я ищу в свою команду специалистов на следующие позиции:
Analytics Engineer
Фокус работы: Создание набора витрин данных, полностью соответствующего бизнес-глоссарию компании. Это включает в себя преобразование сырых данных из аналитического хранилища в каскад витрин.
Пользователи: Дата-аналитики, продуктовые аналитики, BI-аналитики.
Основной инструмент: DBT.
TeamLead Data Platform
Кого ищу: Тимлида для команды Data-инженеров.
Цель: Построение надёжного ETL.
Ключевые задачи: Внедрение метрик качества, SLA и т.п., с основным акцентом на актуальность, полноту и достоверность данных.
Стек: Airflow + ClickHouse.
Если вы видите себя на одной из этих позиций и готовы попробовать свои силы в betting индустрии, напишите мне в Telegram: @olegsakhno
Analytics Engineer
Фокус работы: Создание набора витрин данных, полностью соответствующего бизнес-глоссарию компании. Это включает в себя преобразование сырых данных из аналитического хранилища в каскад витрин.
Пользователи: Дата-аналитики, продуктовые аналитики, BI-аналитики.
Основной инструмент: DBT.
TeamLead Data Platform
Кого ищу: Тимлида для команды Data-инженеров.
Цель: Построение надёжного ETL.
Ключевые задачи: Внедрение метрик качества, SLA и т.п., с основным акцентом на актуальность, полноту и достоверность данных.
Стек: Airflow + ClickHouse.
Если вы видите себя на одной из этих позиций и готовы попробовать свои силы в betting индустрии, напишите мне в Telegram: @olegsakhno
📌 Вакансия: Junior Data Engineer
Компания: ЗАО «Альфа Телеком»
📍 Офис находится в Бишкеке, рассматриваем кандидатов, находящихся в городе — работа офлайн.
📌 Требования к кандидату:
- Высшее или средне-специальное техническое/математическое образование
- Опыт работы в сфере ИТ (желателен опыт в телекоммуникационной или финансовой отрасли)
- Уверенное владение SQL и Python
- Практический опыт работы с СУБД: Oracle, PostgreSQL, MS SQL
- Навыки разработки и поддержки ETL/ELT-процессов, работы с системами оркестрации
- Опыт интеграции данных из разнородных источников (файлы, базы данных, API)
- Базовые знания принципов построения корпоративных хранилищ данных (DWH)
- Желателен опыт работы с Apache Spark
📌 Зоны ответственности:
- Разработка и поддержка процессов извлечения, трансформации и загрузки (ETL/ELT) данных в корпоративное хранилище
- Интеграция данных из различных источников: файловые системы, базы данных, API, системы DPI и ИБС
- Написание и оптимизация SQL-запросов
- Работа с инструментами оркестрации и планирования: Apache Airflow, DBT
- Разработка и сопровождение data pipeline’ов и витрин данных
- Участие в проектировании архитектуры данных и разработке моделей
- Поддержка документации: описание процессов, структур данных, метаданных
- Оптимизация производительности корпоративного хранилища и распределённых систем (партиционирование, индексирование, настройка ресурсов)
- Участие в обеспечении качества данных и подготовке рекомендаций по совершенствованию интеграционных процессов
И самое главное:
Если ты не подходишь на 100% под требования — всё равно подавай заявку! Возможно, это именно та возможность, которая тебе сейчас нужна. Плохих собеседований не бывает, бывает полезный опыт.
📩 Резюме можно присылать сразу в телеграм: @Datkaaiym_megacom
Компания: ЗАО «Альфа Телеком»
📍 Офис находится в Бишкеке, рассматриваем кандидатов, находящихся в городе — работа офлайн.
📌 Требования к кандидату:
- Высшее или средне-специальное техническое/математическое образование
- Опыт работы в сфере ИТ (желателен опыт в телекоммуникационной или финансовой отрасли)
- Уверенное владение SQL и Python
- Практический опыт работы с СУБД: Oracle, PostgreSQL, MS SQL
- Навыки разработки и поддержки ETL/ELT-процессов, работы с системами оркестрации
- Опыт интеграции данных из разнородных источников (файлы, базы данных, API)
- Базовые знания принципов построения корпоративных хранилищ данных (DWH)
- Желателен опыт работы с Apache Spark
📌 Зоны ответственности:
- Разработка и поддержка процессов извлечения, трансформации и загрузки (ETL/ELT) данных в корпоративное хранилище
- Интеграция данных из различных источников: файловые системы, базы данных, API, системы DPI и ИБС
- Написание и оптимизация SQL-запросов
- Работа с инструментами оркестрации и планирования: Apache Airflow, DBT
- Разработка и сопровождение data pipeline’ов и витрин данных
- Участие в проектировании архитектуры данных и разработке моделей
- Поддержка документации: описание процессов, структур данных, метаданных
- Оптимизация производительности корпоративного хранилища и распределённых систем (партиционирование, индексирование, настройка ресурсов)
- Участие в обеспечении качества данных и подготовке рекомендаций по совершенствованию интеграционных процессов
И самое главное:
Если ты не подходишь на 100% под требования — всё равно подавай заявку! Возможно, это именно та возможность, которая тебе сейчас нужна. Плохих собеседований не бывает, бывает полезный опыт.
📩 Резюме можно присылать сразу в телеграм: @Datkaaiym_megacom
❤2👎1
#вакансия #vacancy #job #middle+ #Dataинженер
📣Аутсорсинговая компания SWS ищет Middle+ Data инженера
Тип занятости:фулл-тайм
Формат работы:удаленно
ЗП: До 300.000/мес.
📍Локация: РФ
На длительный срок
🧰Требования:
- Наличие профильного образования;
- Практический опыт работы с СУБД Oracle, MS SQL и PostgreSQL;
- Владение инструментами бизнес-аналитики, включая работу с Pentaho;
- Разработка и настройка процессов ETL;
- Проведение анализа и обратного проектирования структур баз данных;
- Приветствуется опыт взаимодействия с системой "Смартакс";
- Глубокое знание инструментов и технологий: PostgreSQL, Oracle, Pentaho;
- Способность эффективно обрабатывать и трансформировать различные типы данных;
- Навыки мониторинга и проверки целостности данных.
- Желателен опыт в сфере страхового бизнеса.
🧰Обязанности:
1. Анализ и изучение существующей базы данных Oracle:
- Осуществить детальное исследование структуры текущей базы данных;
- Изучить содержание таблиц и связей внутри базы данных методом реверс-инжиниринга.
2. Разработка и внедрение ETL-процессов:
- Проверить качество исходных данных путем анализа множественных значений;
- Создать механизмы преобразования данных;
- Организовать мониторинг данных («ушло-пришло», контроль соответствия бизнес-логике, проверка данных);
- Проектировать и реализовывать конвейеры обработки данных (ETL), включающие изменение форматов данных и их передачу.
3. Импорт справочной информации и данных:
- Перенести необходимые справочники в новую систему;
- Импортировать выбранные столбцы данных в платформу "Смартакс";
- Проанализировать структуру данных и способы передачи данных между разными системами.
4. Контроль и верификация результатов:
- Провести сверку данных после завершения миграции;
- Поддерживать постоянный мониторинг состояния и качества данных на каждом этапе переработки.
Описание проекта и команды
Страховая компания.
👥О проекте:
Перенос данных из текущей базы данных Oracle в целевую базу PostgreSQL с использованием инструментов ETL, таких как Pentaho.
📩 Присылай отклик 👉 @Nadzeya_Yankovich или на почту ✉️ yankovichnadezhda552@gmail.com
📣Аутсорсинговая компания SWS ищет Middle+ Data инженера
Тип занятости:фулл-тайм
Формат работы:удаленно
ЗП: До 300.000/мес.
📍Локация: РФ
На длительный срок
🧰Требования:
- Наличие профильного образования;
- Практический опыт работы с СУБД Oracle, MS SQL и PostgreSQL;
- Владение инструментами бизнес-аналитики, включая работу с Pentaho;
- Разработка и настройка процессов ETL;
- Проведение анализа и обратного проектирования структур баз данных;
- Приветствуется опыт взаимодействия с системой "Смартакс";
- Глубокое знание инструментов и технологий: PostgreSQL, Oracle, Pentaho;
- Способность эффективно обрабатывать и трансформировать различные типы данных;
- Навыки мониторинга и проверки целостности данных.
- Желателен опыт в сфере страхового бизнеса.
🧰Обязанности:
1. Анализ и изучение существующей базы данных Oracle:
- Осуществить детальное исследование структуры текущей базы данных;
- Изучить содержание таблиц и связей внутри базы данных методом реверс-инжиниринга.
2. Разработка и внедрение ETL-процессов:
- Проверить качество исходных данных путем анализа множественных значений;
- Создать механизмы преобразования данных;
- Организовать мониторинг данных («ушло-пришло», контроль соответствия бизнес-логике, проверка данных);
- Проектировать и реализовывать конвейеры обработки данных (ETL), включающие изменение форматов данных и их передачу.
3. Импорт справочной информации и данных:
- Перенести необходимые справочники в новую систему;
- Импортировать выбранные столбцы данных в платформу "Смартакс";
- Проанализировать структуру данных и способы передачи данных между разными системами.
4. Контроль и верификация результатов:
- Провести сверку данных после завершения миграции;
- Поддерживать постоянный мониторинг состояния и качества данных на каждом этапе переработки.
Описание проекта и команды
Страховая компания.
👥О проекте:
Перенос данных из текущей базы данных Oracle в целевую базу PostgreSQL с использованием инструментов ETL, таких как Pentaho.
📩 Присылай отклик 👉 @Nadzeya_Yankovich или на почту ✉️ yankovichnadezhda552@gmail.com
❤1😁1
Head of Data Engineering
Exadel, Грузия.
Exadel is seeking a visionary and hands-on Head of Data Engineering to lead, build, and scale our global Data Engineering capability as a core pillar of our Data, Analytics, and AI consulting strategy. This role is responsible for defining the technical vision, solution architecture, delivery frameworks, and reusable engineering assets that underpin high-value data transformation for Exadel and its clients.
LinkedIn
Exadel, Грузия.
Exadel is seeking a visionary and hands-on Head of Data Engineering to lead, build, and scale our global Data Engineering capability as a core pillar of our Data, Analytics, and AI consulting strategy. This role is responsible for defining the technical vision, solution architecture, delivery frameworks, and reusable engineering assets that underpin high-value data transformation for Exadel and its clients.
Linkedin
Exadel hiring Head of Data Engineering in Georgia | LinkedIn
Posted 6:38:43 AM. Exadel is seeking a visionary and hands-on Head of Data Engineering to lead, build, and scale our…See this and similar jobs on LinkedIn.
💼 Data Engineer / Bioinformatician (Бидар или Бордо, Франция / гибридный формат)
🏢 SOPHiA GENETICS
💰 Зарплата: не указана
🔗 Ссылка на вакансию
📌 Полная занятость, гибридный формат (3 дня в офисе)
Разработка ETL-инструментов, баз данных, обновление внутренних версий источников данных, поддержка variant annotation knowledge base. Работа с Python, SQL, PySpark, Bash, участие в научных и платформенных разработках
🏢 SOPHiA GENETICS
💰 Зарплата: не указана
🔗 Ссылка на вакансию
📌 Полная занятость, гибридный формат (3 дня в офисе)
Разработка ETL-инструментов, баз данных, обновление внутренних версий источников данных, поддержка variant annotation knowledge base. Работа с Python, SQL, PySpark, Bash, участие в научных и платформенных разработках
Data Engineer (Business Data Platform Team)
Cyprus
Hi there!
We are Semrush, a global Tech company developing our own product – a platform for digital marketers.
Are you ready to be a part of it? This is your chance! We’re hiring for Data Engineer (Business Data Platform Team).
https://careers.semrush.com/jobs/JR100224_Cyprus/?utm_source=Headline+job+board&utm_medium=getro.com
Cyprus
Hi there!
We are Semrush, a global Tech company developing our own product – a platform for digital marketers.
Are you ready to be a part of it? This is your chance! We’re hiring for Data Engineer (Business Data Platform Team).
https://careers.semrush.com/jobs/JR100224_Cyprus/?utm_source=Headline+job+board&utm_medium=getro.com
Semrush
Data Engineer (Business Data Platform Team)
New opportunities are waiting
29 сентября начнется новый поток программы Data Engineer от Newprolab
Программа полезна junior- и middle- дата-инженерам, аналитикам данных, бэкенд-разработчикам, техлидам и менеджерам, работающим с дата-командой
- теперь 10 недель (29 сентября - 5 декабря)
- 30 занятий с преподавателями в зуме
- 10 лаб с реальными данными и облачный кластер
- чат с участниками и поддержка координаторов
📌Что дает программа:
1) научитесь решать типичные задачи DE и реально станете дата-инженером на время программы
2) структурируете ваши знания и познакомитесь с новыми инструментами
3) поработаете с облачным кластером для решения лаб с реальными данными
4) видеозаписи и другие материалы программы останутся у вас навсегда
📌Преподаватели – практики из ведущих компаний, рассказывают о сложном простым языком и ответят на все ваши вопросы
📌Промокод DEFRIENDS даст скидку 15%!
[Посмотреть подробнее]
Программа полезна junior- и middle- дата-инженерам, аналитикам данных, бэкенд-разработчикам, техлидам и менеджерам, работающим с дата-командой
- теперь 10 недель (29 сентября - 5 декабря)
- 30 занятий с преподавателями в зуме
- 10 лаб с реальными данными и облачный кластер
- чат с участниками и поддержка координаторов
📌Что дает программа:
1) научитесь решать типичные задачи DE и реально станете дата-инженером на время программы
2) структурируете ваши знания и познакомитесь с новыми инструментами
3) поработаете с облачным кластером для решения лаб с реальными данными
4) видеозаписи и другие материалы программы останутся у вас навсегда
📌Преподаватели – практики из ведущих компаний, рассказывают о сложном простым языком и ответят на все ваши вопросы
📌Промокод DEFRIENDS даст скидку 15%!
[Посмотреть подробнее]
Data Analyst (Аналитик данных) в банк
📝 Описание вакансии
Мы ищем Data Analyst для работы в банке, который будет заниматься анализом данных (профилирование и gap-анализ), построением витрин данных и отчетов, а также проектированием и оптимизацией процессов обработки данных. Опыт работы в банковской сфере и с брокерскими услугами будет преимуществом.
💼 Обязанности
- Сбор и анализ требований от внутренних заказчиков для разработки витрин данных и отчетов.
- Gap анализ и профилирование.
- Построение и оптимизация витрин данных в хранилище (Greenplum, Hive).
- Разработка и поддержка отчетности в формате XBRL (включая 577П).
- Работа с историческими данными (SCD2).
- Использование инструментов Git для управления данными и версионностью.
- Участие в проектировании архитектуры данных.
- Взаимодействие с брокерскими продуктами.
🔍 Требования
- Опыт работы с хранилищами данных (Greenplum, Hive).
- Понимание принципов построения (звезда, снежинка, дата волт).
- Опыт проектирования витрин данных и отчетов.
- Знание процессов сбора требований от заказчиков.
- Опыт работы с SCD.
- Написание ТЗ (описание, S2T, SQL прототип).
⭐️ Будет плюсом
- Проектирование ядровых слоев.
- Опыт работы со Spark, Airflow.
- Опыт сборки требований и составление технического задания.
- Знание процессов брокерской и банковской деятельности.
- Уверенное владение dbt и Git.
- Понимание ELT и ETL.
📩 За подробностями обращаться к @borodinK
📝 Описание вакансии
Мы ищем Data Analyst для работы в банке, который будет заниматься анализом данных (профилирование и gap-анализ), построением витрин данных и отчетов, а также проектированием и оптимизацией процессов обработки данных. Опыт работы в банковской сфере и с брокерскими услугами будет преимуществом.
💼 Обязанности
- Сбор и анализ требований от внутренних заказчиков для разработки витрин данных и отчетов.
- Gap анализ и профилирование.
- Построение и оптимизация витрин данных в хранилище (Greenplum, Hive).
- Разработка и поддержка отчетности в формате XBRL (включая 577П).
- Работа с историческими данными (SCD2).
- Использование инструментов Git для управления данными и версионностью.
- Участие в проектировании архитектуры данных.
- Взаимодействие с брокерскими продуктами.
🔍 Требования
- Опыт работы с хранилищами данных (Greenplum, Hive).
- Понимание принципов построения (звезда, снежинка, дата волт).
- Опыт проектирования витрин данных и отчетов.
- Знание процессов сбора требований от заказчиков.
- Опыт работы с SCD.
- Написание ТЗ (описание, S2T, SQL прототип).
⭐️ Будет плюсом
- Проектирование ядровых слоев.
- Опыт работы со Spark, Airflow.
- Опыт сборки требований и составление технического задания.
- Знание процессов брокерской и банковской деятельности.
- Уверенное владение dbt и Git.
- Понимание ELT и ETL.
📩 За подробностями обращаться к @borodinK
❤1
🎬1700 откликов, 3 оффера и Disney – как Катя нашла работу в США
Катя – Data Engineer с российским бэкграундом.
В США она переехала на седьмом месяце беременности. Без знакомых. И, конечно же, без понятной стратегии.
Сначала искал работу муж – сплошные отказы. Потом она сама.
Сделала ставку на системный подход, подала 1700 заявок, прошла 9 интервью в день (!) и получила 3 оффера, один из них от Disney.
⏺️В интервью Катя рассказывает:
— как не сломаться под потоком отказов
— как совмещать карьеру и материнство
— как не сдаться, даже когда нет ни одного интервью
— и какой оффер она все таки выбрала
👉 Смотрите выпуск на YouTube канале Go Offer (агентcтво по трудоустройству в США)
Текст поста скопирован из Instagram страницы Go Offer
Катя – Data Engineer с российским бэкграундом.
В США она переехала на седьмом месяце беременности. Без знакомых. И, конечно же, без понятной стратегии.
Сначала искал работу муж – сплошные отказы. Потом она сама.
Сделала ставку на системный подход, подала 1700 заявок, прошла 9 интервью в день (!) и получила 3 оффера, один из них от Disney.
⏺️В интервью Катя рассказывает:
— как не сломаться под потоком отказов
— как совмещать карьеру и материнство
— как не сдаться, даже когда нет ни одного интервью
— и какой оффер она все таки выбрала
👉 Смотрите выпуск на YouTube канале Go Offer (агентcтво по трудоустройству в США)
Текст поста скопирован из Instagram страницы Go Offer
YouTube
3 оффера, Disney и 1700 откликов: как найти работу в США
В этом интервью Катя — выпускница сервиса Go Offer — рассказывает, как прошла путь от переезда в США на 7-м месяце беременности до оффера от Disney и ещё двух компаний.
Вы узнаете:
• Как адаптировать стратегию поиска под реальность
• Что делать, если приходят…
Вы узнаете:
• Как адаптировать стратегию поиска под реальность
• Что делать, если приходят…
❤3🔥3
Forwarded from Я – Дата Инженер
Друзья, наш ROADMAP для Data Engineer теперь доступен в виде сайта!
Это все тот же репозиторий на Github, но теперь в темной теме и с приятным интерфейсом.
Поскольку я все таки визуал, то мне было важно сделать именно стильный и приятный дизайн, чтобы он не отталкивал и его было приятно читать. Поэтому кликайте, читайте, делитесь со всеми ссылкой.
Кстати, Roadmap посещает ежедневно от 300 до 500 уникальных пользователей, поэтому я прикрутил в страницу счетчик Яндекс Метрики и теперь можно собирать данные по API о посещении Roadmap. И что еще круче – эта API будет доступна в нашем BootCamp уже сейчас. А это уже реальный коммерческий кейс. У нас в Сравни была аналогичная API между прочим.
И скоро мы сделаем стрим с Володей, где покажем, как идут дела на нашем BootCamp. Там уже куча DAG в Airflow, куча разного кода, коннекторов. И вот скоро появится еще одна API и витрина в Clickhouse!)
P.S. Еще если кто-то добавляет новый материал в репозиторий в ветку main, то все автоматически деплоится на сайт, поэтому пользуйтесь на здоровье)
P.S.S. Для тех, кто не знает – на Github можно хостить свои страницы(сайты) на основе Markdown файлов. И поскольку наш Roadmap весь написан на них, то это отлично работает. URL в будущем сделаю свою. Я уже выкупил домен.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6🔥1
В наш список менторов добавлен новый ментор Nik B.
Ссылка на страницу:
https://dataengineers.pro/mentors/nikb
Его Телеграм канал:
@analytics_engineer
Личка: @nikbeesti
Ссылка на страницу:
https://dataengineers.pro/mentors/nikb
Его Телеграм канал:
@analytics_engineer
Личка: @nikbeesti
❤5🔥4
Junior Data Engineer (Remote, Full-Time)
We’re looking for a Junior Data Engineer to join our remote team full-time. This is a hands-on role focused on structured data transformation, logic-based workflows, and quality assurance.
You’ll work closely with experienced engineers, applying and refining data processing rules to ensure accuracy and consistency across complex datasets.
This position offers a growth path into a QA engineering role, for candidates who demonstrate strong logic, reliability, and communication skills.
✅ Your Responsibilities
Apply transformation rules to structured datasets (e.g., JSON, CSV, XML)
Compare input and output data to ensure correct processing
Follow detailed, logic-driven instruction sets step-by-step
Identify inconsistencies or missing elements in the data
Communicate questions or ambiguities early to avoid errors
🧠 What We’re Looking For
Strong attention to detail and a systematic mindset
Comfortable with structured, repetitive logic-based tasks
Fast learner with the ability to quickly adapt to new tools and formats
Clear communicator, able to explain decisions and raise flags when needed
💡 Bonus Points For
Familiarity with Python or SQL
Experience with data annotation or transformation tools
Basic understanding of structured data formats (e.g., JSON, XML)
Upper-intermediate English or higher
📌 Position Details
⏱️ Full-time
🌍 100% remote
🧾 Contractor agreement (not an employment contract)
🚀 Long-term growth opportunity into a QA Engineer role
⚠️ Please note: Due to legal and operational constraints, we are unable to consider candidates currently residing in the Russian Federation or Belarus.
If you're looking to build a career in data or QA and enjoy working with structured, logic-driven tasks — we’d love to hear from you.
Please send your CV and a short message describing your interest in the role.
Contact: @TatianaGoro
We’re looking for a Junior Data Engineer to join our remote team full-time. This is a hands-on role focused on structured data transformation, logic-based workflows, and quality assurance.
You’ll work closely with experienced engineers, applying and refining data processing rules to ensure accuracy and consistency across complex datasets.
This position offers a growth path into a QA engineering role, for candidates who demonstrate strong logic, reliability, and communication skills.
✅ Your Responsibilities
Apply transformation rules to structured datasets (e.g., JSON, CSV, XML)
Compare input and output data to ensure correct processing
Follow detailed, logic-driven instruction sets step-by-step
Identify inconsistencies or missing elements in the data
Communicate questions or ambiguities early to avoid errors
🧠 What We’re Looking For
Strong attention to detail and a systematic mindset
Comfortable with structured, repetitive logic-based tasks
Fast learner with the ability to quickly adapt to new tools and formats
Clear communicator, able to explain decisions and raise flags when needed
💡 Bonus Points For
Familiarity with Python or SQL
Experience with data annotation or transformation tools
Basic understanding of structured data formats (e.g., JSON, XML)
Upper-intermediate English or higher
📌 Position Details
⏱️ Full-time
🌍 100% remote
🧾 Contractor agreement (not an employment contract)
🚀 Long-term growth opportunity into a QA Engineer role
⚠️ Please note: Due to legal and operational constraints, we are unable to consider candidates currently residing in the Russian Federation or Belarus.
If you're looking to build a career in data or QA and enjoy working with structured, logic-driven tasks — we’d love to hear from you.
Please send your CV and a short message describing your interest in the role.
Contact: @TatianaGoro
Data Engineer
Крупная финтех-компания (не РФ), пионер мобильного банкинга, ищет Data Engineer. Мы развиваем мультифункциональную платформу, которая объединяет финансовые, сервисные и бизнес-решения и которой пользуются более 20 млн человек.
Ваши задачи:
- Анализ требований к витринам данных, работая в тесной связке с Data Analysts и Data Scientists.
- Поиск и исследование источников данных для их последующей интеграции с Data Lake.
- Разработка ETL/ELT-процессов с использованием PySpark.
- Разработка оркестрации ETL-процессов в Airflow.
- Развитие инструментов для контроля и поддержания качества данных (Data Quality).
- Проектирование структуры хранилищ данных (DWH, Data Lake).
Требования:
- Отличные знания SQL для написания сложных и производительных запросов (CTE, оконные функции).
- Опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL.
- Знание Python для разработки ETL/ELT пайплайнов.
- Опыт работы со стеком Big Data: HiveQL Hadoop, Apache AirFlow, Apache Spark, Apache Flink, Airbyte.
- Понимание концепции Data Vault хранилищ данных (DWH, Data Lake).
- Опыт написания сервисов для взаимодействия с внешними источниками данных.
- Понимание принципов построения системных интеграций.
Мы предлагаем:
- Работу в офисе в Ташкенте или гибридный формат по договоренности.
- Конкурентную заработную плату
- Постоянное обучение и профессиональный рост.
- Фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
- Яркая корпоративная культура и кафетерий бенефитов.
Резюме присылать в Telegram: @spetrushkin
Крупная финтех-компания (не РФ), пионер мобильного банкинга, ищет Data Engineer. Мы развиваем мультифункциональную платформу, которая объединяет финансовые, сервисные и бизнес-решения и которой пользуются более 20 млн человек.
Ваши задачи:
- Анализ требований к витринам данных, работая в тесной связке с Data Analysts и Data Scientists.
- Поиск и исследование источников данных для их последующей интеграции с Data Lake.
- Разработка ETL/ELT-процессов с использованием PySpark.
- Разработка оркестрации ETL-процессов в Airflow.
- Развитие инструментов для контроля и поддержания качества данных (Data Quality).
- Проектирование структуры хранилищ данных (DWH, Data Lake).
Требования:
- Отличные знания SQL для написания сложных и производительных запросов (CTE, оконные функции).
- Опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL.
- Знание Python для разработки ETL/ELT пайплайнов.
- Опыт работы со стеком Big Data: HiveQL Hadoop, Apache AirFlow, Apache Spark, Apache Flink, Airbyte.
- Понимание концепции Data Vault хранилищ данных (DWH, Data Lake).
- Опыт написания сервисов для взаимодействия с внешними источниками данных.
- Понимание принципов построения системных интеграций.
Мы предлагаем:
- Работу в офисе в Ташкенте или гибридный формат по договоренности.
- Конкурентную заработную плату
- Постоянное обучение и профессиональный рост.
- Фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
- Яркая корпоративная культура и кафетерий бенефитов.
Резюме присылать в Telegram: @spetrushkin
🤯2
Народ, нужно ваше мнение.
Я делаю сайт на тему DE.
Проблема в том, что большинство доменов заняты, и я хочу сделать короткий домен.
Вопрос: если домен укоротить вот так например dataeng.com, будет ли понятно по "dataeng", что это сайт по инжинирингу данных?
Вы в теме и вам будет ок, но будет ли понятно для тех кто не в теме?
Ставьте 👎 если не поддерживаете идею писать eng
Я делаю сайт на тему DE.
Проблема в том, что большинство доменов заняты, и я хочу сделать короткий домен.
Вопрос: если домен укоротить вот так например dataeng.com, будет ли понятно по "dataeng", что это сайт по инжинирингу данных?
Вы в теме и вам будет ок, но будет ли понятно для тех кто не в теме?
Ставьте 👎 если не поддерживаете идею писать eng
👎57👍3
Data Engineer Intern (on-site)
MagnumGO, крупнейший в Казахстане онлайн-супермаркет и часть Kaspi.kz, приглашает стажеров в отдел аналитики и инжинирингу данных.
Куда мы ищем?
В команду инженерии данных, который занимается:
Построением надежных ETL/ELT процессов для работы с большими объемами данных.
Организацией потоков данных и их загрузкой в корпоративное хранилище.
Интеграцией данных из различных источников и их обработкой для последующего использования в аналитических системах.
Наш стек:
Основной язык: Python.
Работа с данными через SQL.
Локальная инфраструктура с хранилищем и озером данных.
Инструменты и технологии:
Debezium и Kafka для работы с потоками данных
Deltalake для управления данными в озере,
DBT для трансформаций и обеспечения качества данных,
Оркестрация процессов через Airflow,
Хранилище данных на базе ClickHouse, Postgres
Обработка данных с использованием Apache Spark
Управление метаданными через DataHub,
CI/CD процессы с использованием GitLab.
Ожидаем от кандидата:
Уверенные знания SQL: теория нормализации, опыт работы с реляционными базами данных.
Знания основ Python.
Понимание ETL-процессов и моделей данных.
Высшее образование в области IT, математики, статистики или в смежной области.
Будет плюсом:
Опыт работы с Python в проектах.
Знание принципов построения и оптимизации ETL/ELT.
Навыки работы с системами контроля версий (например, Git).
Резюме отправлять в Telegram: @imashinho
MagnumGO, крупнейший в Казахстане онлайн-супермаркет и часть Kaspi.kz, приглашает стажеров в отдел аналитики и инжинирингу данных.
Куда мы ищем?
В команду инженерии данных, который занимается:
Построением надежных ETL/ELT процессов для работы с большими объемами данных.
Организацией потоков данных и их загрузкой в корпоративное хранилище.
Интеграцией данных из различных источников и их обработкой для последующего использования в аналитических системах.
Наш стек:
Основной язык: Python.
Работа с данными через SQL.
Локальная инфраструктура с хранилищем и озером данных.
Инструменты и технологии:
Debezium и Kafka для работы с потоками данных
Deltalake для управления данными в озере,
DBT для трансформаций и обеспечения качества данных,
Оркестрация процессов через Airflow,
Хранилище данных на базе ClickHouse, Postgres
Обработка данных с использованием Apache Spark
Управление метаданными через DataHub,
CI/CD процессы с использованием GitLab.
Ожидаем от кандидата:
Уверенные знания SQL: теория нормализации, опыт работы с реляционными базами данных.
Знания основ Python.
Понимание ETL-процессов и моделей данных.
Высшее образование в области IT, математики, статистики или в смежной области.
Будет плюсом:
Опыт работы с Python в проектах.
Знание принципов построения и оптимизации ETL/ELT.
Навыки работы с системами контроля версий (например, Git).
Резюме отправлять в Telegram: @imashinho
👎6
Ищем Senior DataEngineer, который:
- внедрит ClickHouse и настроит масштабируемые пайплайны данных
- выстроит ELT/ETL процессы и позаботится о качестве, целостности и актуальности данных
- будет развивать данные как продукт: от источников до аналитики
💡 Что классного:
- минимум legacy
- возможность быть экспертом, влиять на архитектуру данных и процессы аналитики
- реальный карьерный путь в тех лида команды
🫰 Эта позиция хорошо подойдет кандидатам с большой технической насмотренностью, у кого уже есть опыт построения систем с нуля, и кому будет интересно сделать это снова.
Здесь подробнее о роли и задачах: https://onde.app/careers/senior-data-engineer
📍 По локациям: РБ, Европа, Грузия
Добавляйтесь ко мне в Linkedin или откликайтесь на почту jobs@onde.app
Будем рады знакомству!
- внедрит ClickHouse и настроит масштабируемые пайплайны данных
- выстроит ELT/ETL процессы и позаботится о качестве, целостности и актуальности данных
- будет развивать данные как продукт: от источников до аналитики
💡 Что классного:
- минимум legacy
- возможность быть экспертом, влиять на архитектуру данных и процессы аналитики
- реальный карьерный путь в тех лида команды
🫰 Эта позиция хорошо подойдет кандидатам с большой технической насмотренностью, у кого уже есть опыт построения систем с нуля, и кому будет интересно сделать это снова.
Здесь подробнее о роли и задачах: https://onde.app/careers/senior-data-engineer
📍 По локациям: РБ, Европа, Грузия
Добавляйтесь ко мне в Linkedin или откликайтесь на почту jobs@onde.app
Будем рады знакомству!
👎3👍2
Data Engineer Junior+/Middle [DWH] в platacard.mx (От создателя Тинькофф)
Our benefits:
— Relocation support to one of our hubs — Cyprus, Spain, Serbia, or Kazakhstan — with assistance for the employee and their family
— Flexible work from one of our offices or remote
Healthcare Coverage
— Education Budget: Language lessons, professional training and certifications
— Wellness Budget: Mental health and fitness activity reimbursements
— Vacation policy: 20 days of annual leave and paid sick leave
DWH Team:
Our bank has data driven processes and with it DWH plays major role in whole business model. Our team provides data pipelines from all our data sources (as internal/external systems), data marts for reporting and analysis and toolchain around the data to make work with data easier.
https://career.platacard.mx/vacancy/details?id=4676212008&gh_jid=4676212008
Our benefits:
— Relocation support to one of our hubs — Cyprus, Spain, Serbia, or Kazakhstan — with assistance for the employee and their family
— Flexible work from one of our offices or remote
Healthcare Coverage
— Education Budget: Language lessons, professional training and certifications
— Wellness Budget: Mental health and fitness activity reimbursements
— Vacation policy: 20 days of annual leave and paid sick leave
DWH Team:
Our bank has data driven processes and with it DWH plays major role in whole business model. Our team provides data pipelines from all our data sources (as internal/external systems), data marts for reporting and analysis and toolchain around the data to make work with data easier.
https://career.platacard.mx/vacancy/details?id=4676212008&gh_jid=4676212008
career.platacard.mx
Join Plata’s
team
team
We’re looking for curious, driven people who want to make products more accessible, intuitive, and human. Explore our open roles and find where you fit in.
❤8
Data Engineer/Data Steward (World of Tanks)
Vilnius, Lithuania
Work mode
Hybrid (2-3 days of work from the office)
The salary range for this position is 4000–5000 € (gross) per month.
Note that this salary range is valid for Lithuania, for other locations it might be different.
Wargaming is looking to hire a proactive, passionate, and goal-oriented Data Engineer/Data Steward possessing deep technical knowledge on high-load telemetry systems creation and operation along with project management skills necessary for keeping the World of Tanks data storage, transfer, and usage efficient.
https://wargaming.com/en/careers/vacancy_3178848_vilnius/
Vilnius, Lithuania
Work mode
Hybrid (2-3 days of work from the office)
The salary range for this position is 4000–5000 € (gross) per month.
Note that this salary range is valid for Lithuania, for other locations it might be different.
Wargaming is looking to hire a proactive, passionate, and goal-oriented Data Engineer/Data Steward possessing deep technical knowledge on high-load telemetry systems creation and operation along with project management skills necessary for keeping the World of Tanks data storage, transfer, and usage efficient.
https://wargaming.com/en/careers/vacancy_3178848_vilnius/
Wargaming
Wargaming Vacancies | Wargaming
Thinking of working for Wargaming? We have a new vacancy! Just follow the link and discover what kind of career is waiting for you.