#vacancy #remote #data #python #dbt #snowflake
Senior Data Engineer
About us:
Siren Group, headquartered in Switzerland and with staff across the world, we focus on the U.S. market with an emphasis on the home improvement industry.
About you:
• 5+ years of experience in data engineering or related field;
• Deep understanding of data warehousing, ETL pipelines, data modeling, and APIs;
• Expertise in Python, SQL, Snowflake, Docker, AWS, DBT, EL tools (Fivetran/Airbyte), Orchestration Tools (Prefect/Airflow), Data Quality Monitoring (Great Expectations/Monte Carlo), Version Control Systems, CI/CD;
• Experience with data quality monitoring, reliability, and lineage will be an asset;
• Business acumen & excellent communication skills (w/ technical and business stakeholders);
• Professional fluency in English;
What you will be doing:
• Build and maintain data infrastructure that enables the collection, storage, and retrieval of data;
• Create new data flows by integrating our data sources and ensuring that they are reliable and efficient;
• Develop ETL pipelines, data warehousing, and data modeling to support business needs;
• Ensure data quality monitoring, reliability, and lineage by developing processes and tools to identify and correct data quality issues;
Email: zarina.murzalieva@sirenltd.com
TG: @zarinamurza
Не забудь уточнить, что ты из @datasciencejobs
Senior Data Engineer
About us:
Siren Group, headquartered in Switzerland and with staff across the world, we focus on the U.S. market with an emphasis on the home improvement industry.
About you:
• 5+ years of experience in data engineering or related field;
• Deep understanding of data warehousing, ETL pipelines, data modeling, and APIs;
• Expertise in Python, SQL, Snowflake, Docker, AWS, DBT, EL tools (Fivetran/Airbyte), Orchestration Tools (Prefect/Airflow), Data Quality Monitoring (Great Expectations/Monte Carlo), Version Control Systems, CI/CD;
• Experience with data quality monitoring, reliability, and lineage will be an asset;
• Business acumen & excellent communication skills (w/ technical and business stakeholders);
• Professional fluency in English;
What you will be doing:
• Build and maintain data infrastructure that enables the collection, storage, and retrieval of data;
• Create new data flows by integrating our data sources and ensuring that they are reliable and efficient;
• Develop ETL pipelines, data warehousing, and data modeling to support business needs;
• Ensure data quality monitoring, reliability, and lineage by developing processes and tools to identify and correct data quality issues;
Email: zarina.murzalieva@sirenltd.com
TG: @zarinamurza
Не забудь уточнить, что ты из @datasciencejobs
#вакансия #remote #middle #de #da #etl #postgresql #clickhouse #dbt
Компания Excdev в поиске Middle Data Engineer/Data Analyst
Удаленный график работы из любой точки мира,зарплатная плата 200-250 тысяч рублей на руки.
Задачи:
- Разработка хранилищ данных, витрин данных;
- Проектирование, разработка и поддержка ETL-процессов;
- Разработка визуализации данных и отчетности;
- Контроль качества загружаемых данных;
- Интеграция новых источников;
Вы идеальны, если:
- Высшее математическое или техническое образование (компьютерные науки, инженерия, статистика, математика или смежные области)
- Минимум 3 года опыта работы в управлении данными, инжиниринге данных или анализе данных в сфере веб и/или мобильных продуктов
- Практические знания в областях хранения данных, моделирования, управления и визуализации данных, опыт работы со следующими инструментами Airflow, DBT, Clickhouse, Superset, Postgre
- Успешный опыт работы с извлечением и обработкой данных из разных источников для коммерческой ценности
- Опыт работы(настройка и интеграция) с трекерами типа Google Analytics, Branch, AppMetrica, Adjust, AppsFlyer, Binom (поп-ап реклама) и т.п.
Будет огромным плюсом:
- Опыт работы со SkadNetwork iOS и понимание принципов работы с агрегированными данными.
- Опыт настройки и ведения рекламных кампаний в источниках типа Meta, Google Ads, Tiktok и т.п.
- Опыт работы с Tableau, Google Looker или подобных им.
Контакт для связи в тг: @valenti_sh
Компания Excdev в поиске Middle Data Engineer/Data Analyst
Удаленный график работы из любой точки мира,зарплатная плата 200-250 тысяч рублей на руки.
Задачи:
- Разработка хранилищ данных, витрин данных;
- Проектирование, разработка и поддержка ETL-процессов;
- Разработка визуализации данных и отчетности;
- Контроль качества загружаемых данных;
- Интеграция новых источников;
Вы идеальны, если:
- Высшее математическое или техническое образование (компьютерные науки, инженерия, статистика, математика или смежные области)
- Минимум 3 года опыта работы в управлении данными, инжиниринге данных или анализе данных в сфере веб и/или мобильных продуктов
- Практические знания в областях хранения данных, моделирования, управления и визуализации данных, опыт работы со следующими инструментами Airflow, DBT, Clickhouse, Superset, Postgre
- Успешный опыт работы с извлечением и обработкой данных из разных источников для коммерческой ценности
- Опыт работы(настройка и интеграция) с трекерами типа Google Analytics, Branch, AppMetrica, Adjust, AppsFlyer, Binom (поп-ап реклама) и т.п.
Будет огромным плюсом:
- Опыт работы со SkadNetwork iOS и понимание принципов работы с агрегированными данными.
- Опыт настройки и ведения рекламных кампаний в источниках типа Meta, Google Ads, Tiktok и т.п.
- Опыт работы с Tableau, Google Looker или подобных им.
Контакт для связи в тг: @valenti_sh
#DataEngineer #ContractPosition #Remote #GCP #Snowflake #dbt #Fintech #API #Airflow #GitHub
Разыскивается Data Engineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, минимальное время пересечения – 4 часа.
Стек технологий: GCP, Snowflake, dbt, Airflow, GitHub, API/SFTP, Python, SQL.
Английский B2 и выше – условие обязательное.
Опыт работы в финтех/банковском секторе - условие обязательное.
Работать за пределами России и Беларуси - условие обязательное.
Зарплата: $5000 – 7000 NET.
Для самых внимательных, кто действительно читает описание вакансии:
• Пожалуйста, откликайтесь только в том случае, если у вас есть необходимый опыт по всему стеку (GCP, Snowflake, dbt, Airflow, GitHub, Python and SQL, API/SFTP), а также опыт работы в финтех/банковском секторе.
• Присылайте резюме в формате Word.
Спасибо!
Для связи: https://t.me/Tary_bird
____________________________________
Description of the Data Engineer contract position:
Location: Preferably Pacific Time Zone, with at least 4 hours overlap with working hours.
Company:
A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.
What to expect:
Your role as a data engineer involves reporting to the head of the data and analytics department and participating in the creation of the entire structure and infrastructure necessary to support operations in the fintech/banking sector.
Responsibilities:
• Developing, creating, and maintaining data infrastructure for optimal extraction, transformation, and loading of data from various sources using SQL, and big data technologies.
• Creating and implementing data collection systems that integrate various sources, including company proprietary data and external sources.
• Automating the process of collecting and visualizing user engagement data.
• Developing and supporting data processes on the Google Cloud platform and in the Snowflake system for efficient data processing.
• Extracting data via API/SFTP and ensuring its correctness and relevance.
What we are looking for:
Qualifications:
• Fintech/Bank working experience (must have).
• Minimum 6 years of professional experience as a data engineer/data analyst in the fintech/banking sector.
• Deep knowledge of GCP, Snowflake, dbt, Airflow, and GitHub.
• Strong proficiency in Python and SQL.
• Experience in data intake via API/SFTP.
• Attention to detail and strong communication skills, both orally and in writing.
Nice to have:
• Bachelor's or master's degree in computer science, database management, etc.
Please send the completed application form together with your CV.
• How many years of experience do you have with Google Cloud Platform (GCP)?
• How many years of experience do you have with Snowflake?
• How many years of experience do you have with dbt?
• How many years of experience do you have with Airflow?
• How many years of experience do you have with GitHub?
• Do you have experience working with data intake through API/SFTP? If yes, please describe.
• How many years of experience do you have with Python?
• How many years of experience do you have with SQL?
• What salary USD is expected?
Разыскивается Data Engineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, минимальное время пересечения – 4 часа.
Стек технологий: GCP, Snowflake, dbt, Airflow, GitHub, API/SFTP, Python, SQL.
Английский B2 и выше – условие обязательное.
Опыт работы в финтех/банковском секторе - условие обязательное.
Работать за пределами России и Беларуси - условие обязательное.
Зарплата: $5000 – 7000 NET.
Для самых внимательных, кто действительно читает описание вакансии:
• Пожалуйста, откликайтесь только в том случае, если у вас есть необходимый опыт по всему стеку (GCP, Snowflake, dbt, Airflow, GitHub, Python and SQL, API/SFTP), а также опыт работы в финтех/банковском секторе.
• Присылайте резюме в формате Word.
Спасибо!
Для связи: https://t.me/Tary_bird
____________________________________
Description of the Data Engineer contract position:
Location: Preferably Pacific Time Zone, with at least 4 hours overlap with working hours.
Company:
A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.
What to expect:
Your role as a data engineer involves reporting to the head of the data and analytics department and participating in the creation of the entire structure and infrastructure necessary to support operations in the fintech/banking sector.
Responsibilities:
• Developing, creating, and maintaining data infrastructure for optimal extraction, transformation, and loading of data from various sources using SQL, and big data technologies.
• Creating and implementing data collection systems that integrate various sources, including company proprietary data and external sources.
• Automating the process of collecting and visualizing user engagement data.
• Developing and supporting data processes on the Google Cloud platform and in the Snowflake system for efficient data processing.
• Extracting data via API/SFTP and ensuring its correctness and relevance.
What we are looking for:
Qualifications:
• Fintech/Bank working experience (must have).
• Minimum 6 years of professional experience as a data engineer/data analyst in the fintech/banking sector.
• Deep knowledge of GCP, Snowflake, dbt, Airflow, and GitHub.
• Strong proficiency in Python and SQL.
• Experience in data intake via API/SFTP.
• Attention to detail and strong communication skills, both orally and in writing.
Nice to have:
• Bachelor's or master's degree in computer science, database management, etc.
Please send the completed application form together with your CV.
• How many years of experience do you have with Google Cloud Platform (GCP)?
• How many years of experience do you have with Snowflake?
• How many years of experience do you have with dbt?
• How many years of experience do you have with Airflow?
• How many years of experience do you have with GitHub?
• Do you have experience working with data intake through API/SFTP? If yes, please describe.
• How many years of experience do you have with Python?
• How many years of experience do you have with SQL?
• What salary USD is expected?