#вакансия #fulltime #СПБ #python #airflow #офис
Вакансия: Middle/Senior Big Data Engineer (Python)
Компания: КА gethead
Формат работы: Удаленка (на время пандемии) дальше офис
Зарплата: 150-260 000 руб. на руки (больше готовы смотреть, в зависимости от опыта)
О проекте:
Проект для американской компании, занимающейся мобильной рекламой. Разработка конвейеров данных для передачи больших объемов данных (более 20 ТБ в месяц) между системами.
Разработка для одного из крупнейших мировых брендов спортивных товаров:
Создание и поддержка высокомасштабируемых Big Data-систем.
Разработка для одного из крупнейших мировых брендов спортивных товаров:
Создание и поддержка высокомасштабируемых Big Data-систем.
Стек проекта:
- Python;
- Spark;
- Hive;
- Airflow;
- AWS(EMR,S3).
Задачи:
- Участие в проектировании, разработке и поддержке инструментов мониторинга для сбора показателей и данных;
- Создание и запуск ETL-процессов;
- Создание и поддержка высокомасштабируемых систем на облачных платформах;
- Модернизация программного обеспечения (создание новых библиотек, инструментов, внедрение новых технологий);
- Оптимизация и рефакторинг кода;
- Анализ производительности приложений.
Мы ожидаем:
- Опыт разработки на Python;
- Опыт работы с Spark, Hadoop, Streams (Kafra, Kinesis);
- Опыт аналитики больших данных;
- Опыт проектирования высокомасштабируемых нагруженных систем;
- Опыт работы с Google Cloud Platform;
- Знание английского на уровне Upper-Intermediate и выше.
Мы предлагаем:
- Участие в крупном международном проекте;
- Возможность работать удаленно на время пандемии;
- Релокационный бонус;
- Программа корпоративных льгот;
- ДМС с первого рабочего дня;
- Активная корпоративная жизнь;
- Возможность длительных командировок в США;
- Корпоративный английский с носителями.
Контакты для связи: @mariasamborskaya
Вакансия: Middle/Senior Big Data Engineer (Python)
Компания: КА gethead
Формат работы: Удаленка (на время пандемии) дальше офис
Зарплата: 150-260 000 руб. на руки (больше готовы смотреть, в зависимости от опыта)
О проекте:
Проект для американской компании, занимающейся мобильной рекламой. Разработка конвейеров данных для передачи больших объемов данных (более 20 ТБ в месяц) между системами.
Разработка для одного из крупнейших мировых брендов спортивных товаров:
Создание и поддержка высокомасштабируемых Big Data-систем.
Разработка для одного из крупнейших мировых брендов спортивных товаров:
Создание и поддержка высокомасштабируемых Big Data-систем.
Стек проекта:
- Python;
- Spark;
- Hive;
- Airflow;
- AWS(EMR,S3).
Задачи:
- Участие в проектировании, разработке и поддержке инструментов мониторинга для сбора показателей и данных;
- Создание и запуск ETL-процессов;
- Создание и поддержка высокомасштабируемых систем на облачных платформах;
- Модернизация программного обеспечения (создание новых библиотек, инструментов, внедрение новых технологий);
- Оптимизация и рефакторинг кода;
- Анализ производительности приложений.
Мы ожидаем:
- Опыт разработки на Python;
- Опыт работы с Spark, Hadoop, Streams (Kafra, Kinesis);
- Опыт аналитики больших данных;
- Опыт проектирования высокомасштабируемых нагруженных систем;
- Опыт работы с Google Cloud Platform;
- Знание английского на уровне Upper-Intermediate и выше.
Мы предлагаем:
- Участие в крупном международном проекте;
- Возможность работать удаленно на время пандемии;
- Релокационный бонус;
- Программа корпоративных льгот;
- ДМС с первого рабочего дня;
- Активная корпоративная жизнь;
- Возможность длительных командировок в США;
- Корпоративный английский с носителями.
Контакты для связи: @mariasamborskaya
#работа #вакансия #job #vacancy #fulltime #удаленка #офис #remote #SQL #DE #Python #PySpark #Airflow #Data
Data engineer в Aston на проект платформы, которая распределяет работу между сотнями исполнителей.
Требования:
-Опыт работы в роли Data Engineer от 2\3-х лет;
-Хорошее знание Python и SQL
-Практический опыт решения алгоритмических задач
Будет плюсом:
-Знание PySpark
-Опыт работы с Databricks из Airflow
-Опыт работы с Airflow
-Знание Bash, Docker
-Высшее математическое или физико-математическое образование
Условия:
- работа удаленно или в офисе, фултайм
- система менторства и адаптации (куратор, четкий план роста, своя школа архитекторов,
а также корпоративный обучающий портал для любого стека вашей специализации)
- возможность выбора/смены проекта
- медицинское страхование (+стоматология)
- возможность доп заработка через участие в активностях компании
- компенсация спорта и англ языка
- помощь в отсрочке (входим в РФ реестр ИТ-компаний)
- ЗП на руки 150-240к ₽ и более
Контакт для связи Ян @job_accelerator
Data engineer в Aston на проект платформы, которая распределяет работу между сотнями исполнителей.
Требования:
-Опыт работы в роли Data Engineer от 2\3-х лет;
-Хорошее знание Python и SQL
-Практический опыт решения алгоритмических задач
Будет плюсом:
-Знание PySpark
-Опыт работы с Databricks из Airflow
-Опыт работы с Airflow
-Знание Bash, Docker
-Высшее математическое или физико-математическое образование
Условия:
- работа удаленно или в офисе, фултайм
- система менторства и адаптации (куратор, четкий план роста, своя школа архитекторов,
а также корпоративный обучающий портал для любого стека вашей специализации)
- возможность выбора/смены проекта
- медицинское страхование (+стоматология)
- возможность доп заработка через участие в активностях компании
- компенсация спорта и англ языка
- помощь в отсрочке (входим в РФ реестр ИТ-компаний)
- ЗП на руки 150-240к ₽ и более
Контакт для связи Ян @job_accelerator
#вакансия #de #fintech #remote
Привет! Мы в поиске Data Engineer (middle+)
Компания: Vsemirsoft
Проект: банковский проект (входит в ТОП-50 банков РФ).
Стек проекта:
- #Hadoop, #GreenPlum, #S3;
- #Airflow, #Spark, #Kafka, #Debezium;
- #ClickHouse, #Superset
Часовой пояс: Москва (UTC+03:00, Europe/Moscow)
Формат работы: удаленный
Зп: 285 тыс. руб.
📌Ключевые компетенции:
- АБС
- ЦФТ
- DWH
📌 Требования:
- ОПЫТ РАБОТЫ ОТ 3х ЛЕТ;
- опыт работы с хранилищами данных и с отчетностью в АБС Банка;
- понимание жизненного цикла разработки программного обеспечения
📌 Как преимущество:
- понимание процессов формирования обязательной отчетности (ЦБ)
📌 Задачи в рамках проекта:
- анализ новых требований от заказчиков по задачам обязательной отчетности (ЦБ);
- реализация изменений и тестирование на стороне DWH;
- взаимодействие с внутренними заказчиками, системными аналитиками-экспертами других подразделений;
- написание технических задач для развития детального и витринного уровней DWH;
- анализ и контроль качества загрузки данных в DWH;
- описание логической и физической модели DWH и сопровождение документации в части хранилища данных
По всем вопросам обращаться: @odu_v_an
Привет! Мы в поиске Data Engineer (middle+)
Компания: Vsemirsoft
Проект: банковский проект (входит в ТОП-50 банков РФ).
Стек проекта:
- #Hadoop, #GreenPlum, #S3;
- #Airflow, #Spark, #Kafka, #Debezium;
- #ClickHouse, #Superset
Часовой пояс: Москва (UTC+03:00, Europe/Moscow)
Формат работы: удаленный
Зп: 285 тыс. руб.
📌Ключевые компетенции:
- АБС
- ЦФТ
- DWH
📌 Требования:
- ОПЫТ РАБОТЫ ОТ 3х ЛЕТ;
- опыт работы с хранилищами данных и с отчетностью в АБС Банка;
- понимание жизненного цикла разработки программного обеспечения
📌 Как преимущество:
- понимание процессов формирования обязательной отчетности (ЦБ)
📌 Задачи в рамках проекта:
- анализ новых требований от заказчиков по задачам обязательной отчетности (ЦБ);
- реализация изменений и тестирование на стороне DWH;
- взаимодействие с внутренними заказчиками, системными аналитиками-экспертами других подразделений;
- написание технических задач для развития детального и витринного уровней DWH;
- анализ и контроль качества загрузки данных в DWH;
- описание логической и физической модели DWH и сопровождение документации в части хранилища данных
По всем вопросам обращаться: @odu_v_an
#вакансия #ds
Мы в Циан 🏘 ищем сильного Senior Data Scientist-а в команду CRM.
Локация - Полная удаленка внутри РФ. Если есть желание ходить в офис, у нас есть замечательные современные офисы в Москве, Питере и Новосибе.
Вилка - от 350 до 500 гросс, готовы обсуждать
О нас
В Циан большая команда ML. В команде настроены процессы перфоманс ревью, регулярного обмена опытом, выделяем время на исследовательскую работу!
Команда CRM занимается прямыми коммуникациями с клиентами (пуши, емейлы, смски и тд)
Наш стек
● Python (Numpy, SciPy, Pandas, sklearn, PyTorch);
● Экосистема Hadoop (PySpark, Hive, Kafka);
● Airflow;
Задачи:
● Повышение эффективности пуш-уведомлений, емейлов и других каналов прямых коммуникаций с клиентами;
● Оптимизация коммуникационной нагрузки, выбор оптимального канала коммуникации, выбор оптимального времени отправки;
Требования к кандидату
● Опыт: Не менее 3х лет релевантного опыта на позиции DS в продуктовой компании
● Python: пишет легко читаемый и поддерживаемый код
● SQL (оконные функции, оптимизация запросов)
● Apache стек: HDFS/Kafka/Spark (DF API)
● Классический ML: бустинги, линейные модели.
● Базовые знания в NLP и CV: трансформеры, TF-IDF
● DL: PyTorch.
Плюшки:
ДМС с первого дня (стоматология, госпитализация, полис ВЗР), Кафетерий льгот Benefactory, 5 day off в год, помимо основного отпуска.
Пишите в ЛС рекрутеру / мне (@DANAlina95 / @kgavrilchik) или скидывайте свои резюме на a.dmitrenko@cian.ru
#Python #Numpy #SciPy #Pandas #sklearn #PyTorch #Hadoop #PySpark #Hive #Kafka #Airflow
Мы в Циан 🏘 ищем сильного Senior Data Scientist-а в команду CRM.
Локация - Полная удаленка внутри РФ. Если есть желание ходить в офис, у нас есть замечательные современные офисы в Москве, Питере и Новосибе.
Вилка - от 350 до 500 гросс, готовы обсуждать
О нас
В Циан большая команда ML. В команде настроены процессы перфоманс ревью, регулярного обмена опытом, выделяем время на исследовательскую работу!
Команда CRM занимается прямыми коммуникациями с клиентами (пуши, емейлы, смски и тд)
Наш стек
● Python (Numpy, SciPy, Pandas, sklearn, PyTorch);
● Экосистема Hadoop (PySpark, Hive, Kafka);
● Airflow;
Задачи:
● Повышение эффективности пуш-уведомлений, емейлов и других каналов прямых коммуникаций с клиентами;
● Оптимизация коммуникационной нагрузки, выбор оптимального канала коммуникации, выбор оптимального времени отправки;
Требования к кандидату
● Опыт: Не менее 3х лет релевантного опыта на позиции DS в продуктовой компании
● Python: пишет легко читаемый и поддерживаемый код
● SQL (оконные функции, оптимизация запросов)
● Apache стек: HDFS/Kafka/Spark (DF API)
● Классический ML: бустинги, линейные модели.
● Базовые знания в NLP и CV: трансформеры, TF-IDF
● DL: PyTorch.
Плюшки:
ДМС с первого дня (стоматология, госпитализация, полис ВЗР), Кафетерий льгот Benefactory, 5 day off в год, помимо основного отпуска.
Пишите в ЛС рекрутеру / мне (@DANAlina95 / @kgavrilchik) или скидывайте свои резюме на a.dmitrenko@cian.ru
#Python #Numpy #SciPy #Pandas #sklearn #PyTorch #Hadoop #PySpark #Hive #Kafka #Airflow
#DataEngineer #ContractPosition #Remote #GCP #Snowflake #dbt #Fintech #API #Airflow #GitHub
Разыскивается Data Engineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, минимальное время пересечения – 4 часа.
Стек технологий: GCP, Snowflake, dbt, Airflow, GitHub, API/SFTP, Python, SQL.
Английский B2 и выше – условие обязательное.
Опыт работы в финтех/банковском секторе - условие обязательное.
Работать за пределами России и Беларуси - условие обязательное.
Зарплата: $5000 – 7000 NET.
Для самых внимательных, кто действительно читает описание вакансии:
• Пожалуйста, откликайтесь только в том случае, если у вас есть необходимый опыт по всему стеку (GCP, Snowflake, dbt, Airflow, GitHub, Python and SQL, API/SFTP), а также опыт работы в финтех/банковском секторе.
• Присылайте резюме в формате Word.
Спасибо!
Для связи: https://t.me/Tary_bird
____________________________________
Description of the Data Engineer contract position:
Location: Preferably Pacific Time Zone, with at least 4 hours overlap with working hours.
Company:
A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.
What to expect:
Your role as a data engineer involves reporting to the head of the data and analytics department and participating in the creation of the entire structure and infrastructure necessary to support operations in the fintech/banking sector.
Responsibilities:
• Developing, creating, and maintaining data infrastructure for optimal extraction, transformation, and loading of data from various sources using SQL, and big data technologies.
• Creating and implementing data collection systems that integrate various sources, including company proprietary data and external sources.
• Automating the process of collecting and visualizing user engagement data.
• Developing and supporting data processes on the Google Cloud platform and in the Snowflake system for efficient data processing.
• Extracting data via API/SFTP and ensuring its correctness and relevance.
What we are looking for:
Qualifications:
• Fintech/Bank working experience (must have).
• Minimum 6 years of professional experience as a data engineer/data analyst in the fintech/banking sector.
• Deep knowledge of GCP, Snowflake, dbt, Airflow, and GitHub.
• Strong proficiency in Python and SQL.
• Experience in data intake via API/SFTP.
• Attention to detail and strong communication skills, both orally and in writing.
Nice to have:
• Bachelor's or master's degree in computer science, database management, etc.
Please send the completed application form together with your CV.
• How many years of experience do you have with Google Cloud Platform (GCP)?
• How many years of experience do you have with Snowflake?
• How many years of experience do you have with dbt?
• How many years of experience do you have with Airflow?
• How many years of experience do you have with GitHub?
• Do you have experience working with data intake through API/SFTP? If yes, please describe.
• How many years of experience do you have with Python?
• How many years of experience do you have with SQL?
• What salary USD is expected?
Разыскивается Data Engineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, минимальное время пересечения – 4 часа.
Стек технологий: GCP, Snowflake, dbt, Airflow, GitHub, API/SFTP, Python, SQL.
Английский B2 и выше – условие обязательное.
Опыт работы в финтех/банковском секторе - условие обязательное.
Работать за пределами России и Беларуси - условие обязательное.
Зарплата: $5000 – 7000 NET.
Для самых внимательных, кто действительно читает описание вакансии:
• Пожалуйста, откликайтесь только в том случае, если у вас есть необходимый опыт по всему стеку (GCP, Snowflake, dbt, Airflow, GitHub, Python and SQL, API/SFTP), а также опыт работы в финтех/банковском секторе.
• Присылайте резюме в формате Word.
Спасибо!
Для связи: https://t.me/Tary_bird
____________________________________
Description of the Data Engineer contract position:
Location: Preferably Pacific Time Zone, with at least 4 hours overlap with working hours.
Company:
A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.
What to expect:
Your role as a data engineer involves reporting to the head of the data and analytics department and participating in the creation of the entire structure and infrastructure necessary to support operations in the fintech/banking sector.
Responsibilities:
• Developing, creating, and maintaining data infrastructure for optimal extraction, transformation, and loading of data from various sources using SQL, and big data technologies.
• Creating and implementing data collection systems that integrate various sources, including company proprietary data and external sources.
• Automating the process of collecting and visualizing user engagement data.
• Developing and supporting data processes on the Google Cloud platform and in the Snowflake system for efficient data processing.
• Extracting data via API/SFTP and ensuring its correctness and relevance.
What we are looking for:
Qualifications:
• Fintech/Bank working experience (must have).
• Minimum 6 years of professional experience as a data engineer/data analyst in the fintech/banking sector.
• Deep knowledge of GCP, Snowflake, dbt, Airflow, and GitHub.
• Strong proficiency in Python and SQL.
• Experience in data intake via API/SFTP.
• Attention to detail and strong communication skills, both orally and in writing.
Nice to have:
• Bachelor's or master's degree in computer science, database management, etc.
Please send the completed application form together with your CV.
• How many years of experience do you have with Google Cloud Platform (GCP)?
• How many years of experience do you have with Snowflake?
• How many years of experience do you have with dbt?
• How many years of experience do you have with Airflow?
• How many years of experience do you have with GitHub?
• Do you have experience working with data intake through API/SFTP? If yes, please describe.
• How many years of experience do you have with Python?
• How many years of experience do you have with SQL?
• What salary USD is expected?