#вакансия #удаленно #python #middle #backend #москва #remote #dataengineer
Вакансия: Middle/Senior Data Engineer
Компания: iContext Group
Локация: #Москва метро Новослободская
Занятость: полная
Формат работы: удаленный или офис
ЗП: от 200 000 - 300 000 net
📌 О компании:
Мы - Digital компания, создающая инструменты по комплексному управлению бизнесом в интернете: performance и аналитика, эконометрика и консалтинг, mobile и CPA, контекстная и таргетированная реклама, SEO, media и многое другое. Главный наш продукт - сервис сбора аналитики по рекламе!
📌 Чем предстоит заниматься:
• Разворачивание инфраструктуры для больших данных.
• Участие в создании, сопровождение и развитие корпоративного хранилища данных с нуля.
• Извлечение данных из различных источников (соцсети, маркетинговые рекламные площадки, открытые источники).
• Создание надежных и оптимальных пайплайнов выгрузки и обработки данных.
• Подготовка витрин данных.
• Ведение документации в data catalog’e.
• Отвечать за доступность хранилища для всех клиентов, выполнение SLA.
📌 Основные требования:
• Опыт от 1.5 года на позиции Дата Инженера или опыт на Питон разработке, с желанием развиваться как DE.
• Опыт развертывания хранилищ
• Хорошие знания принципов работы БД.
• Опыт работы с высоконагруженными распределенными системами хранения и обработки данных.
• Отличное знание SQL, опыт оптимизации запросов.
📌 Будет значительным плюсом:
• Опыт оркестрации на Airflow.
• Уверенные знания одного из языков Python/Java будет супер бустом.
📌 Мы предлагаем:
• Официальная зарплата по итогам собеседования
• Возможность работать удалённо/ офис Мск
• Оформление по ТК РФ;
• Полный рабочий день
Связь: @morevaliddevelopers
Вакансия: Middle/Senior Data Engineer
Компания: iContext Group
Локация: #Москва метро Новослободская
Занятость: полная
Формат работы: удаленный или офис
ЗП: от 200 000 - 300 000 net
📌 О компании:
Мы - Digital компания, создающая инструменты по комплексному управлению бизнесом в интернете: performance и аналитика, эконометрика и консалтинг, mobile и CPA, контекстная и таргетированная реклама, SEO, media и многое другое. Главный наш продукт - сервис сбора аналитики по рекламе!
📌 Чем предстоит заниматься:
• Разворачивание инфраструктуры для больших данных.
• Участие в создании, сопровождение и развитие корпоративного хранилища данных с нуля.
• Извлечение данных из различных источников (соцсети, маркетинговые рекламные площадки, открытые источники).
• Создание надежных и оптимальных пайплайнов выгрузки и обработки данных.
• Подготовка витрин данных.
• Ведение документации в data catalog’e.
• Отвечать за доступность хранилища для всех клиентов, выполнение SLA.
📌 Основные требования:
• Опыт от 1.5 года на позиции Дата Инженера или опыт на Питон разработке, с желанием развиваться как DE.
• Опыт развертывания хранилищ
• Хорошие знания принципов работы БД.
• Опыт работы с высоконагруженными распределенными системами хранения и обработки данных.
• Отличное знание SQL, опыт оптимизации запросов.
📌 Будет значительным плюсом:
• Опыт оркестрации на Airflow.
• Уверенные знания одного из языков Python/Java будет супер бустом.
📌 Мы предлагаем:
• Официальная зарплата по итогам собеседования
• Возможность работать удалённо/ офис Мск
• Оформление по ТК РФ;
• Полный рабочий день
Связь: @morevaliddevelopers
#вакансия #удаленно #python #middle #backend #москва #remote #dataengineer
Вакансия: Middle/Senior Data Engineer
Компания: iContext Group
Локация: #Москва метро Новослободская
Занятость: полная
Формат работы: удаленный или офис
ЗП: от 200 000 - 300 000 net
📌 О компании:
Мы - Digital компания, создающая инструменты по комплексному управлению бизнесом в интернете: performance и аналитика, эконометрика и консалтинг, mobile и CPA, контекстная и таргетированная реклама, SEO, media и многое другое. Главный наш продукт - сервис сбора аналитики по рекламе!
📌 Чем предстоит заниматься:
• Разворачивание инфраструктуры для больших данных.
• Участие в создании, сопровождение и развитие корпоративного хранилища данных с нуля.
• Извлечение данных из различных источников (соцсети, маркетинговые рекламные площадки, открытые источники).
• Создание надежных и оптимальных пайплайнов выгрузки и обработки данных.
• Подготовка витрин данных.
• Ведение документации в data catalog’e.
• Отвечать за доступность хранилища для всех клиентов, выполнение SLA.
📌 Основные требования:
• Опыт от 1.5 года на позиции Дата Инженера или опыт на Питон разработке, с желанием развиваться как DE.
• Опыт развертывания хранилищ
• Хорошие знания принципов работы БД.
• Опыт работы с высоконагруженными распределенными системами хранения и обработки данных.
• Отличное знание SQL, опыт оптимизации запросов.
📌 Будет значительным плюсом:
• Опыт оркестрации на Airflow.
• Уверенные знания одного из языков Python/Java будет супер бустом.
📌 Мы предлагаем:
• Официальная зарплата по итогам собеседования
• Возможность работать удалённо/ офис Мск
• Оформление по ТК РФ;
• Полный рабочий день
Связь: @morevaliddevelopers
Вакансия: Middle/Senior Data Engineer
Компания: iContext Group
Локация: #Москва метро Новослободская
Занятость: полная
Формат работы: удаленный или офис
ЗП: от 200 000 - 300 000 net
📌 О компании:
Мы - Digital компания, создающая инструменты по комплексному управлению бизнесом в интернете: performance и аналитика, эконометрика и консалтинг, mobile и CPA, контекстная и таргетированная реклама, SEO, media и многое другое. Главный наш продукт - сервис сбора аналитики по рекламе!
📌 Чем предстоит заниматься:
• Разворачивание инфраструктуры для больших данных.
• Участие в создании, сопровождение и развитие корпоративного хранилища данных с нуля.
• Извлечение данных из различных источников (соцсети, маркетинговые рекламные площадки, открытые источники).
• Создание надежных и оптимальных пайплайнов выгрузки и обработки данных.
• Подготовка витрин данных.
• Ведение документации в data catalog’e.
• Отвечать за доступность хранилища для всех клиентов, выполнение SLA.
📌 Основные требования:
• Опыт от 1.5 года на позиции Дата Инженера или опыт на Питон разработке, с желанием развиваться как DE.
• Опыт развертывания хранилищ
• Хорошие знания принципов работы БД.
• Опыт работы с высоконагруженными распределенными системами хранения и обработки данных.
• Отличное знание SQL, опыт оптимизации запросов.
📌 Будет значительным плюсом:
• Опыт оркестрации на Airflow.
• Уверенные знания одного из языков Python/Java будет супер бустом.
📌 Мы предлагаем:
• Официальная зарплата по итогам собеседования
• Возможность работать удалённо/ офис Мск
• Оформление по ТК РФ;
• Полный рабочий день
Связь: @morevaliddevelopers
#вакансия #инженер #engineer #DataEngineer #middle #machinelearning # Python #PostgreSQL #Redis #gitlab #работа #job #удаленно
Компания: Sever X
Формат: удаленно
Занятость: полная, 5/2
💵: от 250 000 руб.
🚀Отличная возможность для опытного Data Engineer реализовать и развить как технические компетенции, так и навыки коммуникации с бизнесом, лидерские качества, навыки формирования команды. С развитием проекта предполагается создание команды под себя, сейчас необходимо возглавить текущие задачи и реализовать их.
🗝задача: поддержка и развитие Data Lake и связанных с ним проектов
📍Основные обязанности
•Интеграция с источниками данных и построение ETL-процессов
•Разработка и поддержка аналитической отчётности
системами и API
•Выявление и устранение аномалий в данных
•Взаимодействие с другими членами команды
🛠Стек:
Основной язык разработки – Python 3.8
Платформа разработки – Яндекс.Облако (Managed Services + виртуальные машины)
Хранилища данных – GreenPlum 6.2, PostgreSQL 14, Redis
Оркестратор процессов – Apache Airflow 2.0
Система управления версиями – GitLab
Контейнеризация приложений – Docker + k8s
📍Обязательные требования
•Уверенное владение SQL: базовый синтаксис, транзакции, представления, хранимые процедуры
•Опыт интеграции с различными источниками данных: файловые системы (локальные/ftp/sftp), API, SQL и NoSQL базы данных
•Понимание принципа работы распределённых баз данных•Знание Python 3: модули pandas, pyodbc (либо другие модули, имплементирующие ODBC), paramiko, requests
•Базовые навыки использования Linux
🔥Преимуществом при отборе будет:
•Опыт работы с распределёнными хранилищами данных: Hadoop (Hive/Impala), GreenPlum, ClickHouse
•Опыт разработки пайплайнов на Apache Airflow
•Навыки оптимизации процессов SQL
•Опыт реализации RestAPI
⚖️ Условия работы и что мы можем предложить взамен:
•Место работы: удаленно
•Возможны различные варианты оформления
•Рассматриваются кандидаты в часовом поясе максимум +5 часов к МСК
•Обязательно наличие гражданства РФ
•Квартальные премии в размере 30% от квартального оклада
•ДМС со стоматологией
•Профессиональная и амбициозная команда
•Открытая корпоративная культура, атмосфера доверия и сотрудничества
•Драйв, высокие скорости, непосредственное влияние на результат
📲контакт: @Oskar17
Компания: Sever X
Формат: удаленно
Занятость: полная, 5/2
💵: от 250 000 руб.
🚀Отличная возможность для опытного Data Engineer реализовать и развить как технические компетенции, так и навыки коммуникации с бизнесом, лидерские качества, навыки формирования команды. С развитием проекта предполагается создание команды под себя, сейчас необходимо возглавить текущие задачи и реализовать их.
🗝задача: поддержка и развитие Data Lake и связанных с ним проектов
📍Основные обязанности
•Интеграция с источниками данных и построение ETL-процессов
•Разработка и поддержка аналитической отчётности
системами и API
•Выявление и устранение аномалий в данных
•Взаимодействие с другими членами команды
🛠Стек:
Основной язык разработки – Python 3.8
Платформа разработки – Яндекс.Облако (Managed Services + виртуальные машины)
Хранилища данных – GreenPlum 6.2, PostgreSQL 14, Redis
Оркестратор процессов – Apache Airflow 2.0
Система управления версиями – GitLab
Контейнеризация приложений – Docker + k8s
📍Обязательные требования
•Уверенное владение SQL: базовый синтаксис, транзакции, представления, хранимые процедуры
•Опыт интеграции с различными источниками данных: файловые системы (локальные/ftp/sftp), API, SQL и NoSQL базы данных
•Понимание принципа работы распределённых баз данных•Знание Python 3: модули pandas, pyodbc (либо другие модули, имплементирующие ODBC), paramiko, requests
•Базовые навыки использования Linux
🔥Преимуществом при отборе будет:
•Опыт работы с распределёнными хранилищами данных: Hadoop (Hive/Impala), GreenPlum, ClickHouse
•Опыт разработки пайплайнов на Apache Airflow
•Навыки оптимизации процессов SQL
•Опыт реализации RestAPI
⚖️ Условия работы и что мы можем предложить взамен:
•Место работы: удаленно
•Возможны различные варианты оформления
•Рассматриваются кандидаты в часовом поясе максимум +5 часов к МСК
•Обязательно наличие гражданства РФ
•Квартальные премии в размере 30% от квартального оклада
•ДМС со стоматологией
•Профессиональная и амбициозная команда
•Открытая корпоративная культура, атмосфера доверия и сотрудничества
•Драйв, высокие скорости, непосредственное влияние на результат
📲контакт: @Oskar17
#вакансия #инженер #engineer #DataEngineer #middle #machinelearning #Python #PostgreSQL #SQL #Redis #gitlab #работа #job #удаленно
Компания: Sever X
Формат: удаленно
Занятость: полная, 5/2
💵: от 250 000 руб.
🚀Отличная возможность для опытного Data Engineer реализовать и развить как технические компетенции, так и навыки коммуникации с бизнесом, лидерские качества, навыки формирования команды. С развитием проекта предполагается создание команды под себя, сейчас необходимо возглавить текущие задачи и реализовать их.
🗝задача: поддержка и развитие Data Lake и связанных с ним проектов
📍Основные обязанности
•Интеграция с источниками данных и построение ETL-процессов
•Разработка и поддержка аналитической отчётности системами и API
•Выявление и устранение аномалий в данных
•Взаимодействие с другими членами команды
🛠Стек:
Основной язык разработки – Python 3.8
Платформа разработки – Яндекс.Облако (Managed Services + виртуальные машины)
Хранилища данных – GreenPlum 6.2, PostgreSQL 14, Redis
Оркестратор процессов – Apache Airflow 2.0
Система управления версиями – GitLab
Контейнеризация приложений – Docker + k8s
📍Обязательные требования
•Уверенное владение SQL: базовый синтаксис, транзакции, представления, хранимые процедуры
•Опыт интеграции с различными источниками данных: файловые системы (локальные/ftp/sftp), API, SQL и NoSQL базы данных
•Понимание принципа работы распределённых баз данных
•Знание Python 3: модули pandas, pyodbc (либо другие модули, имплементирующие ODBC), paramiko, requests
•Базовые навыки использования Linux
🔥Преимуществом при отборе будет:
•Опыт работы с распределёнными хранилищами данных: Hadoop (Hive/Impala), GreenPlum, ClickHouse
•Опыт разработки пайплайнов на Apache Airflow
•Навыки оптимизации процессов SQL
•Опыт реализации RestAPI
⚖️ Условия работы и что мы можем предложить взамен:
•Место работы: удаленно
•Возможны различные варианты оформления
•Рассматриваются кандидаты в часовом поясе максимум +5 часов к МСК
•Обязательно наличие гражданства РФ
•Квартальные премии в размере 30% от квартального оклада
•ДМС со стоматологией
•Профессиональная и амбициозная команда
•Открытая корпоративная культура, атмосфера доверия и сотрудничества
•Драйв, высокие скорости, непосредственное влияние на результат
📲контакт: @Oskar17
Компания: Sever X
Формат: удаленно
Занятость: полная, 5/2
💵: от 250 000 руб.
🚀Отличная возможность для опытного Data Engineer реализовать и развить как технические компетенции, так и навыки коммуникации с бизнесом, лидерские качества, навыки формирования команды. С развитием проекта предполагается создание команды под себя, сейчас необходимо возглавить текущие задачи и реализовать их.
🗝задача: поддержка и развитие Data Lake и связанных с ним проектов
📍Основные обязанности
•Интеграция с источниками данных и построение ETL-процессов
•Разработка и поддержка аналитической отчётности системами и API
•Выявление и устранение аномалий в данных
•Взаимодействие с другими членами команды
🛠Стек:
Основной язык разработки – Python 3.8
Платформа разработки – Яндекс.Облако (Managed Services + виртуальные машины)
Хранилища данных – GreenPlum 6.2, PostgreSQL 14, Redis
Оркестратор процессов – Apache Airflow 2.0
Система управления версиями – GitLab
Контейнеризация приложений – Docker + k8s
📍Обязательные требования
•Уверенное владение SQL: базовый синтаксис, транзакции, представления, хранимые процедуры
•Опыт интеграции с различными источниками данных: файловые системы (локальные/ftp/sftp), API, SQL и NoSQL базы данных
•Понимание принципа работы распределённых баз данных
•Знание Python 3: модули pandas, pyodbc (либо другие модули, имплементирующие ODBC), paramiko, requests
•Базовые навыки использования Linux
🔥Преимуществом при отборе будет:
•Опыт работы с распределёнными хранилищами данных: Hadoop (Hive/Impala), GreenPlum, ClickHouse
•Опыт разработки пайплайнов на Apache Airflow
•Навыки оптимизации процессов SQL
•Опыт реализации RestAPI
⚖️ Условия работы и что мы можем предложить взамен:
•Место работы: удаленно
•Возможны различные варианты оформления
•Рассматриваются кандидаты в часовом поясе максимум +5 часов к МСК
•Обязательно наличие гражданства РФ
•Квартальные премии в размере 30% от квартального оклада
•ДМС со стоматологией
•Профессиональная и амбициозная команда
•Открытая корпоративная культура, атмосфера доверия и сотрудничества
•Драйв, высокие скорости, непосредственное влияние на результат
📲контакт: @Oskar17
#вакансия #инженер #engineer #DataEngineer #middle #machinelearning #Python #PostgreSQL #SQL #Redis #gitlab #работа #job #удаленно
Компания: Sever X
Формат: удаленно
Занятость: полная, 5/2
💵: от 250 000 руб.
🚀Отличная возможность для опытного Data Engineer реализовать и развить как технические компетенции, так и навыки коммуникации с бизнесом, лидерские качества, навыки формирования команды. С развитием проекта предполагается создание команды под себя, сейчас необходимо возглавить текущие задачи и реализовать их.
🗝задача: поддержка и развитие Data Lake и связанных с ним проектов
📍Основные обязанности
•Интеграция с источниками данных и построение ETL-процессов
•Разработка и поддержка аналитической отчётности системами и API
•Выявление и устранение аномалий в данных
•Взаимодействие с другими членами команды
🛠Стек:
Основной язык разработки – Python 3.8
Платформа разработки – Яндекс.Облако (Managed Services + виртуальные машины)
Хранилища данных – GreenPlum 6.2, PostgreSQL 14, Redis
Оркестратор процессов – Apache Airflow 2.0
Система управления версиями – GitLab
Контейнеризация приложений – Docker + k8s
📍Обязательные требования
•Уверенное владение SQL: базовый синтаксис, транзакции, представления, хранимые процедуры
•Опыт интеграции с различными источниками данных: файловые системы (локальные/ftp/sftp), API, SQL и NoSQL базы данных
•Понимание принципа работы распределённых баз данных
•Знание Python 3: модули pandas, pyodbc (либо другие модули, имплементирующие ODBC), paramiko, requests
•Базовые навыки использования Linux
🔥Преимуществом при отборе будет:
•Опыт работы с распределёнными хранилищами данных: Hadoop (Hive/Impala), GreenPlum, ClickHouse
•Опыт разработки пайплайнов на Apache Airflow
•Навыки оптимизации процессов SQL
•Опыт реализации RestAPI
⚖️ Условия работы и что мы можем предложить взамен:
•Место работы: удаленно
•Возможны различные варианты оформления
•Рассматриваются кандидаты в часовом поясе максимум +5 часов к МСК
•Обязательно наличие гражданства РФ
•Квартальные премии в размере 30% от квартального оклада
•ДМС со стоматологией
•Профессиональная и амбициозная команда
•Открытая корпоративная культура, атмосфера доверия и сотрудничества
•Драйв, высокие скорости, непосредственное влияние на результат
📲контакт: @Oskar17
Компания: Sever X
Формат: удаленно
Занятость: полная, 5/2
💵: от 250 000 руб.
🚀Отличная возможность для опытного Data Engineer реализовать и развить как технические компетенции, так и навыки коммуникации с бизнесом, лидерские качества, навыки формирования команды. С развитием проекта предполагается создание команды под себя, сейчас необходимо возглавить текущие задачи и реализовать их.
🗝задача: поддержка и развитие Data Lake и связанных с ним проектов
📍Основные обязанности
•Интеграция с источниками данных и построение ETL-процессов
•Разработка и поддержка аналитической отчётности системами и API
•Выявление и устранение аномалий в данных
•Взаимодействие с другими членами команды
🛠Стек:
Основной язык разработки – Python 3.8
Платформа разработки – Яндекс.Облако (Managed Services + виртуальные машины)
Хранилища данных – GreenPlum 6.2, PostgreSQL 14, Redis
Оркестратор процессов – Apache Airflow 2.0
Система управления версиями – GitLab
Контейнеризация приложений – Docker + k8s
📍Обязательные требования
•Уверенное владение SQL: базовый синтаксис, транзакции, представления, хранимые процедуры
•Опыт интеграции с различными источниками данных: файловые системы (локальные/ftp/sftp), API, SQL и NoSQL базы данных
•Понимание принципа работы распределённых баз данных
•Знание Python 3: модули pandas, pyodbc (либо другие модули, имплементирующие ODBC), paramiko, requests
•Базовые навыки использования Linux
🔥Преимуществом при отборе будет:
•Опыт работы с распределёнными хранилищами данных: Hadoop (Hive/Impala), GreenPlum, ClickHouse
•Опыт разработки пайплайнов на Apache Airflow
•Навыки оптимизации процессов SQL
•Опыт реализации RestAPI
⚖️ Условия работы и что мы можем предложить взамен:
•Место работы: удаленно
•Возможны различные варианты оформления
•Рассматриваются кандидаты в часовом поясе максимум +5 часов к МСК
•Обязательно наличие гражданства РФ
•Квартальные премии в размере 30% от квартального оклада
•ДМС со стоматологией
•Профессиональная и амбициозная команда
•Открытая корпоративная культура, атмосфера доверия и сотрудничества
•Драйв, высокие скорости, непосредственное влияние на результат
📲контакт: @Oskar17
#вакансия #инженер #engineer #DataEngineer #middle #machinelearning #Python #PostgreSQL #SQL #Redis #gitlab #работа #job #удаленно
Компания: Sever X
Формат: удаленно
Занятость: полная, 5/2
💵: от 250 000 руб.
🚀Отличная возможность для опытного Data Engineer реализовать и развить как технические компетенции, так и навыки коммуникации с бизнесом, лидерские качества, навыки формирования команды. С развитием проекта предполагается создание команды под себя, сейчас необходимо возглавить текущие задачи и реализовать их.
🗝задача: поддержка и развитие Data Lake и связанных с ним проектов
📍Основные обязанности
•Интеграция с источниками данных и построение ETL-процессов
•Разработка и поддержка аналитической отчётности системами и API
•Выявление и устранение аномалий в данных
•Взаимодействие с другими членами команды
🛠Стек:
Основной язык разработки – Python 3.8
Платформа разработки – Яндекс.Облако (Managed Services + виртуальные машины)
Хранилища данных – GreenPlum 6.2, PostgreSQL 14, Redis
Оркестратор процессов – Apache Airflow 2.0
Система управления версиями – GitLab
Контейнеризация приложений – Docker + k8s
📍Обязательные требования
•Уверенное владение SQL: базовый синтаксис, транзакции, представления, хранимые процедуры
•Опыт интеграции с различными источниками данных: файловые системы (локальные/ftp/sftp), API, SQL и NoSQL базы данных
•Понимание принципа работы распределённых баз данных
•Знание Python 3: модули pandas, pyodbc (либо другие модули, имплементирующие ODBC), paramiko, requests
•Базовые навыки использования Linux
🔥Преимуществом при отборе будет:
•Опыт работы с распределёнными хранилищами данных: Hadoop (Hive/Impala), GreenPlum, ClickHouse
•Опыт разработки пайплайнов на Apache Airflow
•Навыки оптимизации процессов SQL
•Опыт реализации RestAPI
⚖️ Условия работы и что мы можем предложить взамен:
•Место работы: удаленно
•Возможны различные варианты оформления
•Рассматриваются кандидаты в часовом поясе максимум +5 часов к МСК
•Обязательно наличие гражданства РФ
•Квартальные премии в размере 30% от квартального оклада
•ДМС со стоматологией
•Профессиональная и амбициозная команда
•Открытая корпоративная культура, атмосфера доверия и сотрудничества
•Драйв, высокие скорости, непосредственное влияние на результат
📲контакт: @Oskar17
Компания: Sever X
Формат: удаленно
Занятость: полная, 5/2
💵: от 250 000 руб.
🚀Отличная возможность для опытного Data Engineer реализовать и развить как технические компетенции, так и навыки коммуникации с бизнесом, лидерские качества, навыки формирования команды. С развитием проекта предполагается создание команды под себя, сейчас необходимо возглавить текущие задачи и реализовать их.
🗝задача: поддержка и развитие Data Lake и связанных с ним проектов
📍Основные обязанности
•Интеграция с источниками данных и построение ETL-процессов
•Разработка и поддержка аналитической отчётности системами и API
•Выявление и устранение аномалий в данных
•Взаимодействие с другими членами команды
🛠Стек:
Основной язык разработки – Python 3.8
Платформа разработки – Яндекс.Облако (Managed Services + виртуальные машины)
Хранилища данных – GreenPlum 6.2, PostgreSQL 14, Redis
Оркестратор процессов – Apache Airflow 2.0
Система управления версиями – GitLab
Контейнеризация приложений – Docker + k8s
📍Обязательные требования
•Уверенное владение SQL: базовый синтаксис, транзакции, представления, хранимые процедуры
•Опыт интеграции с различными источниками данных: файловые системы (локальные/ftp/sftp), API, SQL и NoSQL базы данных
•Понимание принципа работы распределённых баз данных
•Знание Python 3: модули pandas, pyodbc (либо другие модули, имплементирующие ODBC), paramiko, requests
•Базовые навыки использования Linux
🔥Преимуществом при отборе будет:
•Опыт работы с распределёнными хранилищами данных: Hadoop (Hive/Impala), GreenPlum, ClickHouse
•Опыт разработки пайплайнов на Apache Airflow
•Навыки оптимизации процессов SQL
•Опыт реализации RestAPI
⚖️ Условия работы и что мы можем предложить взамен:
•Место работы: удаленно
•Возможны различные варианты оформления
•Рассматриваются кандидаты в часовом поясе максимум +5 часов к МСК
•Обязательно наличие гражданства РФ
•Квартальные премии в размере 30% от квартального оклада
•ДМС со стоматологией
•Профессиональная и амбициозная команда
•Открытая корпоративная культура, атмосфера доверия и сотрудничества
•Драйв, высокие скорости, непосредственное влияние на результат
📲контакт: @Oskar17
#вакансия #инженер #engineer #DataEngineer #middle #machinelearning #Python #PostgreSQL #SQL #Redis #gitlab #работа #job #удаленно
Компания: Sever X
Формат: удаленно
Занятость: полная, 5/2
💵: от 250 000 руб.
🚀Отличная возможность для опытного Data Engineer реализовать и развить как технические компетенции, так и навыки коммуникации с бизнесом, лидерские качества, навыки формирования команды. С развитием проекта предполагается создание команды под себя, сейчас необходимо возглавить текущие задачи и реализовать их.
🗝задача: поддержка и развитие Data Lake и связанных с ним проектов
📍Основные обязанности
•Интеграция с источниками данных и построение ETL-процессов
•Разработка и поддержка аналитической отчётности системами и API
•Выявление и устранение аномалий в данных
•Взаимодействие с другими членами команды
🛠Стек:
Основной язык разработки – Python 3.8
Платформа разработки – Яндекс.Облако (Managed Services + виртуальные машины)
Хранилища данных – GreenPlum 6.2, PostgreSQL 14, Redis
Оркестратор процессов – Apache Airflow 2.0
Система управления версиями – GitLab
Контейнеризация приложений – Docker + k8s
📍Обязательные требования
•Уверенное владение SQL: базовый синтаксис, транзакции, представления, хранимые процедуры
•Опыт интеграции с различными источниками данных: файловые системы (локальные/ftp/sftp), API, SQL и NoSQL базы данных
•Понимание принципа работы распределённых баз данных
•Знание Python 3: модули pandas, pyodbc (либо другие модули, имплементирующие ODBC), paramiko, requests
•Базовые навыки использования Linux
🔥Преимуществом при отборе будет:
•Опыт работы с распределёнными хранилищами данных: Hadoop (Hive/Impala), GreenPlum, ClickHouse
•Опыт разработки пайплайнов на Apache Airflow
•Навыки оптимизации процессов SQL
•Опыт реализации RestAPI
⚖️ Условия работы и что мы можем предложить взамен:
•Место работы: удаленно
•Возможны различные варианты оформления
•Рассматриваются кандидаты в часовом поясе максимум +5 часов к МСК
•Обязательно наличие гражданства РФ
•Квартальные премии в размере 30% от квартального оклада
•ДМС со стоматологией
•Профессиональная и амбициозная команда
•Открытая корпоративная культура, атмосфера доверия и сотрудничества
•Драйв, высокие скорости, непосредственное влияние на результат
📲контакт: @Oskar17
Компания: Sever X
Формат: удаленно
Занятость: полная, 5/2
💵: от 250 000 руб.
🚀Отличная возможность для опытного Data Engineer реализовать и развить как технические компетенции, так и навыки коммуникации с бизнесом, лидерские качества, навыки формирования команды. С развитием проекта предполагается создание команды под себя, сейчас необходимо возглавить текущие задачи и реализовать их.
🗝задача: поддержка и развитие Data Lake и связанных с ним проектов
📍Основные обязанности
•Интеграция с источниками данных и построение ETL-процессов
•Разработка и поддержка аналитической отчётности системами и API
•Выявление и устранение аномалий в данных
•Взаимодействие с другими членами команды
🛠Стек:
Основной язык разработки – Python 3.8
Платформа разработки – Яндекс.Облако (Managed Services + виртуальные машины)
Хранилища данных – GreenPlum 6.2, PostgreSQL 14, Redis
Оркестратор процессов – Apache Airflow 2.0
Система управления версиями – GitLab
Контейнеризация приложений – Docker + k8s
📍Обязательные требования
•Уверенное владение SQL: базовый синтаксис, транзакции, представления, хранимые процедуры
•Опыт интеграции с различными источниками данных: файловые системы (локальные/ftp/sftp), API, SQL и NoSQL базы данных
•Понимание принципа работы распределённых баз данных
•Знание Python 3: модули pandas, pyodbc (либо другие модули, имплементирующие ODBC), paramiko, requests
•Базовые навыки использования Linux
🔥Преимуществом при отборе будет:
•Опыт работы с распределёнными хранилищами данных: Hadoop (Hive/Impala), GreenPlum, ClickHouse
•Опыт разработки пайплайнов на Apache Airflow
•Навыки оптимизации процессов SQL
•Опыт реализации RestAPI
⚖️ Условия работы и что мы можем предложить взамен:
•Место работы: удаленно
•Возможны различные варианты оформления
•Рассматриваются кандидаты в часовом поясе максимум +5 часов к МСК
•Обязательно наличие гражданства РФ
•Квартальные премии в размере 30% от квартального оклада
•ДМС со стоматологией
•Профессиональная и амбициозная команда
•Открытая корпоративная культура, атмосфера доверия и сотрудничества
•Драйв, высокие скорости, непосредственное влияние на результат
📲контакт: @Oskar17
#вакансия #инженер #engineer #DataEngineer #middle #machinelearning #Python #PostgreSQL #SQL #Redis #gitlab #работа #job #удаленно
Компания: Sever X
Формат: удаленно
Занятость: полная, 5/2
💵: от 250 000 руб.
🚀Отличная возможность для опытного Data Engineer реализовать и развить как технические компетенции, так и навыки коммуникации с бизнесом, лидерские качества, навыки формирования команды. С развитием проекта предполагается создание команды под себя, сейчас необходимо возглавить текущие задачи и реализовать их.
🗝задача: поддержка и развитие Data Lake и связанных с ним проектов
📍Основные обязанности
•Интеграция с источниками данных и построение ETL-процессов
•Разработка и поддержка аналитической отчётности системами и API
•Выявление и устранение аномалий в данных
•Взаимодействие с другими членами команды
🛠Стек:
Основной язык разработки – Python 3.8
Платформа разработки – Яндекс.Облако (Managed Services + виртуальные машины)
Хранилища данных – GreenPlum 6.2, PostgreSQL 14, Redis
Оркестратор процессов – Apache Airflow 2.0
Система управления версиями – GitLab
Контейнеризация приложений – Docker + k8s
📍Обязательные требования
•Уверенное владение SQL: базовый синтаксис, транзакции, представления, хранимые процедуры
•Опыт интеграции с различными источниками данных: файловые системы (локальные/ftp/sftp), API, SQL и NoSQL базы данных
•Понимание принципа работы распределённых баз данных
•Знание Python 3: модули pandas, pyodbc (либо другие модули, имплементирующие ODBC), paramiko, requests
•Базовые навыки использования Linux
🔥Преимуществом при отборе будет:
•Опыт работы с распределёнными хранилищами данных: Hadoop (Hive/Impala), GreenPlum, ClickHouse
•Опыт разработки пайплайнов на Apache Airflow
•Навыки оптимизации процессов SQL
•Опыт реализации RestAPI
⚖️ Условия работы и что мы можем предложить взамен:
•Место работы: удаленно
•Возможны различные варианты оформления
•Рассматриваются кандидаты в часовом поясе максимум +5 часов к МСК
•Обязательно наличие гражданства РФ
•Квартальные премии в размере 30% от квартального оклада
•ДМС со стоматологией
•Профессиональная и амбициозная команда
•Открытая корпоративная культура, атмосфера доверия и сотрудничества
•Драйв, высокие скорости, непосредственное влияние на результат
📲контакт: @Oskar17
Компания: Sever X
Формат: удаленно
Занятость: полная, 5/2
💵: от 250 000 руб.
🚀Отличная возможность для опытного Data Engineer реализовать и развить как технические компетенции, так и навыки коммуникации с бизнесом, лидерские качества, навыки формирования команды. С развитием проекта предполагается создание команды под себя, сейчас необходимо возглавить текущие задачи и реализовать их.
🗝задача: поддержка и развитие Data Lake и связанных с ним проектов
📍Основные обязанности
•Интеграция с источниками данных и построение ETL-процессов
•Разработка и поддержка аналитической отчётности системами и API
•Выявление и устранение аномалий в данных
•Взаимодействие с другими членами команды
🛠Стек:
Основной язык разработки – Python 3.8
Платформа разработки – Яндекс.Облако (Managed Services + виртуальные машины)
Хранилища данных – GreenPlum 6.2, PostgreSQL 14, Redis
Оркестратор процессов – Apache Airflow 2.0
Система управления версиями – GitLab
Контейнеризация приложений – Docker + k8s
📍Обязательные требования
•Уверенное владение SQL: базовый синтаксис, транзакции, представления, хранимые процедуры
•Опыт интеграции с различными источниками данных: файловые системы (локальные/ftp/sftp), API, SQL и NoSQL базы данных
•Понимание принципа работы распределённых баз данных
•Знание Python 3: модули pandas, pyodbc (либо другие модули, имплементирующие ODBC), paramiko, requests
•Базовые навыки использования Linux
🔥Преимуществом при отборе будет:
•Опыт работы с распределёнными хранилищами данных: Hadoop (Hive/Impala), GreenPlum, ClickHouse
•Опыт разработки пайплайнов на Apache Airflow
•Навыки оптимизации процессов SQL
•Опыт реализации RestAPI
⚖️ Условия работы и что мы можем предложить взамен:
•Место работы: удаленно
•Возможны различные варианты оформления
•Рассматриваются кандидаты в часовом поясе максимум +5 часов к МСК
•Обязательно наличие гражданства РФ
•Квартальные премии в размере 30% от квартального оклада
•ДМС со стоматологией
•Профессиональная и амбициозная команда
•Открытая корпоративная культура, атмосфера доверия и сотрудничества
•Драйв, высокие скорости, непосредственное влияние на результат
📲контакт: @Oskar17
#Вакансия #dataengineer #python #senior #гибрид #удаленнаяработа #офис
Должность: Senior DATA ENGINEER
Работодатель: сервис ЦИАН
Опыт: не менее 3 лет
Формат работы: офис (Москва/Санкт-Петербург), гибрид, удаленка (только РФ)
Заработная плата: обсуждается
Задачи:
- Работа над платформенным решением по обработке данных для внутренних проектов;
- Injection data (raw/parsed layers). Загружаем данные из kafka во внутреннее хранилище для пользователей;
- Airflow интеграция. Своя библиотека для унификации работы с airflow;
- Feature store. Развиваем свой для улучшения метрики ttm проектных команд (ds);
- Другие активности: data catalog, functional testing tool, миграция в k8s;
- Обработка данных и сбор статистики для продуктов команд;
- Подготовка данных для ML;
- Разработка streaming pipeline для продуктовых команд;
- Поддержка решения в PROD;
- Поддержка уже существующих решений.
Необходимые навыки:
- Hadoop от 3-х лет;
- HDFS (какие типы нод за что отвечают, как работает Erasure Coding);
- Spark 3, Python 3.9/3.10, Airflow 2.5, NoSQL DB (Redis, Cassandra), Kafka, Scala (есть небольшой процент задач по Spark Streaming).
Мы предлагаем:
- ДМС с первых дней работы (стоматология, госпитализация, полис ВЗР);
- Ежегодная компенсация спорта;
- 5 day off в год помимо основного отпуска.
Контакты: Юлия @jkomaroff_hr
Должность: Senior DATA ENGINEER
Работодатель: сервис ЦИАН
Опыт: не менее 3 лет
Формат работы: офис (Москва/Санкт-Петербург), гибрид, удаленка (только РФ)
Заработная плата: обсуждается
Задачи:
- Работа над платформенным решением по обработке данных для внутренних проектов;
- Injection data (raw/parsed layers). Загружаем данные из kafka во внутреннее хранилище для пользователей;
- Airflow интеграция. Своя библиотека для унификации работы с airflow;
- Feature store. Развиваем свой для улучшения метрики ttm проектных команд (ds);
- Другие активности: data catalog, functional testing tool, миграция в k8s;
- Обработка данных и сбор статистики для продуктов команд;
- Подготовка данных для ML;
- Разработка streaming pipeline для продуктовых команд;
- Поддержка решения в PROD;
- Поддержка уже существующих решений.
Необходимые навыки:
- Hadoop от 3-х лет;
- HDFS (какие типы нод за что отвечают, как работает Erasure Coding);
- Spark 3, Python 3.9/3.10, Airflow 2.5, NoSQL DB (Redis, Cassandra), Kafka, Scala (есть небольшой процент задач по Spark Streaming).
Мы предлагаем:
- ДМС с первых дней работы (стоматология, госпитализация, полис ВЗР);
- Ежегодная компенсация спорта;
- 5 day off в год помимо основного отпуска.
Контакты: Юлия @jkomaroff_hr