#вакансия #python #ML #DE #backend #senior #middle #москва
Компания: Цифровые поверхности Салют (SberDevices)
Локация: Москва
ЗП: 200-300k + премии
🚀 Мы разрабатываем виртуальных ассистентов, умные устройства (SberBox, SberPortal и др.) и сервисы для них
Платформенная команда SmartReccomedation Management Platform в поиске Middle+/ Senior Python Developer с функционалом DE
Smart RMP – команда, кроссфункционально решающая задачи рекомендаций для всех команд внутри SberDevices, включая экосистему Сбера для всех поверхностей девайсов (SberPortal, СберТВ, SberBox, СалютАпп и другие)
Что предстоит делать?
🔸разрабатывать, оптимизировать и сопровождать код внедрения ML моделей в промышленную среду, получать данные из Kafka/Rest API
🔸участвовать в проектировании архитектуры ML решений по отказоустойчивости, производительности и поддерживаемости микросервисов.
🔸разрабатывать API для интеграции с внутренними и внешними сервисами SberDevices
🔸поддерживать инженерную культуру на высоком уровне (Unit/Integration тесты, CodeReview, мониторинг, логгирование событий)
🔸работать в команде платформы рекомендательных систем с DS и командами сервисов-заказчиков рекомендаций
Мы ожидаем, что вы:
🔸имеете коммерческий опыт разработки Python 3 (async, SQL alchemy), SQL, Docker от 2-х лет
Будет плюсом: опыт работы с Python (aiohttp, uvicorn, torch), Spark, Kafka, Hadoop, HDFS, AirFlow, OpenShift, Kubernetes
Почему вам понравится работать у нас?
✔️талантливые и дружелюбные коллеги, эксперты своего дела, готовые помочь и словом, и делом
✔️ интересные задачи, возможность увидеть результаты своей работы, внедрёнными в продукт
✔️своя digital-платформа для развития ключевых IT-компетенций, внутренние и внешние конференции, проф. сообществах Сбера
✔️ в вашем распоряжении все необходимые инструменты, мощное оборудование
✔️ расширенная программа ДМС, пониженные ставки на кредит, ипотеку, скидки от компаний-партнёров
✔️ знаменитый офис на Кутузовском проспекте с парковкой, спортзалом, массажными креслами, возможность выбора формата работы
✔️атмосфера стартапа и надёжность гиганта
📲 CV/вопросы @karprokar
Компания: Цифровые поверхности Салют (SberDevices)
Локация: Москва
ЗП: 200-300k + премии
🚀 Мы разрабатываем виртуальных ассистентов, умные устройства (SberBox, SberPortal и др.) и сервисы для них
Платформенная команда SmartReccomedation Management Platform в поиске Middle+/ Senior Python Developer с функционалом DE
Smart RMP – команда, кроссфункционально решающая задачи рекомендаций для всех команд внутри SberDevices, включая экосистему Сбера для всех поверхностей девайсов (SberPortal, СберТВ, SberBox, СалютАпп и другие)
Что предстоит делать?
🔸разрабатывать, оптимизировать и сопровождать код внедрения ML моделей в промышленную среду, получать данные из Kafka/Rest API
🔸участвовать в проектировании архитектуры ML решений по отказоустойчивости, производительности и поддерживаемости микросервисов.
🔸разрабатывать API для интеграции с внутренними и внешними сервисами SberDevices
🔸поддерживать инженерную культуру на высоком уровне (Unit/Integration тесты, CodeReview, мониторинг, логгирование событий)
🔸работать в команде платформы рекомендательных систем с DS и командами сервисов-заказчиков рекомендаций
Мы ожидаем, что вы:
🔸имеете коммерческий опыт разработки Python 3 (async, SQL alchemy), SQL, Docker от 2-х лет
Будет плюсом: опыт работы с Python (aiohttp, uvicorn, torch), Spark, Kafka, Hadoop, HDFS, AirFlow, OpenShift, Kubernetes
Почему вам понравится работать у нас?
✔️талантливые и дружелюбные коллеги, эксперты своего дела, готовые помочь и словом, и делом
✔️ интересные задачи, возможность увидеть результаты своей работы, внедрёнными в продукт
✔️своя digital-платформа для развития ключевых IT-компетенций, внутренние и внешние конференции, проф. сообществах Сбера
✔️ в вашем распоряжении все необходимые инструменты, мощное оборудование
✔️ расширенная программа ДМС, пониженные ставки на кредит, ипотеку, скидки от компаний-партнёров
✔️ знаменитый офис на Кутузовском проспекте с парковкой, спортзалом, массажными креслами, возможность выбора формата работы
✔️атмосфера стартапа и надёжность гиганта
📲 CV/вопросы @karprokar
#вакансия #job #DE #data_engineer #remote #fulltime #relocation
Вакансия: Data Engineer (Senior/ TL);
Локация: Ереван, Армения
Формат работы: гибрид;
ЗП: от 5000$ на руки и выше в зависимости от вашего уровня +бонусы;
Контакт: @olga_chr
Привет! В крупную международную FMCG компанию, лидера рынка, ищем Senior/Lead Data Engineer. Мы - одно из самых крупных представительств в мире, активно развивающее R&D лабораторию, чтобы делать жизнь наших потребителей лучше. Приглашаем вас присоединиться к нашей команде специалистов в Армении. В рамках интеграции данных продукта, вы будете разрабатывать решения для баз данных, техническое проектирование, архитектуру и осуществлять поддержку для реализации разработки корпоративных баз данных.
Условия:
- Гибридный график работы, гибкое начало дня;
- ЗП по результатам собеседования, премии за эффективную работу и результат;
- Релокационный пакет: оплата перелета, оплата жилья на время поисков, помощь с поиском садика/школы для детей;
- Нестандартные задачи, которые требуют креатива и новых подходов;
- Современный стек и гибкие методологии разработки, работа в команде высококлассных профессионалов из разных технологических областей;
- Комфортный офис со всем необходимым;
- Возможность обучения и участия в жизни IT-сообщества: большой выбор курсов в нашем корпоративном университете, посещение митапов, конференций;
- Корпоративные льготы: ДМС, большой выбор внутренних спортивных секций, скидки у партнеров.
Стек: SQL, Python, Scala, Spark, AWS, Airflow, Hadoop, Snowflake, Docker, Git, Jenkins.
Обязанности:
• Разработка и внедрение программных решений;
• Определение структурных требований к базе данных путем анализа клиентских процессов, приложений;
• Разработка решений для баз данных путем создания и моделирования предлагаемой системы;
• Планирование и проведение проектов, связанных с базами данных /программным обеспечением, от концепции до эффективных решений для конечных пользователей;
• Работа над проектами по разработке аналитики данных, требующих внешнего сотрудничества для предоставления необходимых услуг и продуктов в соответствии со сроками и уровнями качества, необходимыми для разработки RRP;
• Разработка, внедрение и управление средами быстрого прототипирования, обеспечивающими оперативную интеграцию и последующий анализ новых требуемых наборов данных.
Эта позиция для вас, если у вас есть:
• Коммерческий опыт работы в роли инженера данных от 3 лет;
• Высшее образование в области компьютерных наук, обработки данных или компьютерной инженерии;
• Хорошее понимание жизненного цикла систем и программного обеспечения;
• Опыт в разработке точных технических рекомендаций, альтернатив и улучшений;
• Уверенное владение английским языком.
Присылайте ваше CV и вопросы в телеграм @olga_chr
Вакансия: Data Engineer (Senior/ TL);
Локация: Ереван, Армения
Формат работы: гибрид;
ЗП: от 5000$ на руки и выше в зависимости от вашего уровня +бонусы;
Контакт: @olga_chr
Привет! В крупную международную FMCG компанию, лидера рынка, ищем Senior/Lead Data Engineer. Мы - одно из самых крупных представительств в мире, активно развивающее R&D лабораторию, чтобы делать жизнь наших потребителей лучше. Приглашаем вас присоединиться к нашей команде специалистов в Армении. В рамках интеграции данных продукта, вы будете разрабатывать решения для баз данных, техническое проектирование, архитектуру и осуществлять поддержку для реализации разработки корпоративных баз данных.
Условия:
- Гибридный график работы, гибкое начало дня;
- ЗП по результатам собеседования, премии за эффективную работу и результат;
- Релокационный пакет: оплата перелета, оплата жилья на время поисков, помощь с поиском садика/школы для детей;
- Нестандартные задачи, которые требуют креатива и новых подходов;
- Современный стек и гибкие методологии разработки, работа в команде высококлассных профессионалов из разных технологических областей;
- Комфортный офис со всем необходимым;
- Возможность обучения и участия в жизни IT-сообщества: большой выбор курсов в нашем корпоративном университете, посещение митапов, конференций;
- Корпоративные льготы: ДМС, большой выбор внутренних спортивных секций, скидки у партнеров.
Стек: SQL, Python, Scala, Spark, AWS, Airflow, Hadoop, Snowflake, Docker, Git, Jenkins.
Обязанности:
• Разработка и внедрение программных решений;
• Определение структурных требований к базе данных путем анализа клиентских процессов, приложений;
• Разработка решений для баз данных путем создания и моделирования предлагаемой системы;
• Планирование и проведение проектов, связанных с базами данных /программным обеспечением, от концепции до эффективных решений для конечных пользователей;
• Работа над проектами по разработке аналитики данных, требующих внешнего сотрудничества для предоставления необходимых услуг и продуктов в соответствии со сроками и уровнями качества, необходимыми для разработки RRP;
• Разработка, внедрение и управление средами быстрого прототипирования, обеспечивающими оперативную интеграцию и последующий анализ новых требуемых наборов данных.
Эта позиция для вас, если у вас есть:
• Коммерческий опыт работы в роли инженера данных от 3 лет;
• Высшее образование в области компьютерных наук, обработки данных или компьютерной инженерии;
• Хорошее понимание жизненного цикла систем и программного обеспечения;
• Опыт в разработке точных технических рекомендаций, альтернатив и улучшений;
• Уверенное владение английским языком.
Присылайте ваше CV и вопросы в телеграм @olga_chr
#работа #вакансия #job #vacancy #fulltime #удаленка #офис #remote #SQL #DE #Python #PySpark #Airflow #Data
Data engineer в Aston на проект платформы, которая распределяет работу между сотнями исполнителей.
Требования:
-Опыт работы в роли Data Engineer от 2\3-х лет;
-Хорошее знание Python и SQL
-Практический опыт решения алгоритмических задач
Будет плюсом:
-Знание PySpark
-Опыт работы с Databricks из Airflow
-Опыт работы с Airflow
-Знание Bash, Docker
-Высшее математическое или физико-математическое образование
Условия:
- работа удаленно или в офисе, фултайм
- система менторства и адаптации (куратор, четкий план роста, своя школа архитекторов,
а также корпоративный обучающий портал для любого стека вашей специализации)
- возможность выбора/смены проекта
- медицинское страхование (+стоматология)
- возможность доп заработка через участие в активностях компании
- компенсация спорта и англ языка
- помощь в отсрочке (входим в РФ реестр ИТ-компаний)
- ЗП на руки 150-240к ₽ и более
Контакт для связи Ян @job_accelerator
Data engineer в Aston на проект платформы, которая распределяет работу между сотнями исполнителей.
Требования:
-Опыт работы в роли Data Engineer от 2\3-х лет;
-Хорошее знание Python и SQL
-Практический опыт решения алгоритмических задач
Будет плюсом:
-Знание PySpark
-Опыт работы с Databricks из Airflow
-Опыт работы с Airflow
-Знание Bash, Docker
-Высшее математическое или физико-математическое образование
Условия:
- работа удаленно или в офисе, фултайм
- система менторства и адаптации (куратор, четкий план роста, своя школа архитекторов,
а также корпоративный обучающий портал для любого стека вашей специализации)
- возможность выбора/смены проекта
- медицинское страхование (+стоматология)
- возможность доп заработка через участие в активностях компании
- компенсация спорта и англ языка
- помощь в отсрочке (входим в РФ реестр ИТ-компаний)
- ЗП на руки 150-240к ₽ и более
Контакт для связи Ян @job_accelerator
Всем привет!
Мы в Okko расширяем департамент анализа данных. Сейчас в команде больше 50 человек, мы продолжаем расти, совершенствуя работу с данными, в т.ч. рекомендательную систему. Поэтому ищем близких по духу людей, вместе с которыми создадим принципиально новый подход к зрительскому опыту.
Мы ждем Data Scientists, Data Analysts, Data Engineers, Python Developers и т.д. уровня middle+/senior. Можно выбрать направление – «Платформа экспериментов», «Рекомендации», «Поиск», «Монетизация», «Growth», «Контент», «Техническая команда».
Сделали страничку со всеми подробностями, там же можно откликнуться на понравившуюся вакансию: https://analytics.okko.tv/
Ждем твой отклик
#data #datascientists #dataanalysts #dataengineers #ds #da #de #ml #recsys #recommendations #search #datadriven #AB #growth #okko
Мы в Okko расширяем департамент анализа данных. Сейчас в команде больше 50 человек, мы продолжаем расти, совершенствуя работу с данными, в т.ч. рекомендательную систему. Поэтому ищем близких по духу людей, вместе с которыми создадим принципиально новый подход к зрительскому опыту.
Мы ждем Data Scientists, Data Analysts, Data Engineers, Python Developers и т.д. уровня middle+/senior. Можно выбрать направление – «Платформа экспериментов», «Рекомендации», «Поиск», «Монетизация», «Growth», «Контент», «Техническая команда».
Сделали страничку со всеми подробностями, там же можно откликнуться на понравившуюся вакансию: https://analytics.okko.tv/
Ждем твой отклик
#data #datascientists #dataanalysts #dataengineers #ds #da #de #ml #recsys #recommendations #search #datadriven #AB #growth #okko
analytics.okko.tv
Okko Analytics
Стань частью команды Okko
#вакансия #DWH #ETL #DE #middle #удаленка #job #remote
Data Engineer/ETL Engineer
Компания: ГК “Альфа”
Современная и развивающаяся компания, которая занимает лидирующие позиции на рынке грузовой и спецтехники.
Занимаемся продажей, ремонтом и обслуживанием коммерческого транспорта.
Уровень: middle
Вилка: 160-250 т.р gross
Формат: удаленно (только РФ)
Занятость: полная
Задачи:
- Реализация платформы данных и инструментария для работы продуктовых аналитиков, а также построение витрин данных;
- Построение надежных и оптимальных пайплайнов обработки данных;
- Интеграции с новыми источниками данных;
- Оптимизация вычислений.
Требования:
- Знание Python (pandas, numpy, jupyter notebook, PyCharm);
- Знание SQL (ClickHouse, MS SQL Server);
- Понимание принципов построения DWH;
- Опыт работы со стеком Big Data (Hadoop, Spark);
- Опыт работы с Airflow;
- Знание Git систем;
- Высшее техническое образование.
Условия:
- Официальное трудоустройство в соответствии с ТК РФ;
- Аккредитованная IT-компания;
- Предоставляется современная техника для работы;
- Корпоративная сотовая связь;
- Корпоративное обучение английскому языку;
- Скидки в популярные фитнес-центры и медицинские учреждения;
- Специальные условия обслуживания и кредитования в банках;
Контакты: tg @kaaimejou
Не забудь уточнить, что ты из @datasciencejobs
Data Engineer/ETL Engineer
Компания: ГК “Альфа”
Современная и развивающаяся компания, которая занимает лидирующие позиции на рынке грузовой и спецтехники.
Занимаемся продажей, ремонтом и обслуживанием коммерческого транспорта.
Уровень: middle
Вилка: 160-250 т.р gross
Формат: удаленно (только РФ)
Занятость: полная
Задачи:
- Реализация платформы данных и инструментария для работы продуктовых аналитиков, а также построение витрин данных;
- Построение надежных и оптимальных пайплайнов обработки данных;
- Интеграции с новыми источниками данных;
- Оптимизация вычислений.
Требования:
- Знание Python (pandas, numpy, jupyter notebook, PyCharm);
- Знание SQL (ClickHouse, MS SQL Server);
- Понимание принципов построения DWH;
- Опыт работы со стеком Big Data (Hadoop, Spark);
- Опыт работы с Airflow;
- Знание Git систем;
- Высшее техническое образование.
Условия:
- Официальное трудоустройство в соответствии с ТК РФ;
- Аккредитованная IT-компания;
- Предоставляется современная техника для работы;
- Корпоративная сотовая связь;
- Корпоративное обучение английскому языку;
- Скидки в популярные фитнес-центры и медицинские учреждения;
- Специальные условия обслуживания и кредитования в банках;
Контакты: tg @kaaimejou
Не забудь уточнить, что ты из @datasciencejobs
#работа #вакансия #удаленно #de #senior
Компания Excdev в поиске Senior Data Engineer/Data Analyst
Удаленный график работы из любой точки мира,зарплатная плата 200-300 тысяч рублей на руки.
Чем предстоит заниматься:
-Разработка хранилищ данных, витрин данных;
-Проектирование, разработка и поддержка ETL-процессов;
-Разработка визуализации данных и отчетности;
-Контроль качества загружаемых данных;
-Интеграция новых источников;
Наши ожидания от кандидата:
- Высшее математическое или техническое образование (компьютерные науки, инженерия, статистика, математика или смежные области)
- Минимум 3 года опыта работы в управлении данными, инжиниринге данных или анализе данных в сфере веб и/или мобильных продуктов
- Практические знания в областях хранения данных, моделирования, управления и визуализации данных, опыт работы со следующими инструментами Airflow, DBT, Clickhouse, Superset, Postgre
- Успешный опыт работы с извлечением и обработкой данных из разных источников для коммерческой ценности
- Опыт работы(настройка и интеграция) с трекерами типа Google Analytics, Branch, AppMetrica, Adjust, AppsFlyer, Binom (поп-ап реклама) и т.п.
Будет огромным плюсом:
- Опыт работы со SkadNetwork iOS и понимание принципов работы с агрегированными данными.
- Опыт настройки и ведения рекламных кампаний в источниках типа Meta, Google Ads, Tiktok и т.п.
- Опыт работы с Tableau, Google Looker или подобных им.
Контакт для связи: @valenti_sh
Не забудьте уточнить, что вы из @datasciencejobs
Компания Excdev в поиске Senior Data Engineer/Data Analyst
Удаленный график работы из любой точки мира,зарплатная плата 200-300 тысяч рублей на руки.
Чем предстоит заниматься:
-Разработка хранилищ данных, витрин данных;
-Проектирование, разработка и поддержка ETL-процессов;
-Разработка визуализации данных и отчетности;
-Контроль качества загружаемых данных;
-Интеграция новых источников;
Наши ожидания от кандидата:
- Высшее математическое или техническое образование (компьютерные науки, инженерия, статистика, математика или смежные области)
- Минимум 3 года опыта работы в управлении данными, инжиниринге данных или анализе данных в сфере веб и/или мобильных продуктов
- Практические знания в областях хранения данных, моделирования, управления и визуализации данных, опыт работы со следующими инструментами Airflow, DBT, Clickhouse, Superset, Postgre
- Успешный опыт работы с извлечением и обработкой данных из разных источников для коммерческой ценности
- Опыт работы(настройка и интеграция) с трекерами типа Google Analytics, Branch, AppMetrica, Adjust, AppsFlyer, Binom (поп-ап реклама) и т.п.
Будет огромным плюсом:
- Опыт работы со SkadNetwork iOS и понимание принципов работы с агрегированными данными.
- Опыт настройки и ведения рекламных кампаний в источниках типа Meta, Google Ads, Tiktok и т.п.
- Опыт работы с Tableau, Google Looker или подобных им.
Контакт для связи: @valenti_sh
Не забудьте уточнить, что вы из @datasciencejobs
#вакансия #DataEngineer #medtech #DE #удалённо
Вакансия: Data Engineer (Big Data)
Формат: удалённо на территории РФ
ЗП: до 230k net
Занятость: полная
еАптека – сервис для покупки лекарств и товаров для здоровья.
Наша команда разрабатывает, эксплуатирует и расширяет инфраструктуру Data Lake/Data Driven, позволяя Компании принимать обоснованные аналитические и технологические решения для высоконагруженных технологических процессов.
Чем предстоит заниматься:
- Управлять и настраивать инфраструктуру обработки данных для ML, аналитики и обслуживания пользователей;
- Разрабатывать процессы и интерфейсы обработки данных, полученных из исходных источников продукта (MSSQL, MySQL, PostgreSQL), S3 и API, обработка событий из Kafka;
- Настройка, оптимизация, обновление и контроль качества данных;
- Подготовка и настройка окружений для DS.
Наши технологии и необходимый опыт работы:
YC, S3, Spark, Kafka, Airflow, Debezium, Airbyte, Prometheus, Grafana, GitLab.
- Python на уровне middle+ или senior (будет плюсом Scala, Golang);
- k8s на уровне пользователя (будет преимуществом);
- Опыт обработки высоконагруженных потоков данных от 3х лет.
Что мы предлагаем:
- Работа в аккредитованной ИТ компании;
- График работы 5/2, с гибким началом рабочего дня с 8:00 - 10:00;
- Трудоустройство по ТК РФ;
- ДМС со стоматологией;
- Пополняемая коллекция профессиональной литературы, оплата посещения профильных конференций, системное обучение и Виртуальная и виртуальная школа Сбербанка;
- Современная техника;
- Корпоративные мероприятия и тимбилдинги.
📩 Контакт: @Uliana_eApteka
👉 Не забудьте уточнить, что вы из @datasciencejobs
Вакансия: Data Engineer (Big Data)
Формат: удалённо на территории РФ
ЗП: до 230k net
Занятость: полная
еАптека – сервис для покупки лекарств и товаров для здоровья.
Наша команда разрабатывает, эксплуатирует и расширяет инфраструктуру Data Lake/Data Driven, позволяя Компании принимать обоснованные аналитические и технологические решения для высоконагруженных технологических процессов.
Чем предстоит заниматься:
- Управлять и настраивать инфраструктуру обработки данных для ML, аналитики и обслуживания пользователей;
- Разрабатывать процессы и интерфейсы обработки данных, полученных из исходных источников продукта (MSSQL, MySQL, PostgreSQL), S3 и API, обработка событий из Kafka;
- Настройка, оптимизация, обновление и контроль качества данных;
- Подготовка и настройка окружений для DS.
Наши технологии и необходимый опыт работы:
YC, S3, Spark, Kafka, Airflow, Debezium, Airbyte, Prometheus, Grafana, GitLab.
- Python на уровне middle+ или senior (будет плюсом Scala, Golang);
- k8s на уровне пользователя (будет преимуществом);
- Опыт обработки высоконагруженных потоков данных от 3х лет.
Что мы предлагаем:
- Работа в аккредитованной ИТ компании;
- График работы 5/2, с гибким началом рабочего дня с 8:00 - 10:00;
- Трудоустройство по ТК РФ;
- ДМС со стоматологией;
- Пополняемая коллекция профессиональной литературы, оплата посещения профильных конференций, системное обучение и Виртуальная и виртуальная школа Сбербанка;
- Современная техника;
- Корпоративные мероприятия и тимбилдинги.
📩 Контакт: @Uliana_eApteka
👉 Не забудьте уточнить, что вы из @datasciencejobs
#вакансия #vacancy #DE #DWH #SQL #Python #fulltime #middle #senior #Tinkoff
Компания: Тинькофф
Вакансия: Data engineer
Грейд: Middle и Senior
Занятость: Full-Time
Локация: Россия, Беларусь, Казахстан, Армения (гибрид или удаленно — по договоренности)
Вилка: 150 000—400 000 ₽
Мы ищем в команду дата-инженера. В Тинькофф можно развиваться в одном из двух направлений — системном анализе или ETL-разработке. Или совмещать их, если интересны оба. У нас большое и продвинутое хранилище данных: это 8000 объектов, более 6 000 000 SQL-запросов в сутки, 800 ТБ в Greenplum и 110 ТБ в Clickhouse 🙂
🔸Вы будете:
- Участвовать в формировании модели данных
- Проектировать и разрабатывать витрины и потоки данных на основе потребностей бизнес-пользователей
- Участвовать в проектах по развитию нашей Data Platform
- Писать скрипты SQL и Python, это опционально
- Прорабатывать интеграции с внешними системами для Data Platform
🔸Мы ждем от вас:
- Свободное владение SQL
- Опыт работы с базами данных в качестве аналитика или разработчика как минимум 2 года
- Понимание теории СУБД- и ETL-процессов
- Опыт проектирования объектов БД на основании бизнес-требований
🔸Мы предлагаем:
- Возможность работать в аккредитованной ИТ-компании
- Платформу обучения и развития «Тинькофф Апгрейд». Курсы, тренинги, вебинары и базы знаний по различным направлениям
- ДМС со стоматологией и страховку от несчастных случаев + льготное страхование вашим близким
- Частичную компенсацию затрат на спорт
- Три дополнительных дня отпуска в год
Резюме и вопросы: @angel_gilmutdinova
👉 Не забудьте уточнить, что вы из @datasciencejobs
Компания: Тинькофф
Вакансия: Data engineer
Грейд: Middle и Senior
Занятость: Full-Time
Локация: Россия, Беларусь, Казахстан, Армения (гибрид или удаленно — по договоренности)
Вилка: 150 000—400 000 ₽
Мы ищем в команду дата-инженера. В Тинькофф можно развиваться в одном из двух направлений — системном анализе или ETL-разработке. Или совмещать их, если интересны оба. У нас большое и продвинутое хранилище данных: это 8000 объектов, более 6 000 000 SQL-запросов в сутки, 800 ТБ в Greenplum и 110 ТБ в Clickhouse 🙂
🔸Вы будете:
- Участвовать в формировании модели данных
- Проектировать и разрабатывать витрины и потоки данных на основе потребностей бизнес-пользователей
- Участвовать в проектах по развитию нашей Data Platform
- Писать скрипты SQL и Python, это опционально
- Прорабатывать интеграции с внешними системами для Data Platform
🔸Мы ждем от вас:
- Свободное владение SQL
- Опыт работы с базами данных в качестве аналитика или разработчика как минимум 2 года
- Понимание теории СУБД- и ETL-процессов
- Опыт проектирования объектов БД на основании бизнес-требований
🔸Мы предлагаем:
- Возможность работать в аккредитованной ИТ-компании
- Платформу обучения и развития «Тинькофф Апгрейд». Курсы, тренинги, вебинары и базы знаний по различным направлениям
- ДМС со стоматологией и страховку от несчастных случаев + льготное страхование вашим близким
- Частичную компенсацию затрат на спорт
- Три дополнительных дня отпуска в год
Резюме и вопросы: @angel_gilmutdinova
👉 Не забудьте уточнить, что вы из @datasciencejobs
#вакансия #удаленно #dataengineer #de #spark #databricks #kafka #
Ищем Data Engineer на проектную занятость в Dodo Engineering (возможен неполный рабочий день)
Компания: Dodo Engineering
Локация: Remote
Должность: Data Engineer (middle+/senior/lead)
Занятость: проектная, на 3-6 месяцев, возможен вариант на неполный рабочий день (4 часа).
Вилка: 350 000 - 500 000 р
Формат: ГПХ\ИП
О команде
Мы разрабатываем платформу данных для it команд в Dodo. На данный момент перед нами стоит амбициозная задача по оптимизации затрат на дата платформу, поэтому в усиление нашей команде ищем на проектную занятость data engineer. Срок проекта - 3-6 месяцев.
Мы ищем коллегу с бэкграундом в разработке, уверенным знанием Spark, Spark SQL. Если работали с databricks — будет большой плюс.
Наш стек технологий:
У нас современная платформа, которая базируется на облачных сервисах Azure Databricks. Данные загружаем с помощью debezium или принимаем события в Event Hub (Kafka). Храним в Delta Lake, всё раскладываем по слоям и Data Vault. Витрины храним в Kusto, а визуализация в Superset. Основной язык — python.
Чем предстоит заниматься:
- Оптимизация витрин, помощь другим командам в работе с данными и нашим инструментом
- Оптимизация процессов в databricks для снижения затрат на compute и storage
- Развертывание и обслуживание data сервисов
Требования:
- Уверенное владение одним из языков программирования: Python, Scala, Java.
- Построение пайплайнов данных с мониторингом и логированием; опыт в оптимизации/изменении существующих пайплайнов.
- Spark, Spark Streaming (у нас Structured Streaming)
- Желателен опыт оптимизации аналитического кода
Отправить резюме и задать вопросы можно тут: @AKoronnova
👉 Не забудьте уточнить, что вы из @datasciencejobs
Ищем Data Engineer на проектную занятость в Dodo Engineering (возможен неполный рабочий день)
Компания: Dodo Engineering
Локация: Remote
Должность: Data Engineer (middle+/senior/lead)
Занятость: проектная, на 3-6 месяцев, возможен вариант на неполный рабочий день (4 часа).
Вилка: 350 000 - 500 000 р
Формат: ГПХ\ИП
О команде
Мы разрабатываем платформу данных для it команд в Dodo. На данный момент перед нами стоит амбициозная задача по оптимизации затрат на дата платформу, поэтому в усиление нашей команде ищем на проектную занятость data engineer. Срок проекта - 3-6 месяцев.
Мы ищем коллегу с бэкграундом в разработке, уверенным знанием Spark, Spark SQL. Если работали с databricks — будет большой плюс.
Наш стек технологий:
У нас современная платформа, которая базируется на облачных сервисах Azure Databricks. Данные загружаем с помощью debezium или принимаем события в Event Hub (Kafka). Храним в Delta Lake, всё раскладываем по слоям и Data Vault. Витрины храним в Kusto, а визуализация в Superset. Основной язык — python.
Чем предстоит заниматься:
- Оптимизация витрин, помощь другим командам в работе с данными и нашим инструментом
- Оптимизация процессов в databricks для снижения затрат на compute и storage
- Развертывание и обслуживание data сервисов
Требования:
- Уверенное владение одним из языков программирования: Python, Scala, Java.
- Построение пайплайнов данных с мониторингом и логированием; опыт в оптимизации/изменении существующих пайплайнов.
- Spark, Spark Streaming (у нас Structured Streaming)
- Желателен опыт оптимизации аналитического кода
Отправить резюме и задать вопросы можно тут: @AKoronnova
👉 Не забудьте уточнить, что вы из @datasciencejobs
#вакансия #remote #middle #de #da #etl #postgresql #clickhouse #dbt
Компания Excdev в поиске Middle Data Engineer/Data Analyst
Удаленный график работы из любой точки мира,зарплатная плата 200-250 тысяч рублей на руки.
Задачи:
- Разработка хранилищ данных, витрин данных;
- Проектирование, разработка и поддержка ETL-процессов;
- Разработка визуализации данных и отчетности;
- Контроль качества загружаемых данных;
- Интеграция новых источников;
Вы идеальны, если:
- Высшее математическое или техническое образование (компьютерные науки, инженерия, статистика, математика или смежные области)
- Минимум 3 года опыта работы в управлении данными, инжиниринге данных или анализе данных в сфере веб и/или мобильных продуктов
- Практические знания в областях хранения данных, моделирования, управления и визуализации данных, опыт работы со следующими инструментами Airflow, DBT, Clickhouse, Superset, Postgre
- Успешный опыт работы с извлечением и обработкой данных из разных источников для коммерческой ценности
- Опыт работы(настройка и интеграция) с трекерами типа Google Analytics, Branch, AppMetrica, Adjust, AppsFlyer, Binom (поп-ап реклама) и т.п.
Будет огромным плюсом:
- Опыт работы со SkadNetwork iOS и понимание принципов работы с агрегированными данными.
- Опыт настройки и ведения рекламных кампаний в источниках типа Meta, Google Ads, Tiktok и т.п.
- Опыт работы с Tableau, Google Looker или подобных им.
Контакт для связи в тг: @valenti_sh
Компания Excdev в поиске Middle Data Engineer/Data Analyst
Удаленный график работы из любой точки мира,зарплатная плата 200-250 тысяч рублей на руки.
Задачи:
- Разработка хранилищ данных, витрин данных;
- Проектирование, разработка и поддержка ETL-процессов;
- Разработка визуализации данных и отчетности;
- Контроль качества загружаемых данных;
- Интеграция новых источников;
Вы идеальны, если:
- Высшее математическое или техническое образование (компьютерные науки, инженерия, статистика, математика или смежные области)
- Минимум 3 года опыта работы в управлении данными, инжиниринге данных или анализе данных в сфере веб и/или мобильных продуктов
- Практические знания в областях хранения данных, моделирования, управления и визуализации данных, опыт работы со следующими инструментами Airflow, DBT, Clickhouse, Superset, Postgre
- Успешный опыт работы с извлечением и обработкой данных из разных источников для коммерческой ценности
- Опыт работы(настройка и интеграция) с трекерами типа Google Analytics, Branch, AppMetrica, Adjust, AppsFlyer, Binom (поп-ап реклама) и т.п.
Будет огромным плюсом:
- Опыт работы со SkadNetwork iOS и понимание принципов работы с агрегированными данными.
- Опыт настройки и ведения рекламных кампаний в источниках типа Meta, Google Ads, Tiktok и т.п.
- Опыт работы с Tableau, Google Looker или подобных им.
Контакт для связи в тг: @valenti_sh