#вакансия #job #remote #parttime #educator #преподаватель #dataengineer #ckickhouse #databasearchitect #database #sql
Всем привет! 👋🏻 Время делиться знаниями! 🔥
Компания: OTUS — образовательная платформа. За 6 лет работы мы создали более 130 авторских курсов для IT-специалистов разного уровня от Junior до Senior. У нас есть вступительное тестирование для студентов и 650+ преподавателей-практиков из крупнейших компаний. Мы учимся друг у друга, советуемся, помогаем, делимся опытом и обсуждаем новости как в преподавании, так и в IT.
Вакансия: преподаватель онлайн-курса «Clickhouse для инженеров и архитекторов БД» с опытом работы с Clickhouse от 3-x лет.
👨🏫 Опыт преподавания также будет плюсом, но это совсем необязательно. Мы с удовольствием поможем Вам освоить Best Practices преподавания: для этого у нас есть вводный курс по преподаванию и пробные уроки с методистом.
Преподаватель раскрывает тему с помощью теории и примеров из практики.
Можно выбрать комфортную нагрузку и интересные Вам темы занятий.
Условия:
✅ удаленное сотрудничество, занятость part-time.
✅стандартное занятие длится 1,5 часа с 20:00 до 21:30 по МСК.
✅ уроки проводятся в онлайн формате в Zoom.
✅ на занятиях используется презентация с теорией и практические примеры, чтобы раскрыть тему урока.
✅ наши методисты помогают освоить лучшие инструменты и практики преподавания.
Еще Вы сможете:
✅ внести свой вклад в развитие IT
✅ структурировать свой опыт и знания.
✅ развивать личный бренд.
✅ прокачать софт-скиллы.
✅ получать от 3000 руб. за один вебинар (полтора часа) + отдельно оплачивается проверка ДЗ и разработка материалов к занятиям.
Бонусы 🎁
✅ наши курсы со скидкой/бесплатно.
✅ возможность приглашать в свою команду на работу лучших выпускников.
✅ воркшопы и конференции для наших преподавателей.
Подробнее в telegram: @ElenaAlias
Всем привет! 👋🏻 Время делиться знаниями! 🔥
Компания: OTUS — образовательная платформа. За 6 лет работы мы создали более 130 авторских курсов для IT-специалистов разного уровня от Junior до Senior. У нас есть вступительное тестирование для студентов и 650+ преподавателей-практиков из крупнейших компаний. Мы учимся друг у друга, советуемся, помогаем, делимся опытом и обсуждаем новости как в преподавании, так и в IT.
Вакансия: преподаватель онлайн-курса «Clickhouse для инженеров и архитекторов БД» с опытом работы с Clickhouse от 3-x лет.
👨🏫 Опыт преподавания также будет плюсом, но это совсем необязательно. Мы с удовольствием поможем Вам освоить Best Practices преподавания: для этого у нас есть вводный курс по преподаванию и пробные уроки с методистом.
Преподаватель раскрывает тему с помощью теории и примеров из практики.
Можно выбрать комфортную нагрузку и интересные Вам темы занятий.
Условия:
✅ удаленное сотрудничество, занятость part-time.
✅стандартное занятие длится 1,5 часа с 20:00 до 21:30 по МСК.
✅ уроки проводятся в онлайн формате в Zoom.
✅ на занятиях используется презентация с теорией и практические примеры, чтобы раскрыть тему урока.
✅ наши методисты помогают освоить лучшие инструменты и практики преподавания.
Еще Вы сможете:
✅ внести свой вклад в развитие IT
✅ структурировать свой опыт и знания.
✅ развивать личный бренд.
✅ прокачать софт-скиллы.
✅ получать от 3000 руб. за один вебинар (полтора часа) + отдельно оплачивается проверка ДЗ и разработка материалов к занятиям.
Бонусы 🎁
✅ наши курсы со скидкой/бесплатно.
✅ возможность приглашать в свою команду на работу лучших выпускников.
✅ воркшопы и конференции для наших преподавателей.
Подробнее в telegram: @ElenaAlias
#вакансия #vacancy #удаленка #разработчик #dataengineer #etlengineer #sql #датаинженер
Всем привет! РА HEAAD ищем data инженера в стабильную и современную компанию, которая занимает лидирующие позиции на рынке грузовой и спецтехники. Основная цель - помощь бизнесу в принятии решений на основе имеющихся данных, выявляя в них факты и тенденции.
Вилка: до 160 000р на руки
Формат: удаленно
Локация: любая
Занятость: полная
Обязанности:
- Реализация платформы данных и инструментария для работы продуктовых аналитиков, а также построение витрин данных;
- Построение надежных и оптимальных пайплайнов обработки данных;
- Интеграции с новыми источниками данных;
- Оптимизация вычислений.
Требования:
-Умение общаться с бизнес-аналитиками. Говорить просто о сложном;
- Умение предложить свой вариант решения задачи, если такое требуется;
-Умение проверять качество данных во время выполнения задач;
- Стремление понять природу набора данных, а не просто работать с "таблицей из строк и столбцов"
Условия: - Официальное трудоустройство в соответствии с ТК РФ; - Аккредитованная IT-компания; - Предоставляется современная техника для работы; - Удаленная работа; - Корпоративная сотовая связь; - Корпоративное обучение английскому языку; - Скидки в популярные фитнес-центры и медицинские учреждения; - Специальные условия обслуживания и кредитования в банках.
Контакты @mvcamus
Всем привет! РА HEAAD ищем data инженера в стабильную и современную компанию, которая занимает лидирующие позиции на рынке грузовой и спецтехники. Основная цель - помощь бизнесу в принятии решений на основе имеющихся данных, выявляя в них факты и тенденции.
Вилка: до 160 000р на руки
Формат: удаленно
Локация: любая
Занятость: полная
Обязанности:
- Реализация платформы данных и инструментария для работы продуктовых аналитиков, а также построение витрин данных;
- Построение надежных и оптимальных пайплайнов обработки данных;
- Интеграции с новыми источниками данных;
- Оптимизация вычислений.
Требования:
-Умение общаться с бизнес-аналитиками. Говорить просто о сложном;
- Умение предложить свой вариант решения задачи, если такое требуется;
-Умение проверять качество данных во время выполнения задач;
- Стремление понять природу набора данных, а не просто работать с "таблицей из строк и столбцов"
Условия: - Официальное трудоустройство в соответствии с ТК РФ; - Аккредитованная IT-компания; - Предоставляется современная техника для работы; - Удаленная работа; - Корпоративная сотовая связь; - Корпоративное обучение английскому языку; - Скидки в популярные фитнес-центры и медицинские учреждения; - Специальные условия обслуживания и кредитования в банках.
Контакты @mvcamus
#вакансия #vacancy #ищу #job #dataengineer #senior #remote #удаленно
Компания: Sotex Solution
Локация: Москва
Должность: Data Engineer
Формат работы: Part - time, Удалённая работа
Вилка: от 2000 рублей / час (обсуждается индивидуально).
О нас:
Мы —it компания " Sotex Solution ", занимающаяся разработкой озера данных для небольшой телекоммуникационной компании.
Ищем в команду Data Engineer'а преимущественно Senior уровня, для усиления команды проекта.
Обязанности:
- Разрабатывать ETL-процессы поставки данных;
- Находить и устранять неэффективность в существующих процессах и оптимизировать их;
- Разрабатывать структуры хранения данных;
- Создавать витрины данных.
Чего ждём от кандидата:
— Опыт промышленной разработки на Python/ Java от 2-х лет;
— Уверенное знание SQL;
- Знание основных алгоритмов и структур данных
- Опыт работы: Hadoop, Apache Kafka, Apache Spark, Clickhouse, Metabase Open Source (или Яндекс Datalens), airflow.
Условия работы:
- Неполная занятость с гибким графиком.
- Удалённый формат.
- Конкурентоспособная заработная плата: от 2000 рублей / час (обсуждается индивидуально).
- Возможности для профессионального роста и развития.
- Работа в дружной команде профессионалов.
Если вы амбициозны, увлечены новыми технологиями и готовы присоединиться к нашей команде, отправляйте ваше резюме. Мы ждем талантливых специалистов, таких как вы!
Отправляйте ваше резюме в Телеграм: telegram @ryabov_ov или в WhatsApp +79119013650
Компания: Sotex Solution
Локация: Москва
Должность: Data Engineer
Формат работы: Part - time, Удалённая работа
Вилка: от 2000 рублей / час (обсуждается индивидуально).
О нас:
Мы —it компания " Sotex Solution ", занимающаяся разработкой озера данных для небольшой телекоммуникационной компании.
Ищем в команду Data Engineer'а преимущественно Senior уровня, для усиления команды проекта.
Обязанности:
- Разрабатывать ETL-процессы поставки данных;
- Находить и устранять неэффективность в существующих процессах и оптимизировать их;
- Разрабатывать структуры хранения данных;
- Создавать витрины данных.
Чего ждём от кандидата:
— Опыт промышленной разработки на Python/ Java от 2-х лет;
— Уверенное знание SQL;
- Знание основных алгоритмов и структур данных
- Опыт работы: Hadoop, Apache Kafka, Apache Spark, Clickhouse, Metabase Open Source (или Яндекс Datalens), airflow.
Условия работы:
- Неполная занятость с гибким графиком.
- Удалённый формат.
- Конкурентоспособная заработная плата: от 2000 рублей / час (обсуждается индивидуально).
- Возможности для профессионального роста и развития.
- Работа в дружной команде профессионалов.
Если вы амбициозны, увлечены новыми технологиями и готовы присоединиться к нашей команде, отправляйте ваше резюме. Мы ждем талантливых специалистов, таких как вы!
Отправляйте ваше резюме в Телеграм: telegram @ryabov_ov или в WhatsApp +79119013650
#вакансия #гибрид #РФ #РБ #middle #junior #dataengineer
👁🗨 Компания: Aston
👁🗨 Уровень: junior, middle
👁🗨 Локация: Москва, Екатеринбург, Ростов, Санкт-Петербург, Казань Формат работы: гибрид
👁🗨 З/п: от 200 000 до 310 000 RUB gross
👁 Аутсорсинговая аккредитованная IT-компания Aston ищет Data Engineer в свою команду.
🦾 Что мы ждем от кандидата:
- опыт работы в роли Data Engineer от 2-х лет;
- желание заниматься разработкой и сопровождением больших баз данных для сложной предметной области;- опыт работы с Big Data (Hadoop, Green Plum), понимание принципов построения хранилищ данных;
- понимание внутренней архитектуры и инфраструктуры Hadoop;- наличие навыков оптимизации решений, основанных на Hadoop;
- уверенное знание языков SQL и желательно PL/pgSQL, PL/SQL или TSQL;- опыт использования CASE-средств проектирования БД (ERWin, PowerDesinger и т.п.);
- наличие навыков реализации ETL-процессов;- знание английского языка на уровне понимания технической документации.
👍 Будет плюсом:
- наличие навыков проектирования реляционных баз данных;- наличие опыта работы с большими данными в одной из промышленных РСУБД (PostgreSQL, Oracle, MSSQL);
- опыт администрирования баз данных;- опыт физического проектирования баз данных;
- опыт разработки ETL-процессов в Informatica PowerCenter или аналогичных инструментах;- опыт разработки и сопровождения процессов репликации (Oracle GoldenGate, Kafka);
- знание Powershell или unix shell;
- знание Spring, Java Enterprise Edition (J2EE).
Пишите, чтобы скорее узнать подробности!
И не забудьте уточнить, что вы из @datasciencejobs
Контакты: @AntonRuskevich
👁🗨 Компания: Aston
👁🗨 Уровень: junior, middle
👁🗨 Локация: Москва, Екатеринбург, Ростов, Санкт-Петербург, Казань Формат работы: гибрид
👁🗨 З/п: от 200 000 до 310 000 RUB gross
👁 Аутсорсинговая аккредитованная IT-компания Aston ищет Data Engineer в свою команду.
🦾 Что мы ждем от кандидата:
- опыт работы в роли Data Engineer от 2-х лет;
- желание заниматься разработкой и сопровождением больших баз данных для сложной предметной области;- опыт работы с Big Data (Hadoop, Green Plum), понимание принципов построения хранилищ данных;
- понимание внутренней архитектуры и инфраструктуры Hadoop;- наличие навыков оптимизации решений, основанных на Hadoop;
- уверенное знание языков SQL и желательно PL/pgSQL, PL/SQL или TSQL;- опыт использования CASE-средств проектирования БД (ERWin, PowerDesinger и т.п.);
- наличие навыков реализации ETL-процессов;- знание английского языка на уровне понимания технической документации.
👍 Будет плюсом:
- наличие навыков проектирования реляционных баз данных;- наличие опыта работы с большими данными в одной из промышленных РСУБД (PostgreSQL, Oracle, MSSQL);
- опыт администрирования баз данных;- опыт физического проектирования баз данных;
- опыт разработки ETL-процессов в Informatica PowerCenter или аналогичных инструментах;- опыт разработки и сопровождения процессов репликации (Oracle GoldenGate, Kafka);
- знание Powershell или unix shell;
- знание Spring, Java Enterprise Edition (J2EE).
Пишите, чтобы скорее узнать подробности!
И не забудьте уточнить, что вы из @datasciencejobs
Контакты: @AntonRuskevich
#вакансия #vacancy #ищу #job #dataengineer #senior #remote #удаленно#Talend Open Studio#ETL
Компания: Sotex
Локация: Москва
Должность: Data Engineer
Формат работы: Part - time, Удалённая работа
Вилка: обсуждается индивидуально.
О нас:
Мы —it компания " Sotex", занимающаяся разработкой озера данных для небольшой телекоммуникационной компании.
Ищем в команду Data Engineer'а преимущественно Middle, Middle+ уровня, для усиления команды проекта нужен специалист с опытом написания ETL на Java в Talend Open Studio.
Обязанности:
- Разрабатывать ETL-процессы поставки данных;
- Находить и устранять неэффективность в существующих процессах и оптимизировать их;
- Разрабатывать структуры хранения данных;
- Создавать витрины данных.
Чего ждём от кандидата:
— Опыт промышленной разработки на Python/ Java от 2-х лет;
— Уверенное знание SQL;
- Знание основных алгоритмов и структур данных
- Опыт работы: Hadoop, Apache Kafka, Apache Spark, Clickhouse, Metabase Open Source (или Яндекс Datalens), airflow, Talend Open Studio.
Условия работы:
- Неполная занятость с гибким графиком.
- Удалённый формат.
- Конкурентоспособная заработная плата: обсуждается индивидуально.
- Возможности для профессионального роста и развития.
- Работа в дружной команде профессионалов.
Если вы амбициозны, увлечены новыми технологиями и готовы присоединиться к нашей команде, отправляйте ваше резюме. Мы ждем талантливых специалистов, таких как вы!
Отправляйте ваше резюме в Телеграм: @ryabov_ov или в WhatsApp +79858527774
Компания: Sotex
Локация: Москва
Должность: Data Engineer
Формат работы: Part - time, Удалённая работа
Вилка: обсуждается индивидуально.
О нас:
Мы —it компания " Sotex", занимающаяся разработкой озера данных для небольшой телекоммуникационной компании.
Ищем в команду Data Engineer'а преимущественно Middle, Middle+ уровня, для усиления команды проекта нужен специалист с опытом написания ETL на Java в Talend Open Studio.
Обязанности:
- Разрабатывать ETL-процессы поставки данных;
- Находить и устранять неэффективность в существующих процессах и оптимизировать их;
- Разрабатывать структуры хранения данных;
- Создавать витрины данных.
Чего ждём от кандидата:
— Опыт промышленной разработки на Python/ Java от 2-х лет;
— Уверенное знание SQL;
- Знание основных алгоритмов и структур данных
- Опыт работы: Hadoop, Apache Kafka, Apache Spark, Clickhouse, Metabase Open Source (или Яндекс Datalens), airflow, Talend Open Studio.
Условия работы:
- Неполная занятость с гибким графиком.
- Удалённый формат.
- Конкурентоспособная заработная плата: обсуждается индивидуально.
- Возможности для профессионального роста и развития.
- Работа в дружной команде профессионалов.
Если вы амбициозны, увлечены новыми технологиями и готовы присоединиться к нашей команде, отправляйте ваше резюме. Мы ждем талантливых специалистов, таких как вы!
Отправляйте ваше резюме в Телеграм: @ryabov_ov или в WhatsApp +79858527774
#вакансия #DataEngineer #medtech #DE #удалённо
Вакансия: Data Engineer (Big Data)
Формат: удалённо на территории РФ
ЗП: до 230k net
Занятость: полная
еАптека – сервис для покупки лекарств и товаров для здоровья.
Наша команда разрабатывает, эксплуатирует и расширяет инфраструктуру Data Lake/Data Driven, позволяя Компании принимать обоснованные аналитические и технологические решения для высоконагруженных технологических процессов.
Чем предстоит заниматься:
- Управлять и настраивать инфраструктуру обработки данных для ML, аналитики и обслуживания пользователей;
- Разрабатывать процессы и интерфейсы обработки данных, полученных из исходных источников продукта (MSSQL, MySQL, PostgreSQL), S3 и API, обработка событий из Kafka;
- Настройка, оптимизация, обновление и контроль качества данных;
- Подготовка и настройка окружений для DS.
Наши технологии и необходимый опыт работы:
YC, S3, Spark, Kafka, Airflow, Debezium, Airbyte, Prometheus, Grafana, GitLab.
- Python на уровне middle+ или senior (будет плюсом Scala, Golang);
- k8s на уровне пользователя (будет преимуществом);
- Опыт обработки высоконагруженных потоков данных от 3х лет.
Что мы предлагаем:
- Работа в аккредитованной ИТ компании;
- График работы 5/2, с гибким началом рабочего дня с 8:00 - 10:00;
- Трудоустройство по ТК РФ;
- ДМС со стоматологией;
- Пополняемая коллекция профессиональной литературы, оплата посещения профильных конференций, системное обучение и Виртуальная и виртуальная школа Сбербанка;
- Современная техника;
- Корпоративные мероприятия и тимбилдинги.
📩 Контакт: @Uliana_eApteka
👉 Не забудьте уточнить, что вы из @datasciencejobs
Вакансия: Data Engineer (Big Data)
Формат: удалённо на территории РФ
ЗП: до 230k net
Занятость: полная
еАптека – сервис для покупки лекарств и товаров для здоровья.
Наша команда разрабатывает, эксплуатирует и расширяет инфраструктуру Data Lake/Data Driven, позволяя Компании принимать обоснованные аналитические и технологические решения для высоконагруженных технологических процессов.
Чем предстоит заниматься:
- Управлять и настраивать инфраструктуру обработки данных для ML, аналитики и обслуживания пользователей;
- Разрабатывать процессы и интерфейсы обработки данных, полученных из исходных источников продукта (MSSQL, MySQL, PostgreSQL), S3 и API, обработка событий из Kafka;
- Настройка, оптимизация, обновление и контроль качества данных;
- Подготовка и настройка окружений для DS.
Наши технологии и необходимый опыт работы:
YC, S3, Spark, Kafka, Airflow, Debezium, Airbyte, Prometheus, Grafana, GitLab.
- Python на уровне middle+ или senior (будет плюсом Scala, Golang);
- k8s на уровне пользователя (будет преимуществом);
- Опыт обработки высоконагруженных потоков данных от 3х лет.
Что мы предлагаем:
- Работа в аккредитованной ИТ компании;
- График работы 5/2, с гибким началом рабочего дня с 8:00 - 10:00;
- Трудоустройство по ТК РФ;
- ДМС со стоматологией;
- Пополняемая коллекция профессиональной литературы, оплата посещения профильных конференций, системное обучение и Виртуальная и виртуальная школа Сбербанка;
- Современная техника;
- Корпоративные мероприятия и тимбилдинги.
📩 Контакт: @Uliana_eApteka
👉 Не забудьте уточнить, что вы из @datasciencejobs
#DataEngineer #ContractPosition #Remote #SQL #BigData #FinancialData #Python #BigQ #Looker #Snowflake
Разыскиваем #DataEngineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, но возможны варианты.
Стек технологий: GCP, ETL, Snowflake, BigQ, Python, Looker (нужен full stack)
Английский B2 и выше – условие обязательное.
Работать за пределами России и Беларуси - условие обязательное.
Зарплата $5000 – 6500 NET
Для связи: https://t.me/Tary_bird
Description of the Data Engineer contract position:
Location: Preferably San Francisco Bay Area, or remotely in the Pacific or Central Time zone.
Company:
A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.
What you will be doing:
As a data engineer, you will report to the head of data and analytics and help create the entire data structure and infrastructure supporting operations.
Responsibilities:
Design, create, and maintain the data infrastructure necessary for optimal extraction, transformation, and loading of data from various data sources using SQL, NoSQL, and big data technologies.
Develop and implement data collection systems that integrate various sources such as company proprietary data and third-party data sources, etc.
Create an automated process for collecting and visualizing user engagement data from CRM/UI.
What we are looking for:
Qualifications:
• Experience of at least 3 years as a data engineer or full stack in the field of data warehousing, data monitoring, and building and maintaining ETL pipelines.
• Valid experience with the Google cloud platform (GCP).
• Deep experience with data pipeline and workflow management tools (e.g., Airflow).
• Solid knowledge and experience with database design, setup, and maintenance.
• Proven ability to work in highly dynamic environments with high product velocity.
• Strong proficiency in Python.
• Strong proficiency in SQL.
• Familiarity with data visualization tools (Looker ).
• Experience with Snowflake.
• Experience with BigQuery.
• Strong communication skills, both orally and in writing.
• Familiarity with CRM (Affinity, Salesforce), automation tools (Zapier)
Bonus points:
• Experience in venture capital data operations/working with financial data.
• Familiarity with CRM (Affinity, Salesforce), automation tools (Zapier).
• Bachelor's or master's degree in computer science, database management, etc.
Разыскиваем #DataEngineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, но возможны варианты.
Стек технологий: GCP, ETL, Snowflake, BigQ, Python, Looker (нужен full stack)
Английский B2 и выше – условие обязательное.
Работать за пределами России и Беларуси - условие обязательное.
Зарплата $5000 – 6500 NET
Для связи: https://t.me/Tary_bird
Description of the Data Engineer contract position:
Location: Preferably San Francisco Bay Area, or remotely in the Pacific or Central Time zone.
Company:
A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.
What you will be doing:
As a data engineer, you will report to the head of data and analytics and help create the entire data structure and infrastructure supporting operations.
Responsibilities:
Design, create, and maintain the data infrastructure necessary for optimal extraction, transformation, and loading of data from various data sources using SQL, NoSQL, and big data technologies.
Develop and implement data collection systems that integrate various sources such as company proprietary data and third-party data sources, etc.
Create an automated process for collecting and visualizing user engagement data from CRM/UI.
What we are looking for:
Qualifications:
• Experience of at least 3 years as a data engineer or full stack in the field of data warehousing, data monitoring, and building and maintaining ETL pipelines.
• Valid experience with the Google cloud platform (GCP).
• Deep experience with data pipeline and workflow management tools (e.g., Airflow).
• Solid knowledge and experience with database design, setup, and maintenance.
• Proven ability to work in highly dynamic environments with high product velocity.
• Strong proficiency in Python.
• Strong proficiency in SQL.
• Familiarity with data visualization tools (Looker ).
• Experience with Snowflake.
• Experience with BigQuery.
• Strong communication skills, both orally and in writing.
• Familiarity with CRM (Affinity, Salesforce), automation tools (Zapier)
Bonus points:
• Experience in venture capital data operations/working with financial data.
• Familiarity with CRM (Affinity, Salesforce), automation tools (Zapier).
• Bachelor's or master's degree in computer science, database management, etc.
#вакансия #удаленно #dataengineer #de #spark #databricks #kafka #
Ищем Data Engineer на проектную занятость в Dodo Engineering (возможен неполный рабочий день)
Компания: Dodo Engineering
Локация: Remote
Должность: Data Engineer (middle+/senior/lead)
Занятость: проектная, на 3-6 месяцев, возможен вариант на неполный рабочий день (4 часа).
Вилка: 350 000 - 500 000 р
Формат: ГПХ\ИП
О команде
Мы разрабатываем платформу данных для it команд в Dodo. На данный момент перед нами стоит амбициозная задача по оптимизации затрат на дата платформу, поэтому в усиление нашей команде ищем на проектную занятость data engineer. Срок проекта - 3-6 месяцев.
Мы ищем коллегу с бэкграундом в разработке, уверенным знанием Spark, Spark SQL. Если работали с databricks — будет большой плюс.
Наш стек технологий:
У нас современная платформа, которая базируется на облачных сервисах Azure Databricks. Данные загружаем с помощью debezium или принимаем события в Event Hub (Kafka). Храним в Delta Lake, всё раскладываем по слоям и Data Vault. Витрины храним в Kusto, а визуализация в Superset. Основной язык — python.
Чем предстоит заниматься:
- Оптимизация витрин, помощь другим командам в работе с данными и нашим инструментом
- Оптимизация процессов в databricks для снижения затрат на compute и storage
- Развертывание и обслуживание data сервисов
Требования:
- Уверенное владение одним из языков программирования: Python, Scala, Java.
- Построение пайплайнов данных с мониторингом и логированием; опыт в оптимизации/изменении существующих пайплайнов.
- Spark, Spark Streaming (у нас Structured Streaming)
- Желателен опыт оптимизации аналитического кода
Отправить резюме и задать вопросы можно тут: @AKoronnova
👉 Не забудьте уточнить, что вы из @datasciencejobs
Ищем Data Engineer на проектную занятость в Dodo Engineering (возможен неполный рабочий день)
Компания: Dodo Engineering
Локация: Remote
Должность: Data Engineer (middle+/senior/lead)
Занятость: проектная, на 3-6 месяцев, возможен вариант на неполный рабочий день (4 часа).
Вилка: 350 000 - 500 000 р
Формат: ГПХ\ИП
О команде
Мы разрабатываем платформу данных для it команд в Dodo. На данный момент перед нами стоит амбициозная задача по оптимизации затрат на дата платформу, поэтому в усиление нашей команде ищем на проектную занятость data engineer. Срок проекта - 3-6 месяцев.
Мы ищем коллегу с бэкграундом в разработке, уверенным знанием Spark, Spark SQL. Если работали с databricks — будет большой плюс.
Наш стек технологий:
У нас современная платформа, которая базируется на облачных сервисах Azure Databricks. Данные загружаем с помощью debezium или принимаем события в Event Hub (Kafka). Храним в Delta Lake, всё раскладываем по слоям и Data Vault. Витрины храним в Kusto, а визуализация в Superset. Основной язык — python.
Чем предстоит заниматься:
- Оптимизация витрин, помощь другим командам в работе с данными и нашим инструментом
- Оптимизация процессов в databricks для снижения затрат на compute и storage
- Развертывание и обслуживание data сервисов
Требования:
- Уверенное владение одним из языков программирования: Python, Scala, Java.
- Построение пайплайнов данных с мониторингом и логированием; опыт в оптимизации/изменении существующих пайплайнов.
- Spark, Spark Streaming (у нас Structured Streaming)
- Желателен опыт оптимизации аналитического кода
Отправить резюме и задать вопросы можно тут: @AKoronnova
👉 Не забудьте уточнить, что вы из @datasciencejobs
#вакансия #vacancy #удаленка #remote #AI #мидл #Middle #синьор #Senior #ai #ии #ml #мл #llm #RAG #fullstack #finetuning #NLP #langchain #DataScientist #DataEngineer #MLengineer #api #aideveloper #python
❇️Вакансия: «AI Developer / ИИ Разработчик» Middle/Senior
Формат: удаленно по всему миру
Наш часовой пояс: UTC+3
Занятость: проектная с переходом в полную
Оплата: до 350.000₽ за проект или почасовая
Мы мультибренд занимающийся разработкой и внедрением AI и ML технологий во всех коммерческих отраслях
В связи с расширением мы ищем новых специалистов в нашу команду, а именно: AI Developer, Data Scientist, Data Engineer, ML Engineer
🔸Направления нашей работы:
- Внедрение ИИ/ML для автоматизации процессов
- Внедрение ИИ/ML в web сервисы, браузерные расширения и приложения(mobile)
- Создание продвинутых функциональных AI-Ассистентов
- Обучение/дообучение моделей
- Разработка AI/ML SaaS
🔸Какие задачи вам предстоит решать:
- Работа с LLM(Anthropic, Gemini, OpenAI, Llama, Mistral и др)
- Взаимодействие с API различных сервисов/приложений
- Решение задач по автоматизации бизнес-процессов и написанию скриптов на языке Python
- RAG моделей (с использованием Langchain или др.)
- Fine-tuning open-source моделей
- Text-to-text, text-to-speech, speech-to-text NLP
- Работа с облачными платформами(Google Cloud, Yandex Cloud и др.)
- Использование no-code/low-code инструментов для сокращения издержек (Flowise, Make, Zapier Central, Relevance и др.)
🔸Важный навык:
- Свободное владение Английским языком
🔸Мы предлагаем:
- Интересные проекты с возможностью творческой реализации
- Возможность принять участие в выводе продуктов и сервисов бренда на международный рынок
- Возможность профессионального роста и нетворкинга с экспертами в сфере AI и ML со всего мира
- Карьерный рост до Team Lead или CTO одной из компаний
- Отсутствие привязки к месту и возможности легальной оплаты труда в любую точку мира
- Свобода мысли и принятия решений при реализации проектов
🔸Кого мы хотим видеть:
- амбициозных, инициативных и талантливых разработчиков, желающих достигать новых высот в сфере AI и ML, которые легко вольются в нашу молодую команду
(P.s. вам необязательно быть молодым, но обязательно быть с нами близким по духу)
💬Отправляйте резюме/CV/портфолио: @subscale_ai
❇️Вакансия: «AI Developer / ИИ Разработчик» Middle/Senior
Формат: удаленно по всему миру
Наш часовой пояс: UTC+3
Занятость: проектная с переходом в полную
Оплата: до 350.000₽ за проект или почасовая
Мы мультибренд занимающийся разработкой и внедрением AI и ML технологий во всех коммерческих отраслях
В связи с расширением мы ищем новых специалистов в нашу команду, а именно: AI Developer, Data Scientist, Data Engineer, ML Engineer
🔸Направления нашей работы:
- Внедрение ИИ/ML для автоматизации процессов
- Внедрение ИИ/ML в web сервисы, браузерные расширения и приложения(mobile)
- Создание продвинутых функциональных AI-Ассистентов
- Обучение/дообучение моделей
- Разработка AI/ML SaaS
🔸Какие задачи вам предстоит решать:
- Работа с LLM(Anthropic, Gemini, OpenAI, Llama, Mistral и др)
- Взаимодействие с API различных сервисов/приложений
- Решение задач по автоматизации бизнес-процессов и написанию скриптов на языке Python
- RAG моделей (с использованием Langchain или др.)
- Fine-tuning open-source моделей
- Text-to-text, text-to-speech, speech-to-text NLP
- Работа с облачными платформами(Google Cloud, Yandex Cloud и др.)
- Использование no-code/low-code инструментов для сокращения издержек (Flowise, Make, Zapier Central, Relevance и др.)
🔸Важный навык:
- Свободное владение Английским языком
🔸Мы предлагаем:
- Интересные проекты с возможностью творческой реализации
- Возможность принять участие в выводе продуктов и сервисов бренда на международный рынок
- Возможность профессионального роста и нетворкинга с экспертами в сфере AI и ML со всего мира
- Карьерный рост до Team Lead или CTO одной из компаний
- Отсутствие привязки к месту и возможности легальной оплаты труда в любую точку мира
- Свобода мысли и принятия решений при реализации проектов
🔸Кого мы хотим видеть:
- амбициозных, инициативных и талантливых разработчиков, желающих достигать новых высот в сфере AI и ML, которые легко вольются в нашу молодую команду
(P.s. вам необязательно быть молодым, но обязательно быть с нами близким по духу)
💬Отправляйте резюме/CV/портфолио: @subscale_ai
#DataEngineer #ContractPosition #Remote # GCP #ThoughtSpot #BigData #Affinity #Slack #Looker #Snowflake
Разыскиваем #DataEngineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, но возможны варианты.
Стек технологий: GCP, ETL, Snowflake, CRM Affinity, SQL, Airflow, ThoughtSpot (preferred) or Looker , Python, SQL (нужен full stack!)
Английский B2 и выше – условие обязательное.
Работать за пределами России и Беларуси - условие обязательное.
Зарплата $5000 – 6500 NET
Для самых внимательных, кто действительно читает описание вакансии: просим откликаться в том случае, если у вас есть полный стек и присылать резюме в формате Word.
Для связи: https://t.me/Tary_bird
Description of the Data Engineer contract position:
Location: Preferably San Francisco Bay Area, or remotely in the Pacific or Central Time zone.
Company:
A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.
What to expect:
Your role as a data engineer involves reporting to the head of the data and analytics department and participating in the creation of the entire structure and infrastructure necessary to support operations.
Responsibilities:
Developing, creating, and maintaining data infrastructure for optimal extraction, transformation, and loading of data from various sources using SQL, NoSQL, and big data technologies.
Creating and implementing data collection systems that integrate various sources, including company proprietary data and external sources.
Automating the process of collecting and visualizing user engagement data from CRM/UI.
Developing and supporting ETL (Extract, Transform, Load) processes on the Google Cloud platform and in the Snowflake system for efficient data processing.
Extracting data from the Affinity CRM system, ensuring its correctness and relevance.
Integrating notifications into Slack to improve communication within the team.
If necessary, developing and supporting analytical reports and dashboards in BI tools such as ThoughtSpot (preferred) or Looker to make data-driven decisions.
What we are looking for:
Qualifications:
• Experience of at least 3 years as a data engineer or full stack in the field of data warehousing, data monitoring, and building and maintaining ETL pipelines, including experience with Google Cloud and Snowflake.
• Deep experience with data pipeline and workflow management tools (Airflow).
• Strong proficiency in SQL and Python
• Experience with BigQuery.
• experience extracting data out of Affinity CRM and integrate notifications back to Slack
• Solid knowledge and experience with database design, setup, and maintenance.
• Proven ability to work in highly dynamic environments with high product velocity
• Strong communication skills, both orally and in writing.
Nice to have:
• BI tool experience on ThoughtSpot (preferred) or Looker
• Bachelor's or master's degree in computer science, database management, etc.
For those who pay close attention and thoroughly read through job descriptions: please only apply if you possess full-stack capabilities and send your resume in Word format.
Разыскиваем #DataEngineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, но возможны варианты.
Стек технологий: GCP, ETL, Snowflake, CRM Affinity, SQL, Airflow, ThoughtSpot (preferred) or Looker , Python, SQL (нужен full stack!)
Английский B2 и выше – условие обязательное.
Работать за пределами России и Беларуси - условие обязательное.
Зарплата $5000 – 6500 NET
Для самых внимательных, кто действительно читает описание вакансии: просим откликаться в том случае, если у вас есть полный стек и присылать резюме в формате Word.
Для связи: https://t.me/Tary_bird
Description of the Data Engineer contract position:
Location: Preferably San Francisco Bay Area, or remotely in the Pacific or Central Time zone.
Company:
A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.
What to expect:
Your role as a data engineer involves reporting to the head of the data and analytics department and participating in the creation of the entire structure and infrastructure necessary to support operations.
Responsibilities:
Developing, creating, and maintaining data infrastructure for optimal extraction, transformation, and loading of data from various sources using SQL, NoSQL, and big data technologies.
Creating and implementing data collection systems that integrate various sources, including company proprietary data and external sources.
Automating the process of collecting and visualizing user engagement data from CRM/UI.
Developing and supporting ETL (Extract, Transform, Load) processes on the Google Cloud platform and in the Snowflake system for efficient data processing.
Extracting data from the Affinity CRM system, ensuring its correctness and relevance.
Integrating notifications into Slack to improve communication within the team.
If necessary, developing and supporting analytical reports and dashboards in BI tools such as ThoughtSpot (preferred) or Looker to make data-driven decisions.
What we are looking for:
Qualifications:
• Experience of at least 3 years as a data engineer or full stack in the field of data warehousing, data monitoring, and building and maintaining ETL pipelines, including experience with Google Cloud and Snowflake.
• Deep experience with data pipeline and workflow management tools (Airflow).
• Strong proficiency in SQL and Python
• Experience with BigQuery.
• experience extracting data out of Affinity CRM and integrate notifications back to Slack
• Solid knowledge and experience with database design, setup, and maintenance.
• Proven ability to work in highly dynamic environments with high product velocity
• Strong communication skills, both orally and in writing.
Nice to have:
• BI tool experience on ThoughtSpot (preferred) or Looker
• Bachelor's or master's degree in computer science, database management, etc.
For those who pay close attention and thoroughly read through job descriptions: please only apply if you possess full-stack capabilities and send your resume in Word format.
#DataEngineer #ContractPosition #Remote #GCP #ThoughtSpot #BigData #Affinity #Slack #Looker #Snowflake
Разыскивается DataEngineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, но возможны варианты.
Стек технологий: GCP, ETL, Snowflake, CRM Affinity, SQL, Airflow, ThoughtSpot (preferred) or Looker , Python, SQL (нужен full stack!!!)
Английский B2 и выше – условие обязательное.
Работать за пределами России и Беларуси - условие обязательное.
Зарплата $5000 – 6500 NET
Для самых внимательных, кто действительно читает описание вакансии: просим - откликаться только в том случае, если у вас есть полный стек, - присылать резюме в формате Word.
Для связи: https://t.me/Tary_bird
Description of the Data Engineer contract position:
Location: Preferably San Francisco Bay Area, or remotely in the Pacific or Central Time zone.
Company:
A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.
What to expect:
Your role as a data engineer involves reporting to the head of the data and analytics department and participating in the creation of the entire structure and infrastructure necessary to support operations.
Responsibilities:
Developing, creating, and maintaining data infrastructure for optimal extraction, transformation, and loading of data from various sources using SQL, NoSQL, and big data technologies.
Creating and implementing data collection systems that integrate various sources, including company proprietary data and external sources.
Automating the process of collecting and visualizing user engagement data from CRM/UI.
Developing and supporting ETL (Extract, Transform, Load) processes on the Google Cloud platform and in the Snowflake system for efficient data processing.
Extracting data from the Affinity CRM system, ensuring its correctness and relevance.
Integrating notifications into Slack to improve communication within the team.
If necessary, developing and supporting analytical reports and dashboards in BI tools such as ThoughtSpot (preferred) or Looker to make data-driven decisions.
What we are looking for:
Qualifications:
• Experience of at least 3 years as a data engineer or full stack in the field of data warehousing, data monitoring, and building and maintaining ETL pipelines, including experience with Google Cloud and Snowflake.
• Deep experience with data pipeline and workflow management tools (Airflow).
• Strong proficiency in SQL and Python
• Experience with BigQuery.
• experience extracting data out of Affinity CRM and integrate notifications back to Slack
• Solid knowledge and experience with database design, setup, and maintenance.
• Proven ability to work in highly dynamic environments with high product velocity
• Strong communication skills, both orally and in writing.• BI tool experience on ThoughtSpot (preferred) or Looker
Nice to have:
• Bachelor's or master's degree in computer science, database management, etc.
Разыскивается DataEngineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, но возможны варианты.
Стек технологий: GCP, ETL, Snowflake, CRM Affinity, SQL, Airflow, ThoughtSpot (preferred) or Looker , Python, SQL (нужен full stack!!!)
Английский B2 и выше – условие обязательное.
Работать за пределами России и Беларуси - условие обязательное.
Зарплата $5000 – 6500 NET
Для самых внимательных, кто действительно читает описание вакансии: просим - откликаться только в том случае, если у вас есть полный стек, - присылать резюме в формате Word.
Для связи: https://t.me/Tary_bird
Description of the Data Engineer contract position:
Location: Preferably San Francisco Bay Area, or remotely in the Pacific or Central Time zone.
Company:
A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.
What to expect:
Your role as a data engineer involves reporting to the head of the data and analytics department and participating in the creation of the entire structure and infrastructure necessary to support operations.
Responsibilities:
Developing, creating, and maintaining data infrastructure for optimal extraction, transformation, and loading of data from various sources using SQL, NoSQL, and big data technologies.
Creating and implementing data collection systems that integrate various sources, including company proprietary data and external sources.
Automating the process of collecting and visualizing user engagement data from CRM/UI.
Developing and supporting ETL (Extract, Transform, Load) processes on the Google Cloud platform and in the Snowflake system for efficient data processing.
Extracting data from the Affinity CRM system, ensuring its correctness and relevance.
Integrating notifications into Slack to improve communication within the team.
If necessary, developing and supporting analytical reports and dashboards in BI tools such as ThoughtSpot (preferred) or Looker to make data-driven decisions.
What we are looking for:
Qualifications:
• Experience of at least 3 years as a data engineer or full stack in the field of data warehousing, data monitoring, and building and maintaining ETL pipelines, including experience with Google Cloud and Snowflake.
• Deep experience with data pipeline and workflow management tools (Airflow).
• Strong proficiency in SQL and Python
• Experience with BigQuery.
• experience extracting data out of Affinity CRM and integrate notifications back to Slack
• Solid knowledge and experience with database design, setup, and maintenance.
• Proven ability to work in highly dynamic environments with high product velocity
• Strong communication skills, both orally and in writing.• BI tool experience on ThoughtSpot (preferred) or Looker
Nice to have:
• Bachelor's or master's degree in computer science, database management, etc.
#вакансия #DataEngineer #DataAnalyst
Data Engineer / Data Analyst
✅ Компания "Neoflex"
создает ИТ-платформы для цифровой трансформации бизнеса;
являемся аккредитованной IT компанией.
Вилка зп: От 200.000 до 345.000 руб.;
Локация: Гибрид/офис (Москва, Санкт-Петербург, Нижний Новгород, Воронеж, Пенза, Саратов, Самара, Краснодар) или полная удалёнка с территории РФ;
Занятость: Полная 5/2;
Условия: Оформление по ТК РФ;
Вам предстоит:
• Участие в проекте по разработке DWH в Greenplum по методологии Data Vault;
• Взаимодействие с бизнес-подразделениями и ИТ-командами для определения потребностей использования данных хранилища, с целью развития модели хранилища;
• Проектирование и описание модели данных детальных слоев корпоративного хранилища;
• Разработка стандартов проектирования детальных слоев хранилища, загрузки, хранения и доступа к данным, контроль за соблюдением стандартов;
• Анализ и декомпозиция задач в сложных проектах по развитию хранилища, оценка трудозатрат, сроков и рисков. Проработка концептов загрузки данных в хранилище;
• Согласование алгоритмов и маппингов, подготовленных командами, обеспечивающими загрузку данных в хранилище;
• Контроль целостности и консистентности модели, контроль качества функционала загрузки данных в хранилища. Участие в приемо-сдаточных испытаниях;
• Анализ и выявление корневых причин возникновения ошибок, разработка концепций и мероприятий по их устранению;
• Экспертная поддержка бизнес-пользователей, потребителей данных, аналитиков и разработчиков ИТ команд, обеспечивающих загрузку данных. Консультирование по ассортименту данных в хранилище и особенностям использования данных.
Мы ожидаем что у Вас есть:
• Уверенное знание SQL и опыт работы с СУБД (PostgreSQL, GreenPlum);
• Опыт проектирования логических и физических моделей хранилищ данных (Data Vault) или участие в проектах по автоматизации отчетности на базе хранилища данных;
• Знание архитектуры хранилища данных и методов моделирования данных;
• Опыт работы с ETL - оркестратором (Airflow);
• Знание основ банковского бухгалтерского учета (будет плюсом);
• Опыт работы c гибкими проектными методологиями (agile, scrum, kanban).
Мы предлагаем:
• Работа в аккредитованной IT компании;
• Официальное трудоустройство по ТК РФ;
• Амбициозные задачи и проекты;
• Неограниченные возможности профессионального и карьерного роста;
• Работа в команде профессионалов и просто хороших людей, которые всегда готовы помочь и поддержать;
• Подключение к программе ДМС (включает стоматологию, обследования, лечение заболеваний и т.д.);
• Предоставление корпоративной техники;
• Корпоративное обучение и развитие (портал обучения и развития с удаленным доступом 24/7; собственный Центр развития компетенций);
• Оплата внешнего обучения и профильных курсов;
• Насыщенная корпоративная жизнь: яркие корпоративы, праздники для детей сотрудников, спортивные мероприятия и т.д.
Telegram @Liubov_Neoflex (Любовь)
Data Engineer / Data Analyst
✅ Компания "Neoflex"
создает ИТ-платформы для цифровой трансформации бизнеса;
являемся аккредитованной IT компанией.
Вилка зп: От 200.000 до 345.000 руб.;
Локация: Гибрид/офис (Москва, Санкт-Петербург, Нижний Новгород, Воронеж, Пенза, Саратов, Самара, Краснодар) или полная удалёнка с территории РФ;
Занятость: Полная 5/2;
Условия: Оформление по ТК РФ;
Вам предстоит:
• Участие в проекте по разработке DWH в Greenplum по методологии Data Vault;
• Взаимодействие с бизнес-подразделениями и ИТ-командами для определения потребностей использования данных хранилища, с целью развития модели хранилища;
• Проектирование и описание модели данных детальных слоев корпоративного хранилища;
• Разработка стандартов проектирования детальных слоев хранилища, загрузки, хранения и доступа к данным, контроль за соблюдением стандартов;
• Анализ и декомпозиция задач в сложных проектах по развитию хранилища, оценка трудозатрат, сроков и рисков. Проработка концептов загрузки данных в хранилище;
• Согласование алгоритмов и маппингов, подготовленных командами, обеспечивающими загрузку данных в хранилище;
• Контроль целостности и консистентности модели, контроль качества функционала загрузки данных в хранилища. Участие в приемо-сдаточных испытаниях;
• Анализ и выявление корневых причин возникновения ошибок, разработка концепций и мероприятий по их устранению;
• Экспертная поддержка бизнес-пользователей, потребителей данных, аналитиков и разработчиков ИТ команд, обеспечивающих загрузку данных. Консультирование по ассортименту данных в хранилище и особенностям использования данных.
Мы ожидаем что у Вас есть:
• Уверенное знание SQL и опыт работы с СУБД (PostgreSQL, GreenPlum);
• Опыт проектирования логических и физических моделей хранилищ данных (Data Vault) или участие в проектах по автоматизации отчетности на базе хранилища данных;
• Знание архитектуры хранилища данных и методов моделирования данных;
• Опыт работы с ETL - оркестратором (Airflow);
• Знание основ банковского бухгалтерского учета (будет плюсом);
• Опыт работы c гибкими проектными методологиями (agile, scrum, kanban).
Мы предлагаем:
• Работа в аккредитованной IT компании;
• Официальное трудоустройство по ТК РФ;
• Амбициозные задачи и проекты;
• Неограниченные возможности профессионального и карьерного роста;
• Работа в команде профессионалов и просто хороших людей, которые всегда готовы помочь и поддержать;
• Подключение к программе ДМС (включает стоматологию, обследования, лечение заболеваний и т.д.);
• Предоставление корпоративной техники;
• Корпоративное обучение и развитие (портал обучения и развития с удаленным доступом 24/7; собственный Центр развития компетенций);
• Оплата внешнего обучения и профильных курсов;
• Насыщенная корпоративная жизнь: яркие корпоративы, праздники для детей сотрудников, спортивные мероприятия и т.д.
Telegram @Liubov_Neoflex (Любовь)
#вакансия #DataEngineer
Компания: TN Digital
ЗП: 300-450к на руки + премия
Формат: офис в Москве/гибрид/удаленка
TN Digital отвечает за все цифровые продукты компании «ТЕХНОНИКОЛЬ».
В связи с расширением штата ищем человека в команду разработки EDWH.
Задачи:
-организация пайплайнов потоков данных (конвейера движения данных в компании);
-разработка, поддержка и оптимизация производительности EDWH;
-разработка и настройка ETL/ELT-процессов (сбор, структурирование и обеспечение сохранности данных);
-настройка инфраструктуры для обеспечения качества данных.
Наши ожидания:
-знание современных технологий обработки больших данных;
-хорошее знание Python;
-хорошее знание SQL и реляционных баз данных (желательно, Greenplum или PostgreSQL), опыт написания сложных запросов.
Стек проекта: Python, Greenplum, PostgreSQL, Data Build Tool (DBT), Spark, Kafka, Airflow, Kubernetes, Terraform, Ansible, GitLab, SonarQube, Prometheus, Grafana, AlertManager.
Условия:
-белая зп, оформление по ТК РФ;
-проф обучение за счет компании, ДМС, скидки на занятия спортом, компенсация обучения английского языка, оплата мобильной связи.
Для связи @ryabin_ka
Компания: TN Digital
ЗП: 300-450к на руки + премия
Формат: офис в Москве/гибрид/удаленка
TN Digital отвечает за все цифровые продукты компании «ТЕХНОНИКОЛЬ».
В связи с расширением штата ищем человека в команду разработки EDWH.
Задачи:
-организация пайплайнов потоков данных (конвейера движения данных в компании);
-разработка, поддержка и оптимизация производительности EDWH;
-разработка и настройка ETL/ELT-процессов (сбор, структурирование и обеспечение сохранности данных);
-настройка инфраструктуры для обеспечения качества данных.
Наши ожидания:
-знание современных технологий обработки больших данных;
-хорошее знание Python;
-хорошее знание SQL и реляционных баз данных (желательно, Greenplum или PostgreSQL), опыт написания сложных запросов.
Стек проекта: Python, Greenplum, PostgreSQL, Data Build Tool (DBT), Spark, Kafka, Airflow, Kubernetes, Terraform, Ansible, GitLab, SonarQube, Prometheus, Grafana, AlertManager.
Условия:
-белая зп, оформление по ТК РФ;
-проф обучение за счет компании, ДМС, скидки на занятия спортом, компенсация обучения английского языка, оплата мобильной связи.
Для связи @ryabin_ka
#вакансия #vacancy #fulltime #dataengineer #data
▫️Data engineer в крупную производственную компанию
▫️Оплата: от 160.000 на руки
▫️Требуемый опыт работы: от 1 года
▫️Занятость: Полная занятость, полный день
▫️Формат: гибрид
▫️Локация: Санкт-Петербург
▫️Основные задачи:
- Управление ETL-процессами;
- Очистка информации от лишних дублей, устранение ошибок;
- Проектирование и разработка пайплайнов (ETL-процессов).
- Поддержка существующих баз данных;
- Написание функций и хранимых процедур для преобразования и агрегации данных, создание витрин;
- Анализ существующих SQL запросов с целью их оптимизации;
- Обновление и поддержка используемых инструментов и приложений;
- Подготовка данных для анализа;
- Помощь в подготовке дэшбордов и анализе данных.
▫️Ожидание от кандидата:
- Опыт работы с системами: PostgreSQL, ClickHouse, MS SQL, Arenadata;
- Владение SQL (PostgreSQL/ClickHouse), Python (Pandas, Numpy, SQLAlchemy);
- Умение организовывать ETL-процессы, опыт разработки пайплайнов в NiFi;
- Английский язык на уровне чтения технической документации.
▫️Что готовы предложить:
- Гибридный формат работы;
- Добровольное медицинское страхование и страхование жизни от несчастных случаев;
- Льготное питание;
- Профессиональное развитие и обучение;
- Корпоративные занятия спортом.
- Уровень заработной платы обсуждается с финальными кандидатами.
Контакт: @polina_albova
▫️Data engineer в крупную производственную компанию
▫️Оплата: от 160.000 на руки
▫️Требуемый опыт работы: от 1 года
▫️Занятость: Полная занятость, полный день
▫️Формат: гибрид
▫️Локация: Санкт-Петербург
▫️Основные задачи:
- Управление ETL-процессами;
- Очистка информации от лишних дублей, устранение ошибок;
- Проектирование и разработка пайплайнов (ETL-процессов).
- Поддержка существующих баз данных;
- Написание функций и хранимых процедур для преобразования и агрегации данных, создание витрин;
- Анализ существующих SQL запросов с целью их оптимизации;
- Обновление и поддержка используемых инструментов и приложений;
- Подготовка данных для анализа;
- Помощь в подготовке дэшбордов и анализе данных.
▫️Ожидание от кандидата:
- Опыт работы с системами: PostgreSQL, ClickHouse, MS SQL, Arenadata;
- Владение SQL (PostgreSQL/ClickHouse), Python (Pandas, Numpy, SQLAlchemy);
- Умение организовывать ETL-процессы, опыт разработки пайплайнов в NiFi;
- Английский язык на уровне чтения технической документации.
▫️Что готовы предложить:
- Гибридный формат работы;
- Добровольное медицинское страхование и страхование жизни от несчастных случаев;
- Льготное питание;
- Профессиональное развитие и обучение;
- Корпоративные занятия спортом.
- Уровень заработной платы обсуждается с финальными кандидатами.
Контакт: @polina_albova
#вакансия #СанктПетербург #fulltime #гибрид #удаленка #DATAENGINEER #ДатаИнженер
🌐Ведущий дата-инженер/Data Engineer (Санкт-Петербург)
Гибрид или удалённый формат работы (для кандидатов из других регионов)
🌐 Наши пожелания:
-высшее техническое образование
-опыт работы на позиции Data Engineer/SQL Developer/BI Developer от 3-х лет
- знание Microsoft SQL Server (SSAS, T-SQL, SSRS), опыт работы с многомерными моделями в SSAS
- знание Python, JavaScript
🌐 Задачи:
- Проектирование, разработка, поддержка объектов DWH, структур данных, оптимизированных под задачи BI
- Оптимизация и управление потоками данных вокруг DWH
- Развитие и поддержка ETL процессов
- Формирование требований, контроль качества, приемка результатов у подрядчиков и их перенос в промышленную среду
🌐Вас ждут:
- Привлекательный уровень зарплаты (оклад+премии)
- Расширенный соц. пакет (ДМС, компенсация питания и другие блага) - Официальное трудоустройство и полное соблюдение ТК РФ
💻За подробностями обращайтесь ко мне: @Natalia_Ryabinina
🌐Ведущий дата-инженер/Data Engineer (Санкт-Петербург)
Гибрид или удалённый формат работы (для кандидатов из других регионов)
🌐 Наши пожелания:
-высшее техническое образование
-опыт работы на позиции Data Engineer/SQL Developer/BI Developer от 3-х лет
- знание Microsoft SQL Server (SSAS, T-SQL, SSRS), опыт работы с многомерными моделями в SSAS
- знание Python, JavaScript
🌐 Задачи:
- Проектирование, разработка, поддержка объектов DWH, структур данных, оптимизированных под задачи BI
- Оптимизация и управление потоками данных вокруг DWH
- Развитие и поддержка ETL процессов
- Формирование требований, контроль качества, приемка результатов у подрядчиков и их перенос в промышленную среду
🌐Вас ждут:
- Привлекательный уровень зарплаты (оклад+премии)
- Расширенный соц. пакет (ДМС, компенсация питания и другие блага) - Официальное трудоустройство и полное соблюдение ТК РФ
💻За подробностями обращайтесь ко мне: @Natalia_Ryabinina
#вакансия #de #dataengineer #etl #sql #hadoop #spark
Data Engineer для агротехнологических проектов
При отклике на вакансию сразу присылайте резюме @echeveria_woman
Отклики без резюме рассматриваться не будут!
Ключевые обязанности:
- Разработка и поддержка ETL-процессов
- Управление базами и хранилищами данных
- Интеграция данных из разных источников (сенсоры, спутниковые снимки,
IoT устройства, и тд, и тп)
- Оптимизация систем обработки данных
Ключевые требования:
- 3+ лет опыта в Data Engineering
- Уверенное владение SQL и базами данных (PostgreSQL, MySQL, NoSQL)
- Опыт работы с ETL-инструментами (Apache Airflow, Talend, Informatica, и тд)
- Знание облачных платформ (AWS, GCP, Azure)
- Навыки программирования (Python/Java)
- Опыт с big data (Hadoop, Spark)
- Понимание DevOps и CI/CD
Будет преимуществом:
- Опыт в агросфере
- Знание GIS-технологий
- Опыт с Docker и Kubernetes
Мы предлагаем:
- Вилку 3.5-5 тысяч долларов в месяц
- Гибкий график
- Работу в команде профессионалов
- Возможности для роста
- Участие в значимых агропроектах
Data Engineer для агротехнологических проектов
При отклике на вакансию сразу присылайте резюме @echeveria_woman
Отклики без резюме рассматриваться не будут!
Ключевые обязанности:
- Разработка и поддержка ETL-процессов
- Управление базами и хранилищами данных
- Интеграция данных из разных источников (сенсоры, спутниковые снимки,
IoT устройства, и тд, и тп)
- Оптимизация систем обработки данных
Ключевые требования:
- 3+ лет опыта в Data Engineering
- Уверенное владение SQL и базами данных (PostgreSQL, MySQL, NoSQL)
- Опыт работы с ETL-инструментами (Apache Airflow, Talend, Informatica, и тд)
- Знание облачных платформ (AWS, GCP, Azure)
- Навыки программирования (Python/Java)
- Опыт с big data (Hadoop, Spark)
- Понимание DevOps и CI/CD
Будет преимуществом:
- Опыт в агросфере
- Знание GIS-технологий
- Опыт с Docker и Kubernetes
Мы предлагаем:
- Вилку 3.5-5 тысяч долларов в месяц
- Гибкий график
- Работу в команде профессионалов
- Возможности для роста
- Участие в значимых агропроектах
#DataEngineer #ContractPosition #Remote #GCP #Snowflake #dbt #Fintech #API #Airflow #GitHub
Разыскивается Data Engineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, минимальное время пересечения – 4 часа.
Стек технологий: GCP, Snowflake, dbt, Airflow, GitHub, API/SFTP, Python, SQL.
Английский B2 и выше – условие обязательное.
Опыт работы в финтех/банковском секторе - условие обязательное.
Работать за пределами России и Беларуси - условие обязательное.
Зарплата: $5000 – 7000 NET.
Для самых внимательных, кто действительно читает описание вакансии:
• Пожалуйста, откликайтесь только в том случае, если у вас есть необходимый опыт по всему стеку (GCP, Snowflake, dbt, Airflow, GitHub, Python and SQL, API/SFTP), а также опыт работы в финтех/банковском секторе.
• Присылайте резюме в формате Word.
Спасибо!
Для связи: https://t.me/Tary_bird
____________________________________
Description of the Data Engineer contract position:
Location: Preferably Pacific Time Zone, with at least 4 hours overlap with working hours.
Company:
A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.
What to expect:
Your role as a data engineer involves reporting to the head of the data and analytics department and participating in the creation of the entire structure and infrastructure necessary to support operations in the fintech/banking sector.
Responsibilities:
• Developing, creating, and maintaining data infrastructure for optimal extraction, transformation, and loading of data from various sources using SQL, and big data technologies.
• Creating and implementing data collection systems that integrate various sources, including company proprietary data and external sources.
• Automating the process of collecting and visualizing user engagement data.
• Developing and supporting data processes on the Google Cloud platform and in the Snowflake system for efficient data processing.
• Extracting data via API/SFTP and ensuring its correctness and relevance.
What we are looking for:
Qualifications:
• Fintech/Bank working experience (must have).
• Minimum 6 years of professional experience as a data engineer/data analyst in the fintech/banking sector.
• Deep knowledge of GCP, Snowflake, dbt, Airflow, and GitHub.
• Strong proficiency in Python and SQL.
• Experience in data intake via API/SFTP.
• Attention to detail and strong communication skills, both orally and in writing.
Nice to have:
• Bachelor's or master's degree in computer science, database management, etc.
Please send the completed application form together with your CV.
• How many years of experience do you have with Google Cloud Platform (GCP)?
• How many years of experience do you have with Snowflake?
• How many years of experience do you have with dbt?
• How many years of experience do you have with Airflow?
• How many years of experience do you have with GitHub?
• Do you have experience working with data intake through API/SFTP? If yes, please describe.
• How many years of experience do you have with Python?
• How many years of experience do you have with SQL?
• What salary USD is expected?
Разыскивается Data Engineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, минимальное время пересечения – 4 часа.
Стек технологий: GCP, Snowflake, dbt, Airflow, GitHub, API/SFTP, Python, SQL.
Английский B2 и выше – условие обязательное.
Опыт работы в финтех/банковском секторе - условие обязательное.
Работать за пределами России и Беларуси - условие обязательное.
Зарплата: $5000 – 7000 NET.
Для самых внимательных, кто действительно читает описание вакансии:
• Пожалуйста, откликайтесь только в том случае, если у вас есть необходимый опыт по всему стеку (GCP, Snowflake, dbt, Airflow, GitHub, Python and SQL, API/SFTP), а также опыт работы в финтех/банковском секторе.
• Присылайте резюме в формате Word.
Спасибо!
Для связи: https://t.me/Tary_bird
____________________________________
Description of the Data Engineer contract position:
Location: Preferably Pacific Time Zone, with at least 4 hours overlap with working hours.
Company:
A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.
What to expect:
Your role as a data engineer involves reporting to the head of the data and analytics department and participating in the creation of the entire structure and infrastructure necessary to support operations in the fintech/banking sector.
Responsibilities:
• Developing, creating, and maintaining data infrastructure for optimal extraction, transformation, and loading of data from various sources using SQL, and big data technologies.
• Creating and implementing data collection systems that integrate various sources, including company proprietary data and external sources.
• Automating the process of collecting and visualizing user engagement data.
• Developing and supporting data processes on the Google Cloud platform and in the Snowflake system for efficient data processing.
• Extracting data via API/SFTP and ensuring its correctness and relevance.
What we are looking for:
Qualifications:
• Fintech/Bank working experience (must have).
• Minimum 6 years of professional experience as a data engineer/data analyst in the fintech/banking sector.
• Deep knowledge of GCP, Snowflake, dbt, Airflow, and GitHub.
• Strong proficiency in Python and SQL.
• Experience in data intake via API/SFTP.
• Attention to detail and strong communication skills, both orally and in writing.
Nice to have:
• Bachelor's or master's degree in computer science, database management, etc.
Please send the completed application form together with your CV.
• How many years of experience do you have with Google Cloud Platform (GCP)?
• How many years of experience do you have with Snowflake?
• How many years of experience do you have with dbt?
• How many years of experience do you have with Airflow?
• How many years of experience do you have with GitHub?
• Do you have experience working with data intake through API/SFTP? If yes, please describe.
• How many years of experience do you have with Python?
• How many years of experience do you have with SQL?
• What salary USD is expected?
#Dataengineer #вакансия #middle #Москва
Всем добрый день!
Вакансия: Data engineer
Компания: Инновационный центр "Безопасный Транспорт" Big Data подразделение внутри Департамента Транспорта Москвы
Формат работы: гибрид (1 день из офиса)
Адрес офиса: Москва, м Белорусская (кольцевая)
Уровень заработной платы: до 250 000 руб. на руки
О компании:
Инновационный центр "Безопасный Транспорт" —ключевой источник и поставщикBigData для всего Транспортного комплекса города Москвы, разрабатывает цифровые продукты, оказывающие влияние на транспортную безопасность дорог Москвы.
Мы гарантируем будущему коллеге:
• Оформление по ТК с первого рабочего дня;
• Гибридный формат (1 день из офиса на Белорусской);
• Белая заработная плата, обсуждается индивидуально, в зависимости от опыта кандидата (до 250 на руки);
• Отпуск 42 дня;
• Бесплатный проезд в метро;
• Полугодовое ревью, по итогам которого можно повысить уровень дохода или роль в команде.
Чем предстоит заниматься:
• Поддержка работоспособности и дальнейшее развитие платформы данных;
• Интеграция Х Д с различными источниками (FTP, API, сайты) с помощью Python;
• Преобразование данных из различных форматов (xml, json) к табличному виду с помощью Python;
• Разработка витрин данных с использованием SQL, Python, PySpark;
• Разработка и доработка batch и real-time процессов загрузки данных в различные слои ХД в Hive, Vertica, PostgreSQL, ClickHouse, DB2;
• Развитие системы мониторинга качества данных;
• Совершенствование и разработка новых внутренних процессов команды;
• Декомпозиция и оценка трудозатрат по своим задачам;
• Code-review;
• Поддержка в актуальном состоянии базы знаний и технической документации ХД.
Мы ожидаем от кандидата:
• Законченное высшее образование!
• Наш стэк: Apache Spark, Spark streaming, Kafka, Apache Hive, Airflow, Linux, Git, Bash, Vertica, Grafana+Zabbix, PostgreSql, ClickHouse, DB2
• Понимание теории и практики построения Хранилищ Данных на уровне data-инженера;
• Уверенное владение SQL, опыт написания сложных запросов с подзапросами, оконными функциями и регулярными выражениями, навыки оптимизации запросов;
• Уверенные навыки программирования, умение читать и понимать код на Python;
• Понимание принципов работы Git-систем и систем оркестрации;
• Заинтересованность в личном развитии и развитии города.
Контакт: @ElinaPankratova
Всем добрый день!
Вакансия: Data engineer
Компания: Инновационный центр "Безопасный Транспорт" Big Data подразделение внутри Департамента Транспорта Москвы
Формат работы: гибрид (1 день из офиса)
Адрес офиса: Москва, м Белорусская (кольцевая)
Уровень заработной платы: до 250 000 руб. на руки
О компании:
Инновационный центр "Безопасный Транспорт" —ключевой источник и поставщикBigData для всего Транспортного комплекса города Москвы, разрабатывает цифровые продукты, оказывающие влияние на транспортную безопасность дорог Москвы.
Мы гарантируем будущему коллеге:
• Оформление по ТК с первого рабочего дня;
• Гибридный формат (1 день из офиса на Белорусской);
• Белая заработная плата, обсуждается индивидуально, в зависимости от опыта кандидата (до 250 на руки);
• Отпуск 42 дня;
• Бесплатный проезд в метро;
• Полугодовое ревью, по итогам которого можно повысить уровень дохода или роль в команде.
Чем предстоит заниматься:
• Поддержка работоспособности и дальнейшее развитие платформы данных;
• Интеграция Х Д с различными источниками (FTP, API, сайты) с помощью Python;
• Преобразование данных из различных форматов (xml, json) к табличному виду с помощью Python;
• Разработка витрин данных с использованием SQL, Python, PySpark;
• Разработка и доработка batch и real-time процессов загрузки данных в различные слои ХД в Hive, Vertica, PostgreSQL, ClickHouse, DB2;
• Развитие системы мониторинга качества данных;
• Совершенствование и разработка новых внутренних процессов команды;
• Декомпозиция и оценка трудозатрат по своим задачам;
• Code-review;
• Поддержка в актуальном состоянии базы знаний и технической документации ХД.
Мы ожидаем от кандидата:
• Законченное высшее образование!
• Наш стэк: Apache Spark, Spark streaming, Kafka, Apache Hive, Airflow, Linux, Git, Bash, Vertica, Grafana+Zabbix, PostgreSql, ClickHouse, DB2
• Понимание теории и практики построения Хранилищ Данных на уровне data-инженера;
• Уверенное владение SQL, опыт написания сложных запросов с подзапросами, оконными функциями и регулярными выражениями, навыки оптимизации запросов;
• Уверенные навыки программирования, умение читать и понимать код на Python;
• Понимание принципов работы Git-систем и систем оркестрации;
• Заинтересованность в личном развитии и развитии города.
Контакт: @ElinaPankratova
#вакансия #удаленка #релокация #remote #DataEngineer
Senior Data Engineer
💚 Компания: Fundraise Up
⏱ Формат работы: удаленка
💻 Занятость: полная
💰 Вилка: $3,800 - $6,400
💌 Контакты для связи: tg @mmatveeva_FRU
💫Делаем продукт для сбора донатов на сайтах. Совершаем транзакции на $10M ежемесячно, храним миллиарды событий и имеем сотни счастливых клиентов.
⭐Ищем Senior Data Engineer Делимся экспертизой и долей компании. Обеспечиваем всем необходимым для комфортной работы.
✈ Позиция предполагает релокацию из РФ и РБ. При желании вы можете воспользоваться нашей программой релокации, которая распространяется на Европу, Сербию и Грузию.
♦Кого ищем
Мы ищем опытного дата-инженера с 5+ годами опыта, которому предстоит стать первым дата-инженером в компании и работать над созданием и оптимизацией масштабируемых конвейеров данных и ETL процессов.
-5+ лет опыта работы на позиции Data Engineer
-3+ лет опыта разработки на Python
-Понимание алгоритмов и принципов обработки данных
-Опыт работы с Clickhouse, MongoDB, Airflow
-Навыки оптимизации запросов и работы с большими объемами данных
♦Формальный список того, что нужно делать
-Проектирование, разработка, тестирование и оркестрирование масштабируемых конвейеров данных и ETL-процессов
-Поддержка и развитие Data Warehouse
-Участие в проектировании системы и разработке архитектурных решений совместно с командой разработки и аналитики
-Настройка мониторинга и алертов
-Оптимизация и написание запросов к MongoDB и ClickHouse
-Управление и поддержка рабочих процессов в Airflow
-Работа с Docker и другими связанными технологиями для обеспечения стабильности и масштабируемости решений
♦Бонусы
Нам важно чтобы работая удаленно, вы чувствовали себя комфортно. Обычно мы отправляем сотрудникам Macbook и нужное число мониторов. Если ваше рабочее место не обустроено, то пришлем стол, удобное кресло и все что нужно для продуктивной работы.
Полностью оплачиваем необходимое ПО, книги и коворкинг, если не хотите работать из дома. Помогаем с оплатой спортзала и бассейна, курсов английского и любого профильного образования.
Senior Data Engineer
💚 Компания: Fundraise Up
⏱ Формат работы: удаленка
💻 Занятость: полная
💰 Вилка: $3,800 - $6,400
💌 Контакты для связи: tg @mmatveeva_FRU
💫Делаем продукт для сбора донатов на сайтах. Совершаем транзакции на $10M ежемесячно, храним миллиарды событий и имеем сотни счастливых клиентов.
⭐Ищем Senior Data Engineer Делимся экспертизой и долей компании. Обеспечиваем всем необходимым для комфортной работы.
✈ Позиция предполагает релокацию из РФ и РБ. При желании вы можете воспользоваться нашей программой релокации, которая распространяется на Европу, Сербию и Грузию.
♦Кого ищем
Мы ищем опытного дата-инженера с 5+ годами опыта, которому предстоит стать первым дата-инженером в компании и работать над созданием и оптимизацией масштабируемых конвейеров данных и ETL процессов.
-5+ лет опыта работы на позиции Data Engineer
-3+ лет опыта разработки на Python
-Понимание алгоритмов и принципов обработки данных
-Опыт работы с Clickhouse, MongoDB, Airflow
-Навыки оптимизации запросов и работы с большими объемами данных
♦Формальный список того, что нужно делать
-Проектирование, разработка, тестирование и оркестрирование масштабируемых конвейеров данных и ETL-процессов
-Поддержка и развитие Data Warehouse
-Участие в проектировании системы и разработке архитектурных решений совместно с командой разработки и аналитики
-Настройка мониторинга и алертов
-Оптимизация и написание запросов к MongoDB и ClickHouse
-Управление и поддержка рабочих процессов в Airflow
-Работа с Docker и другими связанными технологиями для обеспечения стабильности и масштабируемости решений
♦Бонусы
Нам важно чтобы работая удаленно, вы чувствовали себя комфортно. Обычно мы отправляем сотрудникам Macbook и нужное число мониторов. Если ваше рабочее место не обустроено, то пришлем стол, удобное кресло и все что нужно для продуктивной работы.
Полностью оплачиваем необходимое ПО, книги и коворкинг, если не хотите работать из дома. Помогаем с оплатой спортзала и бассейна, курсов английского и любого профильного образования.