Data Science Jobs
14.8K subscribers
49 photos
2 videos
1 file
638 links
Лучшие вакансии по темам Data Science, машинного обучения, нейросетей, искусственного интеллекта, компьютерного зрения, сбора, обработки и анализа данных.

По всем вопросам: @musit
Чат: @bigdata_ru
Download Telegram
#вакансия #Москва #fulltime #BigData #python #MLOps
Компания: Альфа-Банк 🅰
Должность: Python Developer Big Data
Город: Москва, м. Технопарк, удалёнка/офис 50/50
Контакты: @johnotanovna / erazborova@alfabank.ru

Ищем разработчика Python в команду MLOps (Machine Learning Operations), для разработки инструментов внедрения моделей машинного обучения. Наш основной продукт - Feature Store:
1. фреймворк на python для DE для создания ETL процессов
2. web приложение - каталог описанных фичей и мониторинг ETL процессов
3. фреймворк на python для MLOps инженеров для получения фичей в промышленных средах

Мы постоянно думаем как упорядочить, автоматизировать и облегчить работу коллег, для ускорения вывода моделей в банке.

Какие задачи необходимо будет решать:
📌 Реализовывать высоко нагруженные и производительные сервисы на Python
📌 Разрабатывать компоненты SDK для расчета фичей на Hadoop(Spark), запуска задач на Airflow
📌 Участвовать в проектировании архитектуры, выработке решений по бизнес задачам
📌 Консультировать DE и DS по работе продуктов и выявлять технические потребности
📌 Проводить code review, писать автотесты
📌 Разбирать инциденты

Что ожидаем от кандидата:
Опыт разработки на Python 3.X
▪️ Опыт работы c фреймворками автоматизации процессов и оркестрации задач (например, AirFlow, Prefect, Luigi и др.)
▪️ Опыт работы с web фреймворками fastapi/ aiohttp/ django
▪️ Опыт работы с Docker, представление/ владение kubernetes
▪️ Опыт работы с реляционными СУБД (у нас PostgreSQL) через ОРМ (SqlAlchemy) и не только
▪️ Опыт работы с брокерами сообщений Kafka
▪️ Опыт работы с Spark
▪️ Готовность и умение работать в команде

Не обязательно, но будет здорово, если есть:
▪️ Опыт разработки библиотек и SDK
▪️ Опыт разработки ETL процессов
▪️ Опыт разработки инфраструктурных решений для интеграции моделей машинного обучения в промышленную эксплуатацию
▪️ Опыт работы с cassandra, tarantool, clickhouse
▪️ Опыт написания документации

Что предлагаем:
▪️ Работу в дружной agile-команде в технологичном пространстве на Технопарке. Рабочая неделя — 5 дней. Пятница — сокращенная
▪️ Гибридный формат работы: можно из офиса, а можно из дома
▪️ Стабильный и прозрачный доход: размер заработной платы обсуждается по итогам собеседования + квартальная премия по результатам KPI
▪️ Сложные и интересные задачи, современный стек технологий
▪️ ДМС
▪️ Корпоративное обучение

Направить резюме и задать вопросы можно в ТГ @johnotanovna и на почту erazborova@alfabank.ru
#вакансия #Москва #fulltime #BigData #python #DS
Компания: Альфа-Банк 🅰
Должность: Руководитель направления валидации моделей некредитного риска
Город: Москва/ Санкт-Петербург/ Екатеринбург, удалёнка/офис 50/50
Контакты: @johnotanovna / erazborova@alfabank.ru

Ищем Руководителя направления валидации моделей некредитного риска

Какие задачи необходимо будет решать:
📌 Проводить валидацию моделей оценки некредитного риска направления Казначейство (анализ моделей процентного риска, ценообразования, ликвидности) и Общекорпоративные функции (безопасность, анализ работы сети отделений и банкоматов, нейросети)
📌 Готовить рекомендации по улучшению моделей и процессов управления рисками с учетом особенностей конкретного бизнеса
📌 Оценивать методологию, готовить рекомендации по проведению и усовершенствованию стресс-тестов
📌 Сопровождать и контролировать выполнение рекомендаций
📌 Оказывать консультационную поддержку коллег из смежных подразделений по вопросам разработки моделей и их наиболее эффективного использования
📌 Рассчитывать ключевые индикаторы модельного риска
📌 Осуществлять валидацию методик оценки потерь от реализации модельного риска

Что ожидаем от кандидата:
Высшее экономическое/ IT/ математическое образование
▪️ Опыт валидации/разработки моделей процентного риска и ликвидности
▪️ Знание принципов разработки статистических моделей с бинарной и небинарной целевой переменной
▪️ Знание python, SAS, опыт работы с Hadoop
▪️ Опыт руководства командой
▪️ Стрессоустойчивость
▪️ Нацеленность на результат

Что предлагаем:
▪️ Стабильный и прозрачный доход: размер заработной платы обсуждается по итогам собеседования+ квартальная премия по результатам KPI
▪️ Гибридный формат работы: можно из офиса, а можно из дома, возможен полностью удаленный формат работы
▪️ Сложные и интересные задачи, современный стек технологий
▪️ ДМС
▪️ Корпоративное обучение

Направить резюме и задать вопросы можно в ТГ @johnotanovna и на почту erazborova@alfabank.ru
#москва #вакансия #аналитик #fulltime #office #middle #Senior #BigData #DataAnalyst

🔥Senior Data Analyst🔥
🥚Компания: МТС Big Data
💰Финансы: 250-340k gross
📍 Локация: г. Москва, м. Технопарк (Возможна удаленная работа в рамках РФ)

Команда центра Big Data находится в поиске Data Analyst на продукт МТС Аналитика.
МТС Аналитика – это единая аналитическая платформа для анализа поведения пользователей в web и app приложениях экосистемы МТС.
Наша цель – эффективная рекламная атрибуция, обогащенные Big Data полезные данные о когортах, кросс-продуктовый пользовательский путь и LTV пользователя и продукта, сдобренные собственным UI для визуализации метрик и командной работы.

Кого мы ищем:

- Опыт работы в профессии от 3 лет
- Понимание работы веб-ресурсов: классические сайты, сайты с встроенными iframe, SPA
- Понимание работы мобильных приложений
- Знание Яндекс Метрики, AppMetica и Google Analytics на уровне сбора данных и логики формирования отчётов
- Понимание работы Measurement Protocol
- Опыт использования Python для выгрузки и обработки данных
- Опыт применения SQL для решения задач аналитики: объединение данных разных таблиц, агрегирование данных, группировки, оконные функции
- Опыт работы с аналитическими базами данных
- Опыт работы с BI инструментами для визуализации данных (например, Tableau, Google Data Studio, Yandex DataLens или Superset)
- Опыт решения задач маркетингового анализа с использованием различных моделей атрибуции
- Понимание методологий разделения трафика по каналам для веб и апп ресурсов
- Опыт выстраивания сквозной аналитики
- Знание математической статистики
- Умение аргументированно отстаивать свою точку зрения
- Внимательность и самоорганизованность

Будет плюсом:

- Профильное образование (прикладная информатика/ математика в экономике/ ФизМат etc.)
- Опыт работы с большими данными: Hadoop / AirFlow / Pyspark и т.п.
- Знание JS, HTML, CSS на уровне понимания кода
- Опыт работы с Google Tag Manager
- Опыт запуска A/B тестов

Что предстоит делать:

- Анализ работы платформы, предложение полезных решений
- Проверка качества собираемых данных и оценка потерь
- Формирование методологии обработки данных для расчета продуктовых метрик и передача прототипов кода в команду разработки с сопровождением
- Формировании прототипов отчетов интерфейса платформы
- Участие в разработке моделей для оценки трафика (атрибуция, fingerprint и т.п.)
- Работа с обратной связью от команд МТС после сдачи проекта в эксплуатацию

Что предлагаем:

- Плавающее начало рабочего дня, гибридный график (возможность несколько дней работать из дома)
Условия и бонусы:
- ДМС, куда включены: стоматология, страхование жизни и страховка при поездках за рубеж
- Десятки курсов и тренингов в Корпоративном университете МТС и Собственная виртуальная библиотека
- Корпоративный психолог и карьерный коуч
- Спорт: компенсация фитнес-абонемента, бассейна, скидка в «Alex fitness», «Spirit fitness», «World class» и др.
- Бесплатная сотовая связь, выгодные тарифы для ваших близких, промокод на онлайн-кинотеатр KION и бесплатная подписка на МТС Premium
- Программа «Invite IT» (реферальная программа поощрения за рекомендацию ИТ-специалиста)

Очень ждем тебя в нашей команде МТС
Присылать резюме и задавать вопросы по вакансии можно в Tg: @dssmash
#вакансия #fulltime #middle #senior #BigData #DataScientist #ML

🔥Middle/Senior Data Scientist в направление Рекомендательной платформы🔥
🥚Компания: МТС Big Data
💰Финансы: 300-350k gross
📍 Локация: г. Москва, м. Технопарк (Возможна удаленная работа в рамках РФ)

🔴Кандидат присоединится к работе команды рекомендательных систем для Строки в подразделении МТС Big Data.
В настоящий момент мы ищем специалистов для создания персональных рекомендаций по жанрам для текстовых и аудио книг.
В перспективе планируется сделать лучшие кросс-контентные рекомендательные модели, такие как подбор музыки по ходу прочтения книги, анализ текста книги, выделение облака тегов и эмоциональную окраску текста за счет добавления музыки, соответствующей настроению текста.
В ходе проектов работа будет вестись в команде с Data Science Тим лидом, который будет помогать с решением сложных технических кейсов.

🔴Кого мы ищем:

- Знание классического ML
- Знание Python, опыт написания кода в прод
- Опыт внедрения ML в прод
- Знание статистики
- Опыт проведения A/B-тестов
- SQL или Spark (опыт работы с hadoop стеком: hadoop, spark, hive)
- Linux (bash)
- GIT

🔴Что предстоит делать:

- Создание рекомендательной системы и вывод ее в прод
- Оценка ML моделей, управление эффективностью алгоритмов
- Подсчет результата пилотов по запускам инициатив (новая модель, новый триггер)
- Поиск инсайтов в данных
- Формирование и проверка гипотез
- Работа с сегментацией

🔴Что предлагаем:

- График работы: плавающее начало рабочего дня, гибридный график (возможность несколько дней работать из дома)
- ДМС, куда включены: стоматология, страхование жизни и страховка при поездках за рубеж
- Десятки курсов и тренингов в Корпоративном университете МТС и Собственная виртуальная библиотека
- Корпоративный психолог и карьерный коуч
- Спорт: компенсация фитнес-абонемента, бассейна, скидка в «Alex fitness», «Spirit fitness», «World class» и др.
- Бесплатная сотовая связь, выгодные тарифы для ваших близких, промокод на онлайн-кинотеатр KION и бесплатная подписка на МТС Premium
- Программа «Invite IT» (реферальная программа поощрения за рекомендацию ИТ-специалиста)

☺️Очень ждем тебя в нашей команде ☺️
💬Присылать резюме и задавать вопросы по вакансии можно в Tg: @dssmash
Please open Telegram to view this post
VIEW IN TELEGRAM
#вакансия #middle #senior #bigdata #Analyst #Datascientist #senior #ABtests #digital #digitalреклама #аналитик

Ведущий Аналитик данных (Python)

Локация: Москва (сотруднику важно находится на территории России)
Занятость: полная
Формат работы: обсуждается
Зарплата: 250000 на руки, ДМС, компенсация бизнес-ланчей

Московский офис международной независимой big-data компании (технологический вендор). Компания продолжает работать в полном объеме на российском рынке и развивает технологии и алгоритмы сбора, сегментации и активации данных о поведении интернет-пользователей, располагает наиболее полным набором технологических решений и широкой экспертизой в области использования аудиторных данных в маркетинге.

🔎Ищем опытного Аналитика данных, который хочет участвовать в комплексном развитие аналитических продуктов компании.

Задачи и обязанности
Создание новых и развитие текущих аналитических продуктов для решения задач клиентов и рынка.
Ежедневная работа собственными технологиями компании.
Коммуникация с глобальной командой по развитию и продвижению аналитических продуктов.
Проведение аудиторных исследований (для лидирующих FMCG, Tech, Entertainment компаний): A/B тесты, кластеризация, презентация клиентам.
Проведение исследований на базе семантического анализа (для лидирующих FMCG, Development компаний): Web scraping, WordClouds, Sentiment analysis, презентация клиентам.
Проведение исследований по динамике роста знаний о продукте клиента - BrandLift (Для лидирующих FMCG, Tech, Pharma компаний): A/B тесты.
Создание кастомных аудиторных сегментов.
Выведение годовых бенчмарков по показателям эффективности рекламных кампаний.
Участие в пре-сейле и защите проекта перед клиентом.

🔎Условия работы
•Возможность профессионального и карьерного роста
•Полностью белая заработная плата
•Премии
•Компенсация обедов
•ДМС
•Оформление только в штат компании

🔎Требования к кандидату
•Опытный специалист (не ниже уровня middle)
•Владение одним из языков программирования: R (tidyverse) / Python (pandas) - опыт использования в работе
•SQL - опыт использования в работе
•Опыт работы на рынке digital-рекламы будет плюсом
•Опыт проведения маркетинговых исследований
•Опыт создания дашбордов в Data Studio будет плюсом
•Уверенное владение Excel, Keynote/PowerPoint
•Английский язык – не ниже intermediate (придется постоянно взаимодействовать с коллегами головного офиса в Европе)
📨Пожалуйста, присылайте резюме @olganikolova
#вакансия #Москва #fulltime #BigData #DS

Позиция:
A/B-tests Team Lead (сейчас команда – 0 человек).
Куда: Альфа-Банк, Департамент продвинутой аналитики
Формат работы: Гибрид - Москва, м. Технопарк + удаленно.


Что нужно делать?
1. Общаться (много!) с владельцами процессов, определять методологию проведения тестов, запускать тесты самостоятельно (или контролировать процесс запуска), анализировать данные и формировать аналитические отчёты, описывать всё это в Confuence, помогать бизнес-заказчикам принимать правильные решения.
2. Создавать с нуля и описывать обобщённую методологию проведения сплит-тестов, которую смогут переиспользовать другие; выстраивать формализованные процессы; распространять и пропагандировать лучшие практики по механикам проведения экспериментов (как в Альфе, так и вовне).
3. Растить функцию на основе череды успехов – с фактами в руках защищать планы роста, быть руководителем и лидером для будущей команды.
4. Принимать участие в создании архитектурных решений для платформ проведения сплит-тестов, в идеале - создания единого контура тестирования моделей машинного обучения.
5. Первоочередные задачи – поддержка экспериментов команды Центра компетенций по NLP Лаборатории машинного обучения.

Мы ожидаем от вас:
1. Опыт руководства функцией сплит-тестирования. Общий опыт работы в этом направлении – от 2 лет.
2. Лидерский опыт (начинать придётся одному), опыт руководства командой (будут успехи – будет команда), проактивность и умение самостоятельно достигать результат.
3. Hard skills: Python, bash, SQL, Hadoop; Tableau/ClickView/PowerBI; BitBucket (Git), JIRA и Confluence.
4. Образование: физ.-мат., техническое, ИТ; хорошая база в мат.стате и теор.вере; чёрный пояс по пакетам для стат. анализа и визуализации в Python (statsmodels, seaborn и т.п.). У нас нет и не будет R 😈
5. Развитые коммуникативные навыки для ведения переговоров с внутренними и внешними контрагентами, некоторые из которых могут быть (ошибочно) уверены, что и так всё понятно, и так всё хорошо работает. Умение писать понятную и грамотную документацию, аналитические записки. Грамотная устная и письменная речь, структурированное изложение мыслей. Время от времени придётся делать презентации на понятном для конкретного заказчика языке - это тоже надо уметь.
6. Идеально, если есть ещё и опыт создания, сопровождения и развития единого фреймворка сплит-тестирования в организации.

Ответы на 10 важных вопросов:
1. Данные: Обычно - Hadoop (все данные Альфа-Банка) + внешние источники по API. Могут быть эзотерические источники – локальные БД (Vertica, MongoDB и т.п.).
2. Железо: Потенциально – 2 TB RAM, 96 cores. Будем отталкиваться от необходимости и можем расширять аллокацию ресурсов. Для работы: MacBook + удалённое рабочее место.
3. Масштаб влияния на core-бизнес? Модели - ядро большинства банковских процессов. Амбиция – ответственность за все тестирование моделей (или процессов, с ними связанных) в Альфа-Банке.
4. Уровень развития Data Science в компании? Все линии бизнеса покрыты ML моделями, где необходимо - успешно внедрен DL.
5. Роль: см. что нужно делать (выше).
6. Бэкграунд у вашего руководителя? https://www.linkedin.com/in/vadimayuyev/
7. Как часто вам будут мешать работать? Пока непонятно. Минимум, 1 час организационных встреч в неделю. Остальное будет зависеть от конкретных заказчиков и операционного ритма с ними.
8. Карьерный рост: формализованная матрица компетенций не создана – придётся разрабатывать.
9. Prod/Research: на начальном этапе Prod – 80% (надо проводить тестирование в боевых процессах), Research – 20% (инвестиция в развитие методологии). В целевом сценарии, после создания и роста команды, пропорция обратная.
10. Функция сервиса или лидера? 50/50. Функция создаётся с 0. Задача – обеспечивать качественный аналитический сервис.

Буду рада познакомиться лично и рассказать подробнее о задачах и компании.
Направить резюме и задать вопросы можно в ТГ @nellismo или на почту NNSemenova@alfabank.ru
#Работа #Удаленка #BigData

Team lead Data Platform в Актион-Технологии

📍 Расположение: Москва
📌 Формат: full-time, гибридный формат или полная удалёнка (можно работать за пределами РФ)
💸 Зарплатная вилка: до 400 тысяч net + годовой KPI

Кто мы? 🤔
Мы большой медиахолдинг с более, чем 25-летней историей, миллиардной выручкой, и гигантскими планами по развитию компании!
Мы разрабатываем полезные сервисы и продукты для 15 профессиональных аудиторий.

И для этого нам не хватает только тебя - человека, которому сможем доверить направление Data Platform 🦾

Что уже успели поделать:
✔️Мы подготовили инфраструктуру на базе Hadoop и GreenPlum для загрузки, обработки и построения витрин данных
✔️Описали и загрузили данные ряда продуктов холдинга и приступили к описанию и загрузке следующих
✔️Запилили более 100 pipelines по загрузке данных
✔️Сделали систему статистики с 40 миллионами событий в день
✔️Создали набор стандартных библиотек для загрузки данных из стандартных источников

Что планируем сделать 🔜
📌Загрузить ещё десяток новых источников
📌Создать Data Catalog
📌Осуществить переход на Airflow2
📌Выделять типовые задачи и удешевлять их разработку

А еще у нас есть задачи на стыке DWH и ML 🤖🦿
📌подготовка данных для обучения разнообразных моделей (у нас тут громадьё планов)
📌написание веб-сервисов для интеграции данных, полученных от ML с продуктами холдинга

Что для нас важно в тебе 🤝
📌Уверенные знания SQL
📌Знание любого ЯП (у нас используется Python, Spark, Go)
📌Знание основ ООП, умение делать поддерживаемые решения
📌Умение организовать процесс загрузки, обработки и доставки обработанных данных конечным потребителям
📌Высокий уровень самообучения
📌Навыки решения бизнес-задач на основе большого количества данных
📌Желание мотивировать и развивать команду
📌Умение оптимизировать процессы разработки

Не обязательно, но будет очень здорово, если 🤘
📌Знаешь Open Source фреймворки Big Data: (Hadoop, MapReduce, Spark & Spark Streaming, Hive, Kafka)
📌Знаком с Apache Nifi и Apache Airflow

Что есть у нас и чем готовы делиться 🎁🍪
📌Белая, своевременная и конкурентоспособная заработная плата
📌ДМС (включая стоматологию)
📌Удобное место для работы и современное “железо”
📌Гибкий график. Начало работы с 8 до 11
📌Удалёнка из-за границы, но продолжаем взаимодействовать по ТК РФ
📌Профессиональный рост (у нас есть внутреннее обучение, возможность посещать конференции и митапы, мы спонсируем))
📌Корпоративная библиотека (огромное количество профессиональной литературы - бери, читай, наслаждайся)
📌Может быть важно: мы аккредитованная ИТ-компания

Звучит здорово? Откликается?)
Напиши нам обязательно, давай обсудим)
Для этого нам всего-то нужно твое CV, а начать коммуникацию можем тут, Telegram - @brauerone
#вакансия #middle #senior #bigdata #Analyst #Datascientist #senior #ABtests #digital #digitalреклама #аналитик

Ведущий Аналитик данных (Python)

Локация: Москва
Занятость: полная
Формат работы: обсуждается
Зарплата: 250000 на руки, ДМС, компенсация бизнес-ланчей

Московский офис международной независимой big-data компании (технологический вендор). Компания продолжает работать в полном объеме на российском рынке и развивает технологии и алгоритмы сбора, сегментации и активации данных о поведении интернет-пользователей, располагает наиболее полным набором технологических решений и широкой экспертизой в области использования аудиторных данных в маркетинге.

🔎Ищем опытного Аналитика данных, который хочет участвовать в комплексном развитие аналитических продуктов компании.

📍Задачи и обязанности
Создание новых и развитие текущих аналитических продуктов для решения задач клиентов и рынка.
Ежедневная работа собственными технологиями компании.
Коммуникация с глобальной командой по развитию и продвижению аналитических продуктов.
Проведение аудиторных исследований (для лидирующих FMCG, Tech, Entertainment компаний): A/B тесты, кластеризация, презентация клиентам.
Проведение исследований на базе семантического анализа (для лидирующих FMCG, Development компаний): Web scraping, WordClouds, Sentiment analysis, презентация клиентам.
Проведение исследований по динамике роста знаний о продукте клиента - BrandLift (Для лидирующих FMCG, Tech, Pharma компаний): A/B тесты.
Создание кастомных аудиторных сегментов.
Выведение годовых бенчмарков по показателям эффективности рекламных кампаний.
Участие в пре-сейле и защите проекта перед клиентом.

🔎Условия работы
•Возможность профессионального и карьерного роста
•Полностью белая заработная плата
•Премии
•Компенсация обедов
•ДМС
•Оформление только в штат компании

🔎Требования к кандидату
•Опытный специалист (не ниже уровня middle)
•Владение одним из языков программирования: R (tidyverse) / Python (pandas) - опыт использования в работе
•SQL - опыт использования в работе
•Опыт работы на рынке digital-рекламы будет плюсом
•Опыт проведения маркетинговых исследований
•Опыт создания дашбордов в Data Studio будет плюсом
•Уверенное владение Excel, Keynote/PowerPoint
•Английский язык – не ниже intermediate (придется постоянно взаимодействовать с коллегами головного офиса в Европе)
📨Пожалуйста, присылайте резюме @olganikolova

Не забудь уточнить, что ты из @datasciencejobs
#DataEngineer #ContractPosition #Remote #SQL #BigData #FinancialData #Python #BigQ #Looker #Snowflake

Разыскиваем #DataEngineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, но возможны варианты.
Стек технологий: GCP, ETL, Snowflake, BigQ, Python, Looker (нужен full stack)
Английский B2 и выше – условие обязательное.
Работать за пределами России и Беларуси - условие обязательное.
Зарплата $5000 – 6500 NET
Для связи: https://t.me/Tary_bird

Description of the Data Engineer contract position:
Location: Preferably San Francisco Bay Area, or remotely in the Pacific or Central Time zone.
Company:
A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.

What you will be doing:
As a data engineer, you will report to the head of data and analytics and help create the entire data structure and infrastructure supporting operations.

Responsibilities:
Design, create, and maintain the data infrastructure necessary for optimal extraction, transformation, and loading of data from various data sources using SQL, NoSQL, and big data technologies.
Develop and implement data collection systems that integrate various sources such as company proprietary data and third-party data sources, etc.
Create an automated process for collecting and visualizing user engagement data from CRM/UI.

What we are looking for:
Qualifications:
• Experience of at least 3 years as a data engineer or full stack in the field of data warehousing, data monitoring, and building and maintaining ETL pipelines.
• Valid experience with the Google cloud platform (GCP).
• Deep experience with data pipeline and workflow management tools (e.g., Airflow).
• Solid knowledge and experience with database design, setup, and maintenance.
• Proven ability to work in highly dynamic environments with high product velocity.
• Strong proficiency in Python.
• Strong proficiency in SQL.
• Familiarity with data visualization tools (Looker ).
• Experience with Snowflake.
• Experience with BigQuery.
• Strong communication skills, both orally and in writing.
• Familiarity with CRM (Affinity, Salesforce), automation tools (Zapier)

Bonus points:
• Experience in venture capital data operations/working with financial data.
• Familiarity with CRM (Affinity, Salesforce), automation tools (Zapier).
• Bachelor's or master's degree in computer science, database management, etc.
#DataEngineer #ContractPosition #Remote # GCP #ThoughtSpot #BigData #Affinity #Slack #Looker #Snowflake

Разыскиваем #DataEngineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, но возможны варианты.

Стек технологий: GCP, ETL, Snowflake, CRM Affinity, SQL, Airflow, ThoughtSpot (preferred) or Looker , Python, SQL (нужен full stack!)

Английский B2 и выше – условие обязательное.

Работать за пределами России и Беларуси - условие обязательное.

Зарплата $5000 – 6500 NET

Для самых внимательных, кто действительно читает описание вакансии: просим откликаться в том случае, если у вас есть полный стек и присылать резюме в формате Word.

Для связи: https://t.me/Tary_bird

Description of the Data Engineer contract position:

Location: Preferably San Francisco Bay Area, or remotely in the Pacific or Central Time zone.

Company:

A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.

What to expect:

Your role as a data engineer involves reporting to the head of the data and analytics department and participating in the creation of the entire structure and infrastructure necessary to support operations.

Responsibilities:
   Developing, creating, and maintaining data infrastructure for optimal extraction, transformation, and loading of data from various sources using SQL, NoSQL, and big data technologies.
   Creating and implementing data collection systems that integrate various sources, including company proprietary data and external sources.
   Automating the process of collecting and visualizing user engagement data from CRM/UI.
   Developing and supporting ETL (Extract, Transform, Load) processes on the Google Cloud platform and in the Snowflake system for efficient data processing.
   Extracting data from the Affinity CRM system, ensuring its correctness and relevance.
   Integrating notifications into Slack to improve communication within the team.
   If necessary, developing and supporting analytical reports and dashboards in BI tools such as ThoughtSpot (preferred) or Looker to make data-driven decisions.

What we are looking for:

Qualifications:
•  Experience of at least 3 years as a data engineer or full stack in the field of data warehousing, data monitoring, and building and maintaining ETL pipelines, including experience with Google Cloud and Snowflake.
•  Deep experience with data pipeline and workflow management tools (Airflow).
•  Strong proficiency in SQL and Python
•  Experience with BigQuery.
•  experience extracting data out of Affinity CRM and integrate notifications back to Slack
•  Solid knowledge and experience with database design, setup, and maintenance.
•  Proven ability to work in highly dynamic environments with high product velocity
•  Strong communication skills, both orally and in writing.

Nice to have:

•  BI tool experience on ThoughtSpot (preferred) or Looker
•  Bachelor's or master's degree in computer science, database management, etc.

For those who pay close attention and thoroughly read through job descriptions: please only apply if you possess full-stack capabilities and send your resume in Word format.
#DataEngineer #ContractPosition #Remote #GCP #ThoughtSpot #BigData #Affinity #Slack #Looker #Snowflake

Разыскивается DataEngineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, но возможны варианты.

Стек технологий: GCP, ETL, Snowflake, CRM Affinity, SQL, Airflow, ThoughtSpot (preferred) or Looker , Python, SQL (нужен full stack!!!)

Английский B2 и выше – условие обязательное.

Работать за пределами России и Беларуси - условие обязательное.

Зарплата $5000 – 6500 NET

Для самых внимательных, кто действительно читает описание вакансии: просим  - откликаться только в том случае, если у вас есть полный стек,  - присылать резюме в формате Word.
Для связи: https://t.me/Tary_bird

Description of the Data Engineer contract position:

Location: Preferably San Francisco Bay Area, or remotely in the Pacific or Central Time zone.

Company:

A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.

What to expect:

Your role as a data engineer involves reporting to the head of the data and analytics department and participating in the creation of the entire structure and infrastructure necessary to support operations.

Responsibilities:
   Developing, creating, and maintaining data infrastructure for optimal extraction, transformation, and loading of data from various sources using SQL, NoSQL, and big data technologies.
   Creating and implementing data collection systems that integrate various sources, including company proprietary data and external sources.
   Automating the process of collecting and visualizing user engagement data from CRM/UI.
   Developing and supporting ETL (Extract, Transform, Load) processes on the Google Cloud platform and in the Snowflake system for efficient data processing.
   Extracting data from the Affinity CRM system, ensuring its correctness and relevance.
   Integrating notifications into Slack to improve communication within the team.
   If necessary, developing and supporting analytical reports and dashboards in BI tools such as ThoughtSpot (preferred) or Looker to make data-driven decisions.

What we are looking for:

Qualifications:
•  Experience of at least 3 years as a data engineer or full stack in the field of data warehousing, data monitoring, and building and maintaining ETL pipelines, including experience with Google Cloud and Snowflake.
•  Deep experience with data pipeline and workflow management tools (Airflow).
•  Strong proficiency in SQL and Python
•  Experience with BigQuery.
•  experience extracting data out of Affinity CRM and integrate notifications back to Slack
•  Solid knowledge and experience with database design, setup, and maintenance.
•  Proven ability to work in highly dynamic environments with high product velocity
•   Strong communication skills, both orally and in writing.•  BI tool experience on ThoughtSpot (preferred) or Looker
Nice to have:

•  Bachelor's or master's degree in computer science, database management, etc.