Data Science Jobs
15.2K subscribers
45 photos
2 videos
1 file
640 links
Лучшие вакансии по темам Data Science, машинного обучения, нейросетей, искусственного интеллекта, компьютерного зрения, сбора, обработки и анализа данных.

По всем вопросам: @musit
Чат: @bigdata_ru
Download Telegram
#DataScientist #Senior #Middle+ #relocation #remote

We are expanding our DS team and are looking for a talented Senior Data Scientist to join our international team and take part in groundbreaking projects that define the blockchain industry. Clain is building sophisticated analysis software that provides regulatory compliance for crypto related businesses and empowers forensic investigators with ingenious tools to detect and explore crypto-enabled crimes. We offer an ideal workplace for those who want to have a real impact on the growth of an organization and are craving responsibilities.

What we offer:
- A chance to work with cool crypto compliance products and make a real impact on the business
- Powerful server hardware (from 32 CPUs and 256Gb RAM) for work and experiments
- Petabytes of on-chain data and gigabytes of off-chain data: tabular data, json, texts and even pictures
- Relocation to Cyprus (Limassol) with employment and social guarantees in accordance with Cypriot law
- Flexible start of the working day and optionally hybrid working week
- Collaborative and supportive team atmosphere

Key Responsibilities:
- Analysis of on-chain and off-chain data
- Creation and automation of analytical services and ML models
- Participation in the creation of the DS ecosystem

Requirements:
- Strong analytical skills with the ability to extract insights from large datasets and effectively visualize data
- Proven work experience of at least 3 years in a similar role
- Knowledge of development principles: OOP, SOLID
- Practical experience of Python 3, packages: numpy, pandas, pydantic
- Good level of SQL
- Familiar with one of: shell/bash/powershell
- Bachelor's degree in statistics, applied mathematics, or related discipline
- Intermediate English for communication in the international team

It will be a plus:
- Familiar with the principles of Blockchain technology
- Professional level of Python 3 (type hints, logging, profiling, and code modularity)
- Experience with columnar/graph/document-oriented DBs
- Experience with Docker, k8s, AirFlow

If you're driven by innovation, passionate about blockchain, and ready to embrace the challenges of shaping the future, we want to hear from you!

Contact us:
Elena, Talent acquisition manager - tg @elena_yank
#вакансия #remote #middle #de #da #etl #postgresql #clickhouse #dbt

Компания Excdev в поиске Middle Data Engineer/Data Analyst

Удаленный график работы из любой точки мира,зарплатная плата 200-250 тысяч рублей на руки.

Задачи:
- Разработка хранилищ данных, витрин данных;
- Проектирование, разработка и поддержка ETL-процессов;
- Разработка визуализации данных и отчетности;
- Контроль качества загружаемых данных;
- Интеграция новых источников;

Вы идеальны, если:
- Высшее математическое или техническое образование (компьютерные науки, инженерия, статистика, математика или смежные области)
- Минимум 3 года опыта работы в управлении данными, инжиниринге данных или анализе данных в сфере веб и/или мобильных продуктов
- Практические знания в областях хранения данных, моделирования, управления и визуализации данных, опыт работы со следующими инструментами Airflow, DBT, Clickhouse, Superset, Postgre
- Успешный опыт работы с извлечением и обработкой данных из разных источников для коммерческой ценности
- Опыт работы(настройка и интеграция) с трекерами типа Google Analytics, Branch, AppMetrica, Adjust, AppsFlyer, Binom (поп-ап реклама) и т.п.

Будет огромным плюсом:
- Опыт работы со SkadNetwork iOS и понимание принципов работы с агрегированными данными.
- Опыт настройки и ведения рекламных кампаний в источниках типа Meta, Google Ads, Tiktok и т.п.
- Опыт работы с Tableau, Google Looker или подобных им.

Контакт для связи в тг: @valenti_sh
#вакансия

Data
Engineer в VK Adtech, Москва

Департамент создаёт рекламные продукты и инструменты для бизнеса. Это myTarget, рекламный кабинет ВКонтакте и платформа VK Реклама. Наши разработки также интегрированы в другие продукты VK: Одноклассники, Портал и Почту Mail․ru. Всё это открывает бизнесу доступ к 95% мобильной аудитории рунета. В команде минимум бюрократии и максимум возможностей влиять на продукт — воплощение фич от идеи до релиза может занимать всего пару недель.

Ищем опытного и самостоятельного дата-инженера, который будет участвовать в создании ML-инструментов. Предстоит разрабатывать и поддерживать код на Scala/Spark (UDF/UDAF, Spark ML Transformers, etc.) и Python (платформа ML/ETL). А ещё помогать команде следить за качеством генерируемых данных.

У нас вы будете работать с данными популярных соцсетей (ВК, ОК, Дзен) и других проектов экосистемы VK. Также надеемся, что вам понравится наш кластер Hadoop на примерно 100 петабайтов.

Задачи:
• Проектировать, разрабатывать и поддерживать инструменты для создания надёжных пайплайнов обработки данных;
• участвовать в развитии системы для создания и использования ML-моделей;
• исследовать и интегрировать в продукт новые источники данных;
• создавать витрины признаков для ML-моделей.

Требования:
• Знание алгоритмов и структур данных;
• умение писать качественный, поддерживаемый код на Scala, Python, SQL;
• опыт использования Hadoop, знание механизмов распределённого хранения и обработки данных (HDFS, Spark, Hive);
• знакомство с Bash, Git, Linux, Docker;
• опыт работы с терминалом по SSH.

Будет плюсом:
• Умение использовать Luigi, Airflow, Kafka;
• опыт написания Spark UDF/UDAF на Catalyst API и трансформеров spark.ml;
• знание Java и нюансов JVM;
• понимание классических ML-моделей, задач и методов DS.

✍️ Отправить CV и по всем вопросам: https://t.me/olkony

#de #ml #engineer #mailru #adtech #spark #python #hadoop #kafka #гибрид #remote #middle #senior
#вакансия

Data
analyst / Data scientist, Москва

VK Реклама — одно из ключевых подразделений в VK. Ежедневно наши сервисы охватывают более 140 млн пользователей в России и странах СНГ. Более 100 тыс. рекламодателей каждый день запускают рекламные кампании у нас и находят своих клиентов. Мы — команда ML внутри VK Рекламы, отвечаем за её качество, чтобы пользователи могли увидеть наиболее подходящую им рекламу, а рекламодатели потратить свои бюджеты наиболее эффективно.

Основная задача нашего направления — проверять гипотезы, искать инсайты и точки роста эффективности и впоследствии внедрять их в прод. У нас идёт полный ML-цикл от проработки гипотезы до проведения экспериментов и внедрения фич в продакшен. Результаты нашей работы напрямую влияют на эффективность такого большого продукта, как VK Реклама.

Команда ad hoc аналитики занимается проверкой гипотез и поиском точек роста. Тестирует гипотезы в реальных экспериментах и оценивает изменения. Мы ищем в команду сильных аналитиков, совместными усилиями будем проводить различные аналитические исследования для повышения эффективности нашего продукта.

Задачи:
• Анализ больших данных для поиска потенциальных точек роста и выдвижения гипотез;
• ad hoc аналитика, поиски зависимостей в данных;
• проверка гипотез, поиск узких мест, донесение результатов до прода;
• оптимизация моделей рекламного аукциона и моделей ранжирования пользователей;
• проведение и статоценка экспериментов;
• разработка и автоматизация отчётности;
• сбор, обработка и дальнейшее использование больших данных.

Требования:
• Хорошее знание SQL (сложные запросы, порядок выполнения операций) — нужно написать не просто запрос, а оптимальный запрос, который сможет отработать на действительно больших данных;
• знание Python для анализа данных; библиотеки Pandas, Numpy — нужно будет сделать анализ данных, проработать гипотезы и правильно их визуализировать. Недостаточно просто найти какой-то паттерн — нужно его правильно представить наружу;
• работа с системами больших данных будет большим плюсом (Hadoop, PySpark);
• хорошее понимание матстатистики;
• анализ данных с учётом сезонности, поиски аномалий и выбросов в данных.

Будет плюсом:
• Опыт работы с ClickHouse, Hadoop, Git, Jenkins;
• работа с инструментами BI-отчётности, понимание ETL-инструментов (делаем автоматические отчёты, готовим для них данные, настраиваем выгрузки и другое).

✍️ Отправить CV и по всем вопросам: https://t.me/olkony

#ds #adhoc #analytics #ml #mailru #vk #adtech #sql #python #pandas #numpy #pysprak #hadoop #mathstat #clickhouse #гибрид #remote #middle #senior
#DataEngineer #ContractPosition #Remote #GCP #ThoughtSpot #BigData #Affinity #Slack #Looker #Snowflake

Разыскивается DataEngineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, но возможны варианты.

Стек технологий: GCP, ETL, Snowflake, CRM Affinity, SQL, Airflow, ThoughtSpot (preferred) or Looker , Python, SQL (нужен full stack!!!)

Английский B2 и выше – условие обязательное.

Работать за пределами России и Беларуси - условие обязательное.

Зарплата $5000 – 6500 NET

Для самых внимательных, кто действительно читает описание вакансии: просим  - откликаться только в том случае, если у вас есть полный стек,  - присылать резюме в формате Word.
Для связи: https://t.me/Tary_bird

Description of the Data Engineer contract position:

Location: Preferably San Francisco Bay Area, or remotely in the Pacific or Central Time zone.

Company:

A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.

What to expect:

Your role as a data engineer involves reporting to the head of the data and analytics department and participating in the creation of the entire structure and infrastructure necessary to support operations.

Responsibilities:
   Developing, creating, and maintaining data infrastructure for optimal extraction, transformation, and loading of data from various sources using SQL, NoSQL, and big data technologies.
   Creating and implementing data collection systems that integrate various sources, including company proprietary data and external sources.
   Automating the process of collecting and visualizing user engagement data from CRM/UI.
   Developing and supporting ETL (Extract, Transform, Load) processes on the Google Cloud platform and in the Snowflake system for efficient data processing.
   Extracting data from the Affinity CRM system, ensuring its correctness and relevance.
   Integrating notifications into Slack to improve communication within the team.
   If necessary, developing and supporting analytical reports and dashboards in BI tools such as ThoughtSpot (preferred) or Looker to make data-driven decisions.

What we are looking for:

Qualifications:
•  Experience of at least 3 years as a data engineer or full stack in the field of data warehousing, data monitoring, and building and maintaining ETL pipelines, including experience with Google Cloud and Snowflake.
•  Deep experience with data pipeline and workflow management tools (Airflow).
•  Strong proficiency in SQL and Python
•  Experience with BigQuery.
•  experience extracting data out of Affinity CRM and integrate notifications back to Slack
•  Solid knowledge and experience with database design, setup, and maintenance.
•  Proven ability to work in highly dynamic environments with high product velocity
•   Strong communication skills, both orally and in writing.•  BI tool experience on ThoughtSpot (preferred) or Looker
Nice to have:

•  Bachelor's or master's degree in computer science, database management, etc.
#вакансия #удалённо #job #remote #parttime #руководитель #ML #Lead

Время делиться знаниями!

Компания:
OTUS – образовательная платформа. За 7 лет работы мы создали более 130 авторских курсов для IT-специалистов разного уровня от junior до senior. У нас есть вступительное тестирование для студентов и 600+ преподавателей-практиков из крупнейших компаний. Мы учимся друг у друга, советуемся, помогаем, делимся опытом и обсуждаем новости как в преподавании, так и в IT.

Вакансия: руководитель онлайн-курса "ML Team Lead".

Требуется
4-5 лет опыта в ML. Желательно иметь опыт работы в нескольких разных компаниях, как на технических, так и на управленческих позициях. Можно без опыта преподавания, наши методисты помогут вам освоить лучшие практики.

Руководитель составляет программу курса, преподает часть занятий на курсе. Работает в команде профессионалов: преподаватели, методист и продюсер.

Формат занятий: преподаватель раскрывает тему с помощью теории и примеров из практики. Занятия в Zoom в вечернее время. Можно выбрать удобную нагрузку и темы занятий.

Условия:
- удалённое сотрудничество;
- вы можете выбрать темы занятий и комфортную для себя нагрузку;
- 3000 за один вебинар (полтора часа) и 3000 за подготовку материалов к занятию, также есть доплата за разработку программы и дополнительные активности.

Еще вы сможете:
внести свой вклад в развитие IT;
структурировать свой опыт и знания;
развивать личный бренд.

Бонусы 🎁
- наши курсы со скидкой/бесплатно;
- возможность приглашать в свою команду на работу лучших выпускников;
- воркшопы и конференции для наших преподавателей.

Обсудить подробнее @yu_grin
#вакансия #de #fintech #remote

Привет! Мы в поиске Data Engineer (middle+)

Компания: Vsemirsoft
Проект: банковский проект (входит в ТОП-50 банков РФ).
Стек проекта:
- #Hadoop, #GreenPlum, #S3;
- #Airflow, #Spark, #Kafka, #Debezium;
- #ClickHouse, #Superset

Часовой пояс: Москва (UTC+03:00, Europe/Moscow)
Формат работы: удаленный
Зп: 285 тыс. руб.

📌Ключевые компетенции:
- АБС
- ЦФТ
- DWH

📌 Требования:
- ОПЫТ РАБОТЫ ОТ 3х ЛЕТ;
- опыт работы с хранилищами данных и с отчетностью в АБС Банка;
- понимание жизненного цикла разработки программного обеспечения

📌 Как преимущество:
- понимание процессов формирования обязательной отчетности (ЦБ)

📌 Задачи в рамках проекта:
- анализ новых требований от заказчиков по задачам обязательной отчетности (ЦБ);
- реализация изменений и тестирование на стороне DWH;
- взаимодействие с внутренними заказчиками, системными аналитиками-экспертами других подразделений;
- написание технических задач для развития детального и витринного уровней DWH;
- анализ и контроль качества загрузки данных в DWH;
- описание логической и физической модели DWH и сопровождение документации в части хранилища данных

По всем вопросам обращаться: @odu_v_an
#remote #middle+ #vacancy #вакансия #удаленка #fulltime #parttime#data

Data Engineer
Middle+

Формат работы: удалённо, фулл-тайм, парт-тайм
Местоположение компании: Россия
Зарплата: от 200,000 рублей на руки

Cyber Staff — амбициозное IT агентство, основанное и управляемое бывшими программистами. Мы сотрудничаем с ведущими мировыми технологическими компаниями из разных отраслей и оказываем самые разные услуги: от заказной разработки до подбора и точечного найма лучших IT специалистов для наших клиентов и их крутейших проектов.

В данный момент мы ищем Data Engineer для работы на интереснейшем проекте нашего партнера.

Описание проекта:
Мы работаем с HR данными банка и внешнего рынка:
- ETL (получаем данные от поставщиков, организуем контракты, контролируем и проверяем качество)
- Методология (в тесной коммуникации с продуктовыми командами Аналитики работаем над созданием методологии и формированием алгоритмов расчета показателей)
- Разработка потоков и витрин данных
- Предоставление рассчитанных данных конечным потребителям

Мы используем современные подходы и методологии: microservices, cloud-native, Machine Learning и AI. Параллельно строим свой SaaS для вывода продукта на рынок. Не забываем о cybersecurity и high load. В команде следуем культуре Agile и DevOps.

Основные технологии и используемые решения:
- SQL
- Yandex СlickHouse
- PostgreSQL
- Kafka

Опыт работы:
-обязателен опыт с СУБД ClickHouse
-опыт работы дата инженером от 2 лет
-с MPP базами (Greenplum / Vertica / Clickhouse (Приоритет);
-отличное знание SQL и навыки оптимизации запросов;
-комплексное понимание работы аналитических систем;

Задачи:
-повышение качества данных;
-оптимизация и рефакторинг существующих ETL процессов и SQL запросов;
-обеспечение SLA по времени наших решений;
-улучшение time to market производства витрин;
-участие в продуктовых задачах команды.

Что мы предлагаем:
-полностью удаленная работа
-привлекательная компенсация
-ноль бюрократии внутри компании
-возможность поработать на самых разных мировых проектах
-дружелюбная и поддерживающая рабочая атмосфера

Резюме высылайте сюда @ainuritttka 🙂
❇️Вакансия: Machine Learning Engineer Middle

Формат: удаленно по всему миру
Наш часовой пояс: UTC+3
Занятость: проектная
Оплата: до 350 000₽ /проект или до 2500₽ /час

Subscale AI - специализируемся на разработке и внедрении AI/ML-решений

🔸Необходимые навыки:
- RAG (LangChain, LlamaIndex, OpenAI Assistant)
- Fine-tuning (TensorFlow, PyTorch, HF Transformers)
- Базы данных (MySQL, PostgreSQL, ClickHouse)
- API (REST API, FastAPI)
- Деплой (AWS, Azure, Google Cloud)

🔸Индивидуальные требования:
- Часовой пояс в пределах +-3 часов от UTC+3
- Свободное владение Русским языком
- Владение Английским языком

🔸Направления нашей работы:
- Внедрение ИИ в Отделы Продаж, Маркетинга, HR и др.
- Создание функциональных ИИ-Ассистентов
- Обучение ИИ-моделей с помощью RAG и Fine-tuning
- Разработка ИИ-продуктов(SaaS)

🔸Мы предлагаем:
- Интересные проекты с возможностью творческой реализации
- Возможность принять участие в выводе продуктов и сервисов на международный рынок
- Карьерный рост до Team Lead
- Отсутствие привязки к месту и возможность оплаты труда в любую точку мира
- Свобода мысли и принятия решений при реализации проектов

🔸Кого мы хотим видеть:
- амбициозных, инициативных и талантливых разработчиков, желающих достигать новых высот в сфере AI и ML, которые легко вольются в нашу молодую команду

💬Сразу отправляйте резюме/CV: @subscale_ai

#вакансия #vacancy #удаленка #remote #мидл #middle #ai #ии #ml #мл #llm #nlp #langchain #datascientist #mlengineer #python