Data Science Jobs
16.3K subscribers
47 photos
3 videos
1 file
657 links
Номер регистрации: 4776865361

Лучшие вакансии по темам Data Science, машинного обучения, нейросетей, искусственного интеллекта, компьютерного зрения, сбора, обработки и анализа данных.

По всем вопросам: @musit
Чат: @bigdata_ru
Download Telegram
#developer #вакансия #удаленка #работа #ML #deepfake #remote #dataengineer #datascience #ComputerVision

📍Вакансия - Data engineer (Middle/middle+)

Merlin Clone (https://merlinclone.com/#algoritm) - IT стартап в области ML. Это уникальный искусственный интеллект, позволяющий автоматически озвучивать и переводить видео на английский язык (китайский, хинди и многие другие) с любого языка мира, сохраняя индивидуальный голос, тембр, мимику. Теперь каждый может говорить как носитель языка.

✔️Компания: Merlin Clone

Формат работы: удаленно, из любой точки мира, в удобном графике
Работа: полная занятость
Вилка : от 200 000 - 330 000 gross
Локация: любая

📌Обязанности:
- Работать с данными разной модальности - табличными, графовыми, текстовыми, аудио, изображениями и видео;
- Самостоятельно формулировать гипотезы и проверять их, конструировать фичи, подготавливать датасеты для дальнейшего использования в ML.

📌Необходимые навыки:
- опыт работы дата-инженером от 4-х лет;
- опыт работы c Hadoop, Hive, Spark;
- хорошее знание python;
- отличное знание SQL;
- понимание и интерес к области больших данных;
- понимание и интерес к data science решениям и ML;
- желателен опыт работы с NiFi и Airflow;
- умение работать в команде над большим техническим проектом (GitHub, Docker, etc.);
- умение быстро изучать новые технологии и решать сложные задачи.


📌Как преимущество:
-опыт в развертывании и сопровождении инфраструктуры;
- понимание и опыт применения основных методов машинного обучения и знание принципов статистического анализа;
- понимание жизненного цикла и опыт продукционализации ML моделей;
- опыт Devops (Docker, Gitlab-CI, настройка окружения на серверах и др.);
- опыт разработки сервисов (Flask, Django, Asyncio и др.);
- опыт проектирования высоконагруженных приложений и/или приложений работы с большими данными;
-опыт разворачивания, настройки мониторинга и передача на поддержку разработанных решений;
-Pytest/Unitest;
-опыт работы с такими базами данных как PostgresQL, Greenplum, Clickhouse.


📌Что мы предлагаем:
- Полностью удаленный формат работы, в любом часовом поясе, из любой точки мира;
- Возможность выплат в криптовалюте (по вашему желанию);
- Возможность быть у истоков быстрорастущей, перспективной IT компании;
- Комфортные условия работы, не токсичная команда;
- Применение лучших практик и современный стек технологий, получение опыта в передовых направлениях ML и CV.

📲 Если вакансия вас заинтересовала пишите в личные сообщения @Nadezhda120288
#вакансия #инженер #engineer #DataEngineer #middle #machinelearning #Python #PostgreSQL #SQL #Redis #gitlab #работа #job #удаленно

Компания: Sever X
Формат: удаленно
Занятость: полная, 5/2
💵: от 250 000 руб.

🚀Отличная возможность для опытного Data Engineer реализовать и развить как технические компетенции, так и навыки коммуникации с бизнесом, лидерские качества, навыки формирования команды. С развитием проекта предполагается создание команды под себя, сейчас необходимо возглавить текущие задачи и реализовать их.

🗝задача: поддержка и развитие Data Lake и связанных с ним проектов

📍Основные обязанности

•Интеграция с источниками данных и построение ETL-процессов
•Разработка и поддержка аналитической отчётности системами и API
•Выявление и устранение аномалий в данных
•Взаимодействие с другими членами команды

🛠Стек:
Основной язык разработки – Python 3.8
Платформа разработки – Яндекс.Облако (Managed Services + виртуальные машины)
Хранилища данных – GreenPlum 6.2, PostgreSQL 14, Redis
Оркестратор процессов – Apache Airflow 2.0
Система управления версиями – GitLab
Контейнеризация приложений – Docker + k8s

📍Обязательные требования

•Уверенное владение SQL: базовый синтаксис, транзакции, представления, хранимые процедуры
•Опыт интеграции с различными источниками данных: файловые системы (локальные/ftp/sftp), API, SQL и NoSQL базы данных
•Понимание принципа работы распределённых баз данных
•Знание Python 3: модули pandas, pyodbc (либо другие модули, имплементирующие ODBC), paramiko, requests
•Базовые навыки использования Linux

🔥Преимуществом при отборе будет:
•Опыт работы с распределёнными хранилищами данных: Hadoop (Hive/Impala), GreenPlum, ClickHouse
•Опыт разработки пайплайнов на Apache Airflow
•Навыки оптимизации процессов SQL
•Опыт реализации RestAPI

⚖️ Условия работы и что мы можем предложить взамен:
•Место работы: удаленно
•Возможны различные варианты оформления
•Рассматриваются кандидаты в часовом поясе максимум +5 часов к МСК
•Обязательно наличие гражданства РФ
•Квартальные премии в размере 30% от квартального оклада
•ДМС со стоматологией
•Профессиональная и амбициозная команда
•Открытая корпоративная культура, атмосфера доверия и сотрудничества
•Драйв, высокие скорости, непосредственное влияние на результат

📲контакт: @Oskar17
#вакансия #vacancy #dataengineer #мск #спб #гибрид #hybrid
Вакансия: Data Engineer
Компания: ООО Марс
ЗП: 250 000 - 350 000 гросс (обсуждаем по итогам интервью)
Формат работы: предпочтительно гибрид (офисы в Мск и Спб)
Занятость: Full-time
Контакт: @leysanakch

Мы ищем Data Engineer в команду Data Management дата-офиса одного из направлений бизнеса.
Цель команды Data Management – внедрить процессы управления данными, а также практики и системы, которые позволят всей компании контролировать свои ресурсы в виде данных и управлять ими. Мы отвечаем за работу всего data-pipeline от исходной системы до отчета.
Мы используем современные подходы и технологический стек: Python, SQL, PySpark, Kafka, YCP, Airflow, NiFi, S3, Power BI, Yandex DataLens, Apache SuperSet.

🟣Обязанности:
• Работать с витринами данных;
• Интегрировать источники данных в DataLake
• Обрабатывать потоковые данные (streaming)
• Контролировать качество загружаемых данных
• Проводить код ревью
• Отвечать за оптимизацию, рефакторинг и поддержку решений

🟣Требования:
• Понимание работы СУБД и принципов построения хранилищ данных
• Опыт работы с Hadoop (Spark, HDFS, YARN etc.)
• Отличное знание SQL, Python/Scala/Java
• 1+ опыт работы с облачными платформами Yandex Cloud Platform/ Azure/ AWS
• Знание Git
• Английский на уровне intermediate и выше

🟣Будет плюсом:
• Опыт с Docker, Kubernetes
• Знание Nifi, Kafka, Airflow

🟣Условия:
• Конкурентная зарплата, система бонусов, ДМС и страхование жизни с первого рабочего дня
• Ежегодный пересмотр заработной платы (с учетом рыночной ситуации и индивидуальной результативности сотрудника)
• Корпоративная пенсионная программа
• Компенсация питания
• Оплата мобильной связи
• Гибкий рабочий график
• Дополнительный оплачиваемый отпуск при стаже работы от 5 лет
• Насыщенная образовательная программа, которую формируете вы