Data Science Jobs
14.6K subscribers
43 photos
2 videos
1 file
630 links
Лучшие вакансии по темам Data Science, машинного обучения, нейросетей, искусственного интеллекта, компьютерного зрения, сбора, обработки и анализа данных.

По всем вопросам: @musit
Чат: @bigdata_ru
Download Telegram
#инженер #cv #computervision

Город: Санкт-Петербург
Компания: CSI
Сфера деятельности: создание решений для ритейла

Используя технологии компьютерного зрения, вы будете создавать решения для ритейлеров, нацеленные на автоматизацию ключевых бизнес-процессов и снижение потерь в торговом зале и зоне кассового обслуживания. Подробно о задачах мы с удовольствием расскажем на интервью. Будет точно интересно!

Требования:
- Реальный боевой опыт в самостоятельном построении сверточных сетей;
- Опыт использования python/C++ для решения релевантных задач;
- Навыки работы с PyTorch, OpenCV, TensorFlow или другими библиотеками машинного обучения для решения задач компьютерного зрения;
- Участие в реализованных проектах использования компьютерного зрения для решения реальных практических задач;
- Ссылка на профиль с достижениями в kaggle, другим конкурсам, pet-проекты приветствуется.

Условия:
- Полностью белая ЗП и оформление по ТК РФ;
- ДМС со стоматологией;
- 100% оплата больничных;
- Гибкие часы начала рабочего дня;
- Возможность удаленной работы при необходимости;
- Бюджет на внешнее обучение;
- Прозрачная система оценки;
- Комфортный офис на Петроградской в бизнес-центре класса А;
- Работа в команде, которая создает уже работающую и востребованную систему видео наблюдения.

Зарплата
- до 250к net

Пример задачи
Кейс приносит убытки ритейлерам в десятки миллионов рублей - кассиры часто не сканируют товары, а просто проносят мимо сканера. Причины разные - специально, усталость, случайно пропустил один из кучи, не сканируется штриховой код и другие. Задача - в онлайн определять из видеопотока, что был пронос товара через зону сканирования, но при этом товар не был добавлен в чек (события добавления товаров хранятся в обычной реляционке).

контакт: @alexeyonufriev
#вакансия #vacancy #devops #удаленка #инженер #job #data #middle #engineer

Вакансия: Data Engineer/DevOps
Компания: SConsulting
Город и адрес офиса: удаленка (без ограничений: пол, возраст, здоровье, гражданство)
Занятость и формат работы: part-time/full-time/remote

Приглашаем инженера Devops для участия в финтех проекте иностранного заказчика.

Обязанности:
• Принимать участие в новых и существующих инициативах DevOps/Data Engineering.
• Принимать участие в разработке данных, изучении данных и визуализации данных с помощью машинного обучения.
• Выполнять обработку больших рабочих нагрузок данных.

Требования:
• Опыт работы с Azure Databricks / Apache Spark
• Знание SQL/Python/Java .
• Высшее образование.
• Хорошие устные и письменные коммуникативные навыки на английском языке
• Опыт работы с мульти национальной и поликультурной средой.

Мы предлагаем:
Конкурентный уровень зарплаты с индексацией в диапазоне 3500-4500 евро от уровня специалиста;
Карьерный и профессиональный рост;
Работа в стабильной компании;
Дружелюбный процесс интервью с заказчиком;
Комфортные условия удалённой работы в дружном и сплочённом коллективе;
Чётко выстроенные процессы;
Культура наставничества и сильная техническая экспертиза в команде;
Проекты внедрения в крупнейших компаниях России.
Удаленная работа.
Локация - любая кроме РФ, РБ и Украины .

Контакты: @scons2000
https://t.me/scons2000
#вакансия #инженер #engineer #DataEngineer #middle #machinelearning #Python #PostgreSQL #SQL #Redis #gitlab #работа #job #удаленно

Компания: Sever X
Формат: удаленно
Занятость: полная, 5/2
💵: от 250 000 руб.

🚀Отличная возможность для опытного Data Engineer реализовать и развить как технические компетенции, так и навыки коммуникации с бизнесом, лидерские качества, навыки формирования команды. С развитием проекта предполагается создание команды под себя, сейчас необходимо возглавить текущие задачи и реализовать их.

🗝задача: поддержка и развитие Data Lake и связанных с ним проектов

📍Основные обязанности

•Интеграция с источниками данных и построение ETL-процессов
•Разработка и поддержка аналитической отчётности системами и API
•Выявление и устранение аномалий в данных
•Взаимодействие с другими членами команды

🛠Стек:
Основной язык разработки – Python 3.8
Платформа разработки – Яндекс.Облако (Managed Services + виртуальные машины)
Хранилища данных – GreenPlum 6.2, PostgreSQL 14, Redis
Оркестратор процессов – Apache Airflow 2.0
Система управления версиями – GitLab
Контейнеризация приложений – Docker + k8s

📍Обязательные требования

•Уверенное владение SQL: базовый синтаксис, транзакции, представления, хранимые процедуры
•Опыт интеграции с различными источниками данных: файловые системы (локальные/ftp/sftp), API, SQL и NoSQL базы данных
•Понимание принципа работы распределённых баз данных
•Знание Python 3: модули pandas, pyodbc (либо другие модули, имплементирующие ODBC), paramiko, requests
•Базовые навыки использования Linux

🔥Преимуществом при отборе будет:
•Опыт работы с распределёнными хранилищами данных: Hadoop (Hive/Impala), GreenPlum, ClickHouse
•Опыт разработки пайплайнов на Apache Airflow
•Навыки оптимизации процессов SQL
•Опыт реализации RestAPI

⚖️ Условия работы и что мы можем предложить взамен:
•Место работы: удаленно
•Возможны различные варианты оформления
•Рассматриваются кандидаты в часовом поясе максимум +5 часов к МСК
•Обязательно наличие гражданства РФ
•Квартальные премии в размере 30% от квартального оклада
•ДМС со стоматологией
•Профессиональная и амбициозная команда
•Открытая корпоративная культура, атмосфера доверия и сотрудничества
•Драйв, высокие скорости, непосредственное влияние на результат

📲контакт: @Oskar17
#вакансия #инженер #etl #datamining #analytics

Полюс Диджитал – бизнес-единица в группе одного из лидеров золотодобывающей отрасли мирового масштаба. Мы оказываем поддержку по IT-направлению 20 000 сотрудникам в 35-ти бизнес-единицах Группы Компаний «Полюс».

📌Мы находимся в поиске инженера данных (middle +) для реализации следующих задач:
‒ Разработка ETL-процессов для структурированных и слабоструктурированных данных;
‒ Реализация ad-hoc показателей;
‒ Настройка автоматизированных процедур проверки качества данных;
‒ Формирование модели данных для решения прикладных задач;
‒ Разработка и сопровождение документации.

📌Наш основной стек: Apache Airflow, Apache NiFi, MinIO S3, PostgreSQL, Microsoft SQL, Arenadata (Greenplum), ClickHouse, RabbitMQ, Python (обработка данных), в т.ч. Alembic.

📌Требования:
‒ Опыт работы от 3 лет;
‒ Разработка и сопровождение ETL-процессов;
‒ Проверка и оптимизация производительности запросов;
‒ Написание безопасного кода, хорошее понимание вопросов IT безопасности;
‒ Разработка пользовательской и технической документации;
‒ Преимуществом будет опыт интеграции с системами SAP, Historian, АСУ ТП и понимание структуры хранения данных в перечисленных системах;
‒ Преимуществом будет опыт работы с системами класса Process Mining.

📌Условия:
- Высокий уровень заработной платы (оклад + годовой бонус);
- Комфортный офис в центре Москвы;
- Высокоразвитая корпоративная культура (здоровье, личностное развитие, самообразование, досуг);
- Поддержка сотрудника и семьи в различных жизненных ситуациях;
- Трудоустройство по ТК РФ, полис ДМС, корпоративная мобильная связь и т.д.
- График: 5/2, пятница - сокращенный рабочий день.

Контакт для связи @Makhkamov_Laziz