Компания: Sportmaster Lab
З/П: -
Тип занятоcти: #Офис #Удаленка
Локация: #Москва
Позиция: #Senior
Задачи:
- Реализация ETL в Hadoop (с помощью Airflow).
- Работа с различными источниками данных: Oracle,MS SQL, API личных кабинетов, микросервисы.
- Батч и стримы с помощью PySpark и Kafka.
- Подготовка витрин для анализа (Hive + Spark+ SQL)
Стек:
#Clouderahadoop #Kafka #Spark #Airflow #Jira #Confluence #GitLab
З/П: -
Тип занятоcти: #Офис #Удаленка
Локация: #Москва
Позиция: #Senior
Задачи:
- Реализация ETL в Hadoop (с помощью Airflow).
- Работа с различными источниками данных: Oracle,MS SQL, API личных кабинетов, микросервисы.
- Батч и стримы с помощью PySpark и Kafka.
- Подготовка витрин для анализа (Hive + Spark+ SQL)
Стек:
#Clouderahadoop #Kafka #Spark #Airflow #Jira #Confluence #GitLab
Компания: FXC Intelligence
З/П: 5 000 — 7 000 $
Тип занятоcти: #Удаленка
Локация: -
Позиция: #Senior
Задачи:
- Working on data collection programs and scrapers collecting data from websites and APIs.
- Working on your own projects using the core Python programming language.
- Turning concepts and requirements into highly available applications and systems using core Python programming.
- Continuously improving your existing programming skills and add new ones to your skill set as you develop with us.
Стек:
#Python #ApacheAirflow #Spark #Scala
З/П: 5 000 — 7 000 $
Тип занятоcти: #Удаленка
Локация: -
Позиция: #Senior
Задачи:
- Working on data collection programs and scrapers collecting data from websites and APIs.
- Working on your own projects using the core Python programming language.
- Turning concepts and requirements into highly available applications and systems using core Python programming.
- Continuously improving your existing programming skills and add new ones to your skill set as you develop with us.
Стек:
#Python #ApacheAirflow #Spark #Scala
👍2
Компания: FXC Intelligence
З/П: 5 000 — 7 000 $
Тип занятоcти: #Удаленка
Локация: -
Позиция: #Senior
Задачи:
- Working on data collection programs and scrapers collecting data from websites and APIs.
- Working on your own projects using the core Python programming language.
- Turning concepts and requirements into highly available applications and systems using core Python programming.
- Continuously improving your existing programming skills and add new ones to your skill set as you develop with us.
Стек:
#Python #ApacheAirflow #Spark #Scala
З/П: 5 000 — 7 000 $
Тип занятоcти: #Удаленка
Локация: -
Позиция: #Senior
Задачи:
- Working on data collection programs and scrapers collecting data from websites and APIs.
- Working on your own projects using the core Python programming language.
- Turning concepts and requirements into highly available applications and systems using core Python programming.
- Continuously improving your existing programming skills and add new ones to your skill set as you develop with us.
Стек:
#Python #ApacheAirflow #Spark #Scala
Компания: Домклик
З/П: от 250 000 ₽
Тип занятоcти: #Удаленка #Офис #Гибрид
Локация: #Москва
Позиция: #Senior
Задачи:
- Проектировать архитектуру, разрабатывать и запускать отказоустойчивые и быстрые сервисы с DS-решениями.
- Работать с данными и писать пайплайны для обработки данных.
- Исследовать новые AI-технологии и внедрять их.
- Участвовать в развитии инфраструктурных решений для работы с Data Science и Big Data, таких, как MLOps и ML платформ.
- Работать в сплоченной и прокачанной команде с развитой ИТ-инфраструктурой.
Стек:
#Python #AsyncIO #aiohttp #FastAPI #RabbitMQ #Kafka #PostgreSQL #SQL #AirFlow #Prefeсt #Kubeflow #MLflow #Spark #Hadoop #Hive
З/П: от 250 000 ₽
Тип занятоcти: #Удаленка #Офис #Гибрид
Локация: #Москва
Позиция: #Senior
Задачи:
- Проектировать архитектуру, разрабатывать и запускать отказоустойчивые и быстрые сервисы с DS-решениями.
- Работать с данными и писать пайплайны для обработки данных.
- Исследовать новые AI-технологии и внедрять их.
- Участвовать в развитии инфраструктурных решений для работы с Data Science и Big Data, таких, как MLOps и ML платформ.
- Работать в сплоченной и прокачанной команде с развитой ИТ-инфраструктурой.
Стек:
#Python #AsyncIO #aiohttp #FastAPI #RabbitMQ #Kafka #PostgreSQL #SQL #AirFlow #Prefeсt #Kubeflow #MLflow #Spark #Hadoop #Hive
❤1
Компания: МТС
З/П: -
Тип занятоcти: #Удаленка #Гибрид
Локация: #Москва
Позиция: #Lead
Задачи:
- Проектировать и разрабатывать backend части сервиса по работе со streaming данными
- Разрабатывать API/клиентов для интеграции с другими системами
- Проектировать и разрабатывать SDK части и подсистемы для профилирования данных
- Прорабатывать архитектурные решения совместно с остальными членами команды
- Подготавливать к выводу внутренних решений в open-source
Стек:
#Python #Django #Celery #RabbitMQ #Spark #Airflow #UI #React #CI/CD #GitlabCI #Ansible
З/П: -
Тип занятоcти: #Удаленка #Гибрид
Локация: #Москва
Позиция: #Lead
Задачи:
- Проектировать и разрабатывать backend части сервиса по работе со streaming данными
- Разрабатывать API/клиентов для интеграции с другими системами
- Проектировать и разрабатывать SDK части и подсистемы для профилирования данных
- Прорабатывать архитектурные решения совместно с остальными членами команды
- Подготавливать к выводу внутренних решений в open-source
Стек:
#Python #Django #Celery #RabbitMQ #Spark #Airflow #UI #React #CI/CD #GitlabCI #Ansible
Компания: Домклик
З/П: от 250 000 ₽
Тип занятоcти: #Удаленка #Гибрид
Локация: #Москва
Позиция: #Senior
Задачи:
- Проектировать архитектуру, разрабатывать и запускать отказоустойчивые и быстрые сервисы с DS-решениями.
- Работать с данными и писать пайплайны для обработки данных.
- Исследовать новые AI-технологии и внедрять их.
- Участвовать в развитии инфраструктурных решений для работы с Data Science и Big Data, таких, как MLOps и ML платформ.
- Работать в сплоченной и прокачанной команде с развитой ИТ-инфраструктурой.
Стек:
#Python #AsyncIO #aiohttp #FastAPI #RabbitMQ #Kafka #PostgreSQL #SQL #AirFlow #Prefeсt #Kubeflow #MLflow #Spark #Hadoop #Hive
З/П: от 250 000 ₽
Тип занятоcти: #Удаленка #Гибрид
Локация: #Москва
Позиция: #Senior
Задачи:
- Проектировать архитектуру, разрабатывать и запускать отказоустойчивые и быстрые сервисы с DS-решениями.
- Работать с данными и писать пайплайны для обработки данных.
- Исследовать новые AI-технологии и внедрять их.
- Участвовать в развитии инфраструктурных решений для работы с Data Science и Big Data, таких, как MLOps и ML платформ.
- Работать в сплоченной и прокачанной команде с развитой ИТ-инфраструктурой.
Стек:
#Python #AsyncIO #aiohttp #FastAPI #RabbitMQ #Kafka #PostgreSQL #SQL #AirFlow #Prefeсt #Kubeflow #MLflow #Spark #Hadoop #Hive
🤣7❤1🤬1
Компания: BAUM STORAGE
З/П: -
Тип занятоcти: #Удаленка
Локация: #Россия
Позиция: #Senior
Задачи:
- Обеспечение взаимодействия DS кода с платформой;
- Разрабатывать новый функционал, с применением микросервисов;
- Обеспечивать взаимодействие компонентов платформы с БД (SQL & NoSQL);
- Разрабатывать новый drag n drop функционал конструктора ИИ.
Стек:
#Python #kafka #spark #sparkstreaming #kubernetes #mongodb #postgreSQL #pytorch #sparkml #tensorflow
З/П: -
Тип занятоcти: #Удаленка
Локация: #Россия
Позиция: #Senior
Задачи:
- Обеспечение взаимодействия DS кода с платформой;
- Разрабатывать новый функционал, с применением микросервисов;
- Обеспечивать взаимодействие компонентов платформы с БД (SQL & NoSQL);
- Разрабатывать новый drag n drop функционал конструктора ИИ.
Стек:
#Python #kafka #spark #sparkstreaming #kubernetes #mongodb #postgreSQL #pytorch #sparkml #tensorflow
Компания: BAUM STORAGE
З/П: -
Тип занятоcти: #Удаленка
Локация: #Россия
Позиция: #Senior
Задачи:
- Обеспечение взаимодействия DS кода с платформой;
- Разрабатывать новый функционал, с применением микросервисов;
- Обеспечивать взаимодействие компонентов платформы с БД (SQL & NoSQL);
- Разрабатывать новый drag n drop функционал конструктора ИИ.
Стек:
#Python #kafka #spark #sparkstreaming #kubernetes #mongodb #postgreSQL #pytorch #sparkml #tensorflow
З/П: -
Тип занятоcти: #Удаленка
Локация: #Россия
Позиция: #Senior
Задачи:
- Обеспечение взаимодействия DS кода с платформой;
- Разрабатывать новый функционал, с применением микросервисов;
- Обеспечивать взаимодействие компонентов платформы с БД (SQL & NoSQL);
- Разрабатывать новый drag n drop функционал конструктора ИИ.
Стек:
#Python #kafka #spark #sparkstreaming #kubernetes #mongodb #postgreSQL #pytorch #sparkml #tensorflow
Компания: BAUM STORAGE
З/П: -
Тип занятоcти: #Удаленка
Локация: #Россия
Позиция: #Senior
Задачи:
- Обеспечение взаимодействия DS кода с платформой;
- Разрабатывать новый функционал, с применением микросервисов;
- Обеспечивать взаимодействие компонентов платформы с БД (SQL & NoSQL);
- Разрабатывать новый drag n drop функционал конструктора ИИ.
Стек:
#Python #kafka #spark #sparkstreaming #kubernetes #mongodb #postgreSQL #pytorch #sparkml #tensorflow
З/П: -
Тип занятоcти: #Удаленка
Локация: #Россия
Позиция: #Senior
Задачи:
- Обеспечение взаимодействия DS кода с платформой;
- Разрабатывать новый функционал, с применением микросервисов;
- Обеспечивать взаимодействие компонентов платформы с БД (SQL & NoSQL);
- Разрабатывать новый drag n drop функционал конструктора ИИ.
Стек:
#Python #kafka #spark #sparkstreaming #kubernetes #mongodb #postgreSQL #pytorch #sparkml #tensorflow
Компания: Платформа Больших Данных
З/П: от 250 000 ₽
Тип занятоcти: #Офис #Удаленка
Локация: #Москва
Позиция: #Middle
Задачи:
- Разработка архитектуры решений по загрузке данных в кластер;
- Интеграция систем обмена данными с различными источниками;
- Оптимизация вычислений и работа с узкими местами платформы;
- Реализация витрин данных на Spark;
- Разработка и оптимизация ETL пайплайнов;
- Refactoring, code review
Стек:
#Python #Hadoop #Spark #Python #SQL
З/П: от 250 000 ₽
Тип занятоcти: #Офис #Удаленка
Локация: #Москва
Позиция: #Middle
Задачи:
- Разработка архитектуры решений по загрузке данных в кластер;
- Интеграция систем обмена данными с различными источниками;
- Оптимизация вычислений и работа с узкими местами платформы;
- Реализация витрин данных на Spark;
- Разработка и оптимизация ETL пайплайнов;
- Refactoring, code review
Стек:
#Python #Hadoop #Spark #Python #SQL
Компания: CyberBrain (ООО Брайнфарм)
З/П: от 250 000 до 400 000 ₽
Тип занятоcти: #Удаленка #Офис
Локация: #Москва
Позиция: #Senior
Задачи:
- Разработка новых и тюнинг текущих моделей
- Сейчас активно развиваем модели предсказания поведения пользователей, оптимизационные алгоритмы, автоматическую сегментацию аудиторий, поиска аномалий в данных
- Совместно с командой определять, оптимальные для использования наборы данных и метрик
- Проводить поиск и оценку лучших практик для решения поставленных задач
- Совместно в DevOps и Data Engineer участвовать в разработке пайплайнов для интеграции моделей в прод в рамках Я. Облака
Стек:
#Python #SQL #SCALA #Spark #Machine Learning #Data Analysis #Data Science
З/П: от 250 000 до 400 000 ₽
Тип занятоcти: #Удаленка #Офис
Локация: #Москва
Позиция: #Senior
Задачи:
- Разработка новых и тюнинг текущих моделей
- Сейчас активно развиваем модели предсказания поведения пользователей, оптимизационные алгоритмы, автоматическую сегментацию аудиторий, поиска аномалий в данных
- Совместно с командой определять, оптимальные для использования наборы данных и метрик
- Проводить поиск и оценку лучших практик для решения поставленных задач
- Совместно в DevOps и Data Engineer участвовать в разработке пайплайнов для интеграции моделей в прод в рамках Я. Облака
Стек:
#Python #SQL #SCALA #Spark #Machine Learning #Data Analysis #Data Science
Компания: CyberBrain (ООО Брайнфарм)
З/П: от 300 000 до 400 000 ₽
Тип занятоcти: #Офис #Удаленка
Локация: #Москва
Позиция: #Senior
Задачи:
- Планированием и реализацией архитектуры платформы совместно с командой
- Разработкой новых модулей платформы
- Интеграцией источников данных
- Реализацией pipeline для текущих и новых модулей платформы
- Интеграция моделей машинного обучения в pipeline продукта
- Совместная работа по оптимизации работы платформы в Я.Облаке
Стек:
#Spark #SQL #Python #ClickHouse #PyCharm #PostgreSQL #API #Docker #Airflow
З/П: от 300 000 до 400 000 ₽
Тип занятоcти: #Офис #Удаленка
Локация: #Москва
Позиция: #Senior
Задачи:
- Планированием и реализацией архитектуры платформы совместно с командой
- Разработкой новых модулей платформы
- Интеграцией источников данных
- Реализацией pipeline для текущих и новых модулей платформы
- Интеграция моделей машинного обучения в pipeline продукта
- Совместная работа по оптимизации работы платформы в Я.Облаке
Стек:
#Spark #SQL #Python #ClickHouse #PyCharm #PostgreSQL #API #Docker #Airflow