DevOps/SRE_Jobs
2.61K subscribers
7 photos
3.2K links
Обсуждаем вакансии и все с ними связанное.

Оформить и предложить вакансию можно тут: @cyberJohnny
Реклама - @cyberJohnny
Download Telegram
Публикатор: Marina
Обсуждение:
#вакансия #удаленно #DevOps #MLOps #Kubernetes #MLflow #Airflow #Docker #CI_CD #Python #Kafka #AI

Компания: Selecty (аккредитованная IT-компания)
Позиция: DevOps / MLOps инженер в Топ-5 Частный Банк РФ
Локация: РФ/РБ
Занятость: полная
Вилка: 300-370к на руки в зависимости от варианта оформления

Вакансия: DevOps / MLOps-инженер
Проект:
Инженерное сопровождение ML-контуров, включая пайплайны обучения и применения моделей, окружения исполнения и доставки, немодельные сервисы, Feature Store, AutoML, A/B-тестирование, RAG/LLM. Работа в составе команды, обеспечивающей полную техническую поддержку платформ машинного обучения и дата-продуктов.

Обязанности кандидата:
— конфигурирование и развёртывание инфраструктурных компонентов;
— создание и поддержка пользовательских инструментов для работы в едином ML-контуре применения и обучения;
— масштабирование систем и инструментов для управления жизненным циклом ML-моделей;
— участие в построении и развитии среды исполнения моделей, пайплайнов доставки, среды разработки;
— техническое сопровождение AutoML, Feature Store, A/B-тестирования, RAG/LLM-сценариев.

Требования к кандидату:
— опыт DevOps от 3 лет (Docker, Helm, Jenkins/GitLab CI, Python, Grafana, Prometheus);
— опыт в ML/MLOps от 1 года (Airflow, JupyterHub, MLflow);
— опыт администрирования Kubernetes/OpenShift от 2 лет;
— опыт работы с распределёнными системами: Hadoop, Spark, Kafka, ELK.

Технологический стек:
— JupyterHub, Airflow, Argo Workflows, MLflow, Ansible, Seldon Core;
— Python, Docker, Kubernetes/OpenShift, Longhorn;
— Jenkins, GitLab CI;
— Kafka, Redis, PostgreSQL, Cassandra;
— Hadoop (Spark, HDFS);
— vLLM, KServe.

Мы предлагаем:
– Оформление по ТК РФ или как ИП
– Регулярный пересмотр зарплатных условий
– Расширенная ДМС (включая стоматологию)
– Скидки на фитнес, кино, обучение
– Современная техника для работы
– Профессиональное обучение и развитие

Откликнуться и задать вопросы: @marina_hiring


@DevOpsSRE_Jobs
Публикатор: Ислам
Обсуждение:
#вакансия #работа #ITjobs #DataEngineer #DataEngineering #ETL #ClickHouse #Python #SQL #Kafka #Airflow #DevOps #Удаленка #Алматы

Вакансия: Data-инженер
Дата: 19 августа
Зарплата: от 300 000 до 350 000 ₽
Локация: можно удалённо / офис в Алматы
Тип занятости: полный рабочий день

Описание

Мы строим платформу данных нового поколения с нуля и ищем опытного Data Engineer, который станет ключевым участником этого процесса.

Наши цели:

построить надёжную и масштабируемую архитектуру,

внедрить лучшие практики работы с данными,

развивать современный DataOps-подход.

Если хотите влиять на архитектуру и процессы — присоединяйтесь!

Чем предстоит заниматься:

Проектирование и создание масштабируемой платформы данных с нуля;

Разработка хранилища данных на базе ClickHouse;

Построение отказоустойчивых ETL/ELT пайплайнов;

Внедрение процессов Data Quality и Data Observability;

Развитие и внедрение DataOps-подходов;

Менторство, код-ревью, развитие команды;

Участие в архитектурных решениях вместе с аналитиками, разработчиками и DevOps-инженерами.

Требования:

5+ лет опыта в Data Engineering;

Экспертиза в ClickHouse (архитектура, шардинг, репликация, оптимизация);

Отличное знание SQL, Python;

Опыт работы с dbt, Kafka, Kafka Connect, Debezium;

Навыки работы с Airflow или аналогами;

Опыт в CI/CD;

Понимание DataOps, проектирования хранилищ данных;

Навыки командной работы и коммуникации.

Будет плюсом: опыт с Docker, Kubernetes.

Мы предлагаем:

Гибкий формат: удалёнка или офис в Алматы;

Современный стек и лучшие практики;

Работа с миллионной аудиторией пользователей;

Возможность видеть реальный результат своей работы.

Ключевые технологии:

ClickHouse • PostgreSQL • MySQL • Linux • IaC • Ansible • Prometheus • Grafana • Bash • DevOps • Python • Kafka • Airflow • dbt

Контакты: @islam14_hr


@DevOpsSRE_Jobs
Публикатор: Ислам
Обсуждение:
#вакансия #работа #ITjobs #DataEngineer #DataEngineering #ETL #ClickHouse #Python #SQL #Kafka #Airflow #DevOps #Удаленка #Алматы

Data-инженер
Зарплата: от 300 000 до 350 000 ₽
Локация: можно удалённо / гибрид /офис в Алматы
Тип занятости: полный рабочий день

Ключевые технологии:
ClickHouse • PostgreSQL • MySQL • Linux • IaC • Ansible • Prometheus • Grafana • Bash • DevOps • Python • Kafka • Airflow • dbt

Описание вакансии
Мы строим платформу данных нового поколения с нуля - и ищем опытного Data Engineer, который станет ключевым участником этого процесса. У нас амбициозные цели: обеспечить надежную и масштабируемую архитектуру, построить лучшие в отрасли практики работы с данными, и внедрить современный DataOps-подход.
Если вы готовы влиять на архитектуру и процессы - присоединяйтесь.

Чем предстоит заниматься:
• Участвовать в проектировании и создании масштабируемой платформы данных с нуля.
• Разрабатывать надежное и высокопроизводительное хранилище данных на базе ClickHouse.
• Строить гибкие и отказоустойчивые ETL/ELT пайплайны.
• Выстраивать процессы Data Quality и обеспечивать Data Observability.
• Активно развивать и внедрять DataOps-подходы.
• Проводить менторство, код-ревью, участвовать в техническом развитии команды.
• Сотрудничать с системными аналитиками, разработчиками, DevOps-инженерами, принимая участие в архитектурных решениях

Что мы ожидаем:
• 5+ лет опыта в области Data Engineering.
• Экспертиза в ClickHouse (глубокое понимание архитектуры, шардинг, репликация и оптимизация).
• Отличное знание SQL, Python, опыт написания production-ready кода.
• Практический опыт работы с dbt, Kafka, Kafka Connect, Debezium.
• Уверенные навыки работы с Airflow или аналогами.
• Опыт работы с CI/CD.
• Знание и практическое применение принципов Data Observability.
• Понимание DataOps-процессов.
• Понимание методологий проектирования хранилищ данных.
• Отличные навыки коммуникации и умение работать в команде.
• Будет плюсом опыт работы с Docker, Kubernetes.

Что мы предлагаем:
• Гибкий формат работы: удаленно или в современном офисе в Алматы.
• Работа с современным стеком и возможность внедрять лучшие практики.
• Работа с миллионной аудиторией пользователей и большим разнообразием данных.
• Возможность внедрять лучшие индустриальные практики и видеть реальный результат своей работы.

Контакты: @islam14_hr


@DevOpsSRE_Jobs