My IT specialist
134 subscribers
2 photos
6 videos
2.16K links
Один из инструментов для воссоединения работодателя и соискателя 👍
Постим все вакансии и проекты ☝️
Смотри не проглади 👁
Если тебе лень 🦥 размещать вакансию
Скидывай ее админу 👉 @myitspecialist
Наш сайт myitspecialist.ru
Download Telegram
#вакансия #spark #pandas #питер #homeoffice
We are seeking a highly skilled Software Engineer to join Data Engineering team to design, develop, deploy, and maintain complex data management applications, data pipelines and data visualizations.

Key Responsibilities
Design, develop, and deploy various data management applications.
Design, develop, and deploy REST Data APIs to be used by digital products.
Design, develop, and deploy data pipelines, and ETLs that ingest, map, aggregate, and broadcast data feeds to internal and external groups at CR.
Analyze business requirements, provide development estimates and feedback, and determine implementation/execution approaches.
Work with other software engineers, database developers, infrastructure, operations and QA teams to design and implement quality software solutions.
Support, troubleshoot, monitor and optimize existing data engineering systems.
Help streamline software development by contributing to the implementation of a continuous integration process, automating manual processes, and eliminating defects.
Performs other duties as assigned but not at a higher level.

Qualifications Include
Working knowledge of RBDMS/ No Sql Databases - Oracle, MongoDB
Experience developing Data management Applications (functionally performing CRUD operations)
Working knowledge of unix shell scripting
Working knowledge of Data Visualization tools - Tableau
Experience working in cloud environment - AWS
Exposure to adhoc data analysis is a plus - Python
Experience Spark, S3.
Upper-intermediate.

З\п 4-6к $, длительный контракт(у нас пока все уже отработали мин 2 года на 1 проекте)
home-office
контакты @erzentd
#java #hadoop #hive #spark #parttime #b2b #contract

Роль: Senior Java Developer (Hadoop)
Компания: Cognive cognive.com
ЗП: 230-350к, готовы и больше обсуждать, зависит от навыков и формы трудоустройства.
Формат работы: фуллтайм в офисе по ТК/парт-тайм по контракту/парт-тайм с частично-удаленной работой.
Офис: Мск, м.Октябрьская

Ищу Senior Java разработчиков (Hadoop) для американской компании Cognive.
Продукт - Anti-fraud/Anti-money-laundering ML решение для финансовых организаций.
В 2018м году компания получила инвестиции от фонда Plug and Play (ранние инвесторы в Google, Dropbox, Paypal).
Сейчас в компании более 400 сотрудников. Среди клиентов - Coca Cola, Citibank, Stripe, HSBC, Bank of China и другие.

Ключевые технологии - Java, Hadoop, Hive. Плюсом будет Scala, Spark, Airflow, Sqoop.
В ближайшее время для интеграции решения у клиента необходимо будет работать с
Hortonworks HDP 3.1 и витриной в Hive. Развернуто все на bare metal.

Есть возможность как фуллтайм работы с офиц. трудоустройством, так и работы по контракту, в т.ч. part-time с частично-удаленным вариантом посещения офиса.

ЗП зависит от уровня специалиста. 300к/350к+, почасовая ставка при контрактной работе - все готовы обсуждать. Офис м.Октябрьская.

По всем вопросам: @pskuzin или pk@4cv.io
#вакансия #работа #Мск #Москва #Spark #Data #Engineer #Data_Engineer #Python

Всем доброго дня!

Компания «Rubbles», занимающаяся разработками аналитических решений для различных индустрий: системы предсказания спроса на товары для оффлайн-ритейлов, рекомендательные системы в банках, поисковые системы по товарам для онлайн-ритейлеров и многое другое – ищет Spark Data Engineer для усиления направления разработки систем прогнозирования спроса на товары в ритейле.
https://rubbles.ru/

Город и адрес офиса: г. Москва, м. Сухаревская, Проспект Мира, д. 3с3 (1 мин. ходьбы);
Формат работы: офис (+ возможность работать частично удаленно);
Занятость: полная (гибкий график; 40 ч./нед.);
Заработная плата: от 130 000 руб. до 300 000 руб.

Обязанности:
- Разработка и поддержка промышленных пайплайнов обработки данных и машинного обучения на Python и Spark;
- Проработка архитектуры разрабатываемых решений;
- Поддержка data scientist’ов и аналитиков данных (также работают на Python) в задачах разработки.

Требования:
- Опыт промышленной разработки на Python (pytest, многопоточность, CI/CD и др.);
- Опыт работы со Spark, Pyspark, Pandas и другими инструментами работы с данными от полугода.

Плюсом будет:
- Опыт работы с Airflow и другими подобными инструментами для запуска регулярных задач;
- Опыт DevOps (Docker, Kubernetes, Gitlab-CI, настройка окружения на серверах и др.);
- Опыт разработки сервисов (Flask, Django, Asyncio и др.);
- Опыт проектирования высоконагруженных приложений и/или приложений работы с большими данными;
- Опыт применения машинного обучения.

Условия:
- Оформление по ТК РФ, белая заработная плата;
- Компенсации за внерабочие активности с коллегами;
- Корпоративные групповые занятия английским с носителем языка;
- Работа в быстрорастущей компании;
- Много интересных задач;
- Крутая, энергичная, молодая команда.

Контакты для отправки резюме: basygina@ascr.ru; @ekaterina_basygina