Data Science Jobs
14.8K subscribers
49 photos
2 videos
1 file
638 links
Лучшие вакансии по темам Data Science, машинного обучения, нейросетей, искусственного интеллекта, компьютерного зрения, сбора, обработки и анализа данных.

По всем вопросам: @musit
Чат: @bigdata_ru
Download Telegram
#vacancy #вакансия #remote #Cyprus #ML #LLM #machinelearning #mlengineer #backend #Python

💡Hi! I`m Olia, HR at Ennabl. I`m looking for a Python Software Engineer - ML/LLM (Middle/Senior) for our team.

🔆Company: Ennabl
📍Employment: full-time; remote
🌐Location: Cyprus. If you are outside of Cyprus, Ennabl helps and supports relocation
💰Salary: 5,800-8,300 EUR gross
📩Contact: @OlgaBykanova (https://t.me/OlgaBykanova)

⚡️We are a product fintech startup with a headquarters in the USA and a diverse team with 40+ people (Russia, USA, Ireland, Georgia, Kyrgyzstan, Serbia, India, Spain). We are developing a data-driven platform for US insurance brokers and agents which helps them to work with their data more efficiently.

🔥What we can offer:
- People are our main asset, we value our employees. We get together online and offline (cafe, games, team-buildings in different countries). This is a truly amazing team, I work here full-time as well :)
- Every employee is granted company's shares (equity)
- We use modern technologies and don`t have legacy
- English language courses

🛠Technologies:
- Python; ML frameworks (pytorch, tensorflow, scikit-learn); LLMs (GPT, Llama, Mistral); AWS

⚙️Job responsibilities:
- Design, develop, and deploy ML/LLM based systems
- Take end-to-end ownership of AI services: data pipelines, feature/prompt engineering, model training, integration into our production systems
- Collaborate with internal teams to analyze data, refine AI algorithms and integrate AI solutions into Ennabl’s platform

📌Requirements:
- 4+ years of relevant experience
- Proficiency in Python ecosystem
- Experience with modern ML frameworks
- Experience with LLMs and AWS is an advantage
- English (B1+)
#вакансия #Python #Fulltime #remote
◾️Компания: Аккредитованная ИТ компания Devim - FinTech, 9+ лет на рынке
◾️Вакансия: Data Engineer (python)
🌏Формат работы: удаленка откуда угодно (офис по желанию в СПБ, м. Старая деревня), главное - иметь РФ счет для ЗП
💳 Вилка: очень примерная - 250 000-400 000 руб NET, готовы отталкиваться от ожиданий кандидатов

🙏Пожелания к кандидату: 3+ лет опыта с данными в качестве Data Engineer; понимание принципов построения DWH и ETL процесса
Как плюс: опыт с оркестрацией ETL на Airflow или аналогах, опыт вывода моделей в прод
🪄Стек: Python, Airflow, PostgreSQL, Clickhouse, Docker, k8s
📍Задачи: строить хранилище данных для DS команды и продуктового офиса, разрабатывать инфраструктуру обработки данных и ML (MLFlow, DBT, Superset). Проект на начальной стадии, нет легаси, только новые фичи и можно будет собрать data фреймворк под себя

🧠 Этапы: всего 2 - тех интервью и финальная встреча с CPO

📬 Кидать резюме сюда: @k_shvt 🖖
#AI #remote #conversationquality #AIleader #AIlead

Приглашает сильного AI leader занять роль в компании, которая уже много лет развивает продукты в сфере генеративного искуссвтенного интеллекта!


Чем предстоит заниматься:
Сейчас нам нужен специалист, который поможет сделать лучший флоу мультимодального общения с персонажами внутри приложения, и в итоге, вывести продукт в топы своего направления! Нужно будет погружаться в тонкости dating, изучать конкурентов, делать модели, опираясь на потребности бизнеса, и предлагать хорошие инженерные решения. У нас уже есть сильная команда и понимание, как двигаться дальше, но не хватает рук.


Что нам важно:
— Опыт работы с conversation quality
— Сейчас команда делает большую ставку на инструмент ImageGen, который может помочь полностью кастомизировать персоналити разных AI-собеседников, поэтому будет очень классно, если наш будущий кандидат пользовался этим инструментом или готов его освоить.
— Также, нам максимально важно, чтобы специалист имел хороший уровень английского языка для понимания тонкостей tone of voice персонажей.
— Важно уметь работать с векторными базами, чтобы персонажи могли знать актуальные данные про себя и мир вокруг.
— Опыт с ревёрс-инженирингом, MVP и костылями.
— Готовность быть hands-on: писать доработки на Python / Kotlin (опционально) / Scala (опционально), делать production для backend сервисов, использовать векторные базы данных в контексте AI.
— Уметь быстро собрать сервис или скрипт по процессингу данных на Python.
— Опыт с fine-tuning, LLM в целом.

Что готовы предложить:
— Небольшая талантливая команда, открытая любым идеям и обсуждениям.
— 35 рабочих дней отпуска в год и больничные в свободном формате.
— Оплачиваемое участие в профессиональных конференциях 1-2 раза в год.
— Командные поездки несколько раз в год. Команда уже побывала в Сан-Франциско, Лос-Анджелесе, Барселоне, Сицилии, Турции, Грузии и Черногории.
— Корпоративные программы для поддержки ментального здоровья и изучения английского языка.
-Зарплата: готовы обсуждать максимально гибко, стартуем от 6000 USD gross
— Важно: периодические звонки с 8 a.m по Сан-Франциско.


Присылайте ваши CV мне в тг: @NastyaSereb
До встречи!
#DataEngineer #ContractPosition #Remote # GCP #ThoughtSpot #BigData #Affinity #Slack #Looker #Snowflake

Разыскиваем #DataEngineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, но возможны варианты.

Стек технологий: GCP, ETL, Snowflake, CRM Affinity, SQL, Airflow, ThoughtSpot (preferred) or Looker , Python, SQL (нужен full stack!)

Английский B2 и выше – условие обязательное.

Работать за пределами России и Беларуси - условие обязательное.

Зарплата $5000 – 6500 NET

Для самых внимательных, кто действительно читает описание вакансии: просим откликаться в том случае, если у вас есть полный стек и присылать резюме в формате Word.

Для связи: https://t.me/Tary_bird

Description of the Data Engineer contract position:

Location: Preferably San Francisco Bay Area, or remotely in the Pacific or Central Time zone.

Company:

A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.

What to expect:

Your role as a data engineer involves reporting to the head of the data and analytics department and participating in the creation of the entire structure and infrastructure necessary to support operations.

Responsibilities:
   Developing, creating, and maintaining data infrastructure for optimal extraction, transformation, and loading of data from various sources using SQL, NoSQL, and big data technologies.
   Creating and implementing data collection systems that integrate various sources, including company proprietary data and external sources.
   Automating the process of collecting and visualizing user engagement data from CRM/UI.
   Developing and supporting ETL (Extract, Transform, Load) processes on the Google Cloud platform and in the Snowflake system for efficient data processing.
   Extracting data from the Affinity CRM system, ensuring its correctness and relevance.
   Integrating notifications into Slack to improve communication within the team.
   If necessary, developing and supporting analytical reports and dashboards in BI tools such as ThoughtSpot (preferred) or Looker to make data-driven decisions.

What we are looking for:

Qualifications:
•  Experience of at least 3 years as a data engineer or full stack in the field of data warehousing, data monitoring, and building and maintaining ETL pipelines, including experience with Google Cloud and Snowflake.
•  Deep experience with data pipeline and workflow management tools (Airflow).
•  Strong proficiency in SQL and Python
•  Experience with BigQuery.
•  experience extracting data out of Affinity CRM and integrate notifications back to Slack
•  Solid knowledge and experience with database design, setup, and maintenance.
•  Proven ability to work in highly dynamic environments with high product velocity
•  Strong communication skills, both orally and in writing.

Nice to have:

•  BI tool experience on ThoughtSpot (preferred) or Looker
•  Bachelor's or master's degree in computer science, database management, etc.

For those who pay close attention and thoroughly read through job descriptions: please only apply if you possess full-stack capabilities and send your resume in Word format.
#вакансия #datascience #fulltime #remote #senior

Вакансия: Senior Data Scientist
Формат: удалённый
Занятость: полная
Оплата: 4000- 4200$ net

Аутсорсинговая компания Ptolemay приглашает Senior Data Science специалиста на полную занятость для участия в аутстафф-проекте на долгосрочной основе.

Задачи:
- Работать над технологическим развитием продукта с командой (распределение задач, трекинг, развитие команды).
- Разрабатывать код и тесты на python, участвовать в код-ревью.
- Создавать архитектуру систем, использующих машинное обучение.
- Заниматься аналитикой и проверкой гипотез, подготавливать данные для моделирования (получение, очистка).
- Проводить расчет результатов АБ-тестов, дизайн АБ-тестов, построение моделей машинного обучения, развивать инструменты для проведения A/B тестов.
- Разворачивать модели и сервисы в контуре х5 (hadoop/k8s/airflow).
- Писать запросы на SQL, оптимизировать запросы (spark, в частности).
- Предлагать прокси-метрики и функции потерь, связанные с бизнес-метриками.

Требования:
- Знание Python, алгоритмов и структур данных.
- Знание продвинутых методов машинного обучения.
- Знание SQL, знакомство с hadoop-стэком.
- A/B тесты, генерация и проверка гипотез.
- Опыт с docker, kubernetes, pyspark, kafka, postgres, airflow.
- Умение оценивать сложность алгоритмов.
- Понимание ML-алгоритмов, включая SOTA-методы и адаптация их для задач.
- Построение моделей из стандартных компонентов.
- Понимание жизненного цикла ML-разработки и взаимодействие этапов в проекте, разработка архитектуры.
- Понимание мониторинга бизнес-метрик для модели.

Условия:
- Полная занятость.
- Удаленная работа.
- Гибкий график для выбора максимальной продуктивности в удобные часы.
- Прозрачная коммуникация, которая помогает быстрее прийти к решению.
- Возможность профессионального роста и развития в рамках крупного проекта.
- Оплата $4000 - 4200 net по итогам собеседования.

Будем рады ответить на вопросы и ознакомиться с резюме: @rinapina_ptolemay
Не забудьте уточнить, что вы из @datasciencejobs
#вакансия #python #ml #remote #fulltime

Компания: BrainShells;
Позиция: Python/ML разработчик;
Вилка: от 6000$;
Формат: удаленная работа;
Занятость: full-time;
Опыт: от 5 лет.

Мы - команда экспертов по искусственному интеллекту, работаем с фреймворками, решающими различные задачи deep learning: генерации текста, аудио и видео, а также проводим транскрибацию, распознавание объектов на видео, также решаем задачи по обогащению данных: сбор данных из соцсетей, видеохостингов и тд. Мы сфокусированы на решении различных архитектурных задач для этих проектов, а также поддержке и мониторинге работающих решений.

Находимся в поиске senior Python разработчика в нашу команду!

Чем предстоит заниматься:

- Разработка и поддержка программного обеспечения на Python;
- Разработка и реализация инновационных решений для задач ИИ: улучшение используемых алгоритмов, оптимизация производительности;
- Масштабирование существующего решений;
- Разработка и реализация инновационных решений для решения задач.

Требования к кандидату:

- Опыт коммерческой разработки python от 5 лет;
- Опыт в анализе данных / машинном обучении / deep learning;
- Понимание задач искусственного интеллекта;
- Призовые места в соревнованиях Kaggle;
- Высшее образование в области компьютерных технологий / прикладной математики и (или) прикладной информатики;
- Английский язык B2 и выше.

Будет плюсом:

- Знание и опыт работы с одним из языков программирования: Go/C/C++/C#/Java;
- Опыт работы с инструментами автоматизации, такими как Docker;
- Знание и опыт работы с базами данных: redis, postgreSQL, MySQL;
- Опыт логирования и мониторинга программного обеспечения;
- Работа с готовыми моделями текстовыми моделями, например, Hugging face и Open AI API;
- Опыт работы с asyncio, threads, и subprocesses; pytest/unittest; pandas, sklearn; pytorch/tensorflow/keras.

Что мы предлагаем:

- Участие в разработке динамично развивающегося продукта, работающего на рынке в реальном времени;
- Справедливую заработную плату по результатам собеседования и вашей квалификации в вилке от 6000$ и выше;
- Возможность прокачивать свою экспертизу за счет работы с топовыми коллегами и обучения в моменте;
- Классный молодой коллектив профессионалов, заряженных на результат. Ценим порядочность, честность и открытость;
- Возможность реализовывать смелые и амбициозные инициативы;
- Горизонтальную структуру, отсутствие бюрократии и синдромов «больших начальников»;
- Мы за результат, а не процесс. У всех наших сотрудников удобный график и полностью удаленная работа.

Для отклика пишите @valeriayanets
#вакансия #ml #remote

Крупная e-com компания приглашает кандидатов на позицию ML Специалиста / Data Scientist

⭐️ Преимущества работы с нами:
• Официальное трудоустройство в ИТ аккредитованную компанию;
• График работы свободный: офисный, гибридный или удалённый формат работы из любой точки мира по договорённости с командой
• Белая ЗП до 450 тыс. рублей;
• Реализация проектов, которые помогут бизнесу принимать решения и расти; нам нужна твоя экспертиза и инициатива
• ДМС и страхование для выезжающих за рубеж;
• Классный тимлид и сильная команда😊

📍Задачи:
• Участие в разработке и реализации алгоритмов персонализации
• Оптимизация ранжирования товаров для улучшения пользовательского опыта
• Анализ и кластеризация поведенческих паттернов пользователей для более глубокого понимания предпочтений клиентов
• Улучшение существующих алгоритмов прогнозирования прибыли для повышения точности и эффективности
• Реализация моделей прогнозирования спроса на товары для оптимизации управления запасами

🧑‍💻Пожелания к кандидату:
• Совокупный опыт работы от 2 лет в области машинного обучения
• Сильные навыки программирования на Python, опыт работы библиотеками ML (scikit-learn, TensorFlow/PyTorch)
• Глубокое понимание алгоритмов и методов машинного обучения, особенно в области рекомендаций и прогнозирования
• Глубокое понимание методов оценки качества и эффективности моделей машинного обучения, включая выбор подходящих метрик и проведение валидации.
• Опыт успешного развертывания и внедрения моделей машинного обучения в производственную среду (продакшен)
• Аналитический склад ума, способность четко формализовать задачу

📩 За подробностями пишите @alyassap
#DataScientist #Senior #Middle+ #relocation #remote

We are expanding our DS team and are looking for a talented Senior Data Scientist to join our international team and take part in groundbreaking projects that define the blockchain industry. Clain is building sophisticated analysis software that provides regulatory compliance for crypto related businesses and empowers forensic investigators with ingenious tools to detect and explore crypto-enabled crimes. We offer an ideal workplace for those who want to have a real impact on the growth of an organization and are craving responsibilities.

What we offer:
- A chance to work with cool crypto compliance products and make a real impact on the business
- Powerful server hardware (from 32 CPUs and 256Gb RAM) for work and experiments
- Petabytes of on-chain data and gigabytes of off-chain data: tabular data, json, texts and even pictures
- Relocation to Cyprus (Limassol) with employment and social guarantees in accordance with Cypriot law
- Flexible start of the working day and optionally hybrid working week
- Collaborative and supportive team atmosphere

Key Responsibilities:
- Analysis of on-chain and off-chain data
- Creation and automation of analytical services and ML models
- Participation in the creation of the DS ecosystem

Requirements:
- Strong analytical skills with the ability to extract insights from large datasets and effectively visualize data
- Proven work experience of at least 3 years in a similar role
- Knowledge of development principles: OOP, SOLID
- Practical experience of Python 3, packages: numpy, pandas, pydantic
- Good level of SQL
- Familiar with one of: shell/bash/powershell
- Bachelor's degree in statistics, applied mathematics, or related discipline
- Intermediate English for communication in the international team

It will be a plus:
- Familiar with the principles of Blockchain technology
- Professional level of Python 3 (type hints, logging, profiling, and code modularity)
- Experience with columnar/graph/document-oriented DBs
- Experience with Docker, k8s, AirFlow

If you're driven by innovation, passionate about blockchain, and ready to embrace the challenges of shaping the future, we want to hear from you!

Contact us:
Elena, Talent acquisition manager - tg @elena_yank
#вакансия #remote #middle #de #da #etl #postgresql #clickhouse #dbt

Компания Excdev в поиске Middle Data Engineer/Data Analyst

Удаленный график работы из любой точки мира,зарплатная плата 200-250 тысяч рублей на руки.

Задачи:
- Разработка хранилищ данных, витрин данных;
- Проектирование, разработка и поддержка ETL-процессов;
- Разработка визуализации данных и отчетности;
- Контроль качества загружаемых данных;
- Интеграция новых источников;

Вы идеальны, если:
- Высшее математическое или техническое образование (компьютерные науки, инженерия, статистика, математика или смежные области)
- Минимум 3 года опыта работы в управлении данными, инжиниринге данных или анализе данных в сфере веб и/или мобильных продуктов
- Практические знания в областях хранения данных, моделирования, управления и визуализации данных, опыт работы со следующими инструментами Airflow, DBT, Clickhouse, Superset, Postgre
- Успешный опыт работы с извлечением и обработкой данных из разных источников для коммерческой ценности
- Опыт работы(настройка и интеграция) с трекерами типа Google Analytics, Branch, AppMetrica, Adjust, AppsFlyer, Binom (поп-ап реклама) и т.п.

Будет огромным плюсом:
- Опыт работы со SkadNetwork iOS и понимание принципов работы с агрегированными данными.
- Опыт настройки и ведения рекламных кампаний в источниках типа Meta, Google Ads, Tiktok и т.п.
- Опыт работы с Tableau, Google Looker или подобных им.

Контакт для связи в тг: @valenti_sh
#вакансия

Data
Engineer в VK Adtech, Москва

Департамент создаёт рекламные продукты и инструменты для бизнеса. Это myTarget, рекламный кабинет ВКонтакте и платформа VK Реклама. Наши разработки также интегрированы в другие продукты VK: Одноклассники, Портал и Почту Mail․ru. Всё это открывает бизнесу доступ к 95% мобильной аудитории рунета. В команде минимум бюрократии и максимум возможностей влиять на продукт — воплощение фич от идеи до релиза может занимать всего пару недель.

Ищем опытного и самостоятельного дата-инженера, который будет участвовать в создании ML-инструментов. Предстоит разрабатывать и поддерживать код на Scala/Spark (UDF/UDAF, Spark ML Transformers, etc.) и Python (платформа ML/ETL). А ещё помогать команде следить за качеством генерируемых данных.

У нас вы будете работать с данными популярных соцсетей (ВК, ОК, Дзен) и других проектов экосистемы VK. Также надеемся, что вам понравится наш кластер Hadoop на примерно 100 петабайтов.

Задачи:
• Проектировать, разрабатывать и поддерживать инструменты для создания надёжных пайплайнов обработки данных;
• участвовать в развитии системы для создания и использования ML-моделей;
• исследовать и интегрировать в продукт новые источники данных;
• создавать витрины признаков для ML-моделей.

Требования:
• Знание алгоритмов и структур данных;
• умение писать качественный, поддерживаемый код на Scala, Python, SQL;
• опыт использования Hadoop, знание механизмов распределённого хранения и обработки данных (HDFS, Spark, Hive);
• знакомство с Bash, Git, Linux, Docker;
• опыт работы с терминалом по SSH.

Будет плюсом:
• Умение использовать Luigi, Airflow, Kafka;
• опыт написания Spark UDF/UDAF на Catalyst API и трансформеров spark.ml;
• знание Java и нюансов JVM;
• понимание классических ML-моделей, задач и методов DS.

✍️ Отправить CV и по всем вопросам: https://t.me/olkony

#de #ml #engineer #mailru #adtech #spark #python #hadoop #kafka #гибрид #remote #middle #senior
#вакансия

Data
analyst / Data scientist, Москва

VK Реклама — одно из ключевых подразделений в VK. Ежедневно наши сервисы охватывают более 140 млн пользователей в России и странах СНГ. Более 100 тыс. рекламодателей каждый день запускают рекламные кампании у нас и находят своих клиентов. Мы — команда ML внутри VK Рекламы, отвечаем за её качество, чтобы пользователи могли увидеть наиболее подходящую им рекламу, а рекламодатели потратить свои бюджеты наиболее эффективно.

Основная задача нашего направления — проверять гипотезы, искать инсайты и точки роста эффективности и впоследствии внедрять их в прод. У нас идёт полный ML-цикл от проработки гипотезы до проведения экспериментов и внедрения фич в продакшен. Результаты нашей работы напрямую влияют на эффективность такого большого продукта, как VK Реклама.

Команда ad hoc аналитики занимается проверкой гипотез и поиском точек роста. Тестирует гипотезы в реальных экспериментах и оценивает изменения. Мы ищем в команду сильных аналитиков, совместными усилиями будем проводить различные аналитические исследования для повышения эффективности нашего продукта.

Задачи:
• Анализ больших данных для поиска потенциальных точек роста и выдвижения гипотез;
• ad hoc аналитика, поиски зависимостей в данных;
• проверка гипотез, поиск узких мест, донесение результатов до прода;
• оптимизация моделей рекламного аукциона и моделей ранжирования пользователей;
• проведение и статоценка экспериментов;
• разработка и автоматизация отчётности;
• сбор, обработка и дальнейшее использование больших данных.

Требования:
• Хорошее знание SQL (сложные запросы, порядок выполнения операций) — нужно написать не просто запрос, а оптимальный запрос, который сможет отработать на действительно больших данных;
• знание Python для анализа данных; библиотеки Pandas, Numpy — нужно будет сделать анализ данных, проработать гипотезы и правильно их визуализировать. Недостаточно просто найти какой-то паттерн — нужно его правильно представить наружу;
• работа с системами больших данных будет большим плюсом (Hadoop, PySpark);
• хорошее понимание матстатистики;
• анализ данных с учётом сезонности, поиски аномалий и выбросов в данных.

Будет плюсом:
• Опыт работы с ClickHouse, Hadoop, Git, Jenkins;
• работа с инструментами BI-отчётности, понимание ETL-инструментов (делаем автоматические отчёты, готовим для них данные, настраиваем выгрузки и другое).

✍️ Отправить CV и по всем вопросам: https://t.me/olkony

#ds #adhoc #analytics #ml #mailru #vk #adtech #sql #python #pandas #numpy #pysprak #hadoop #mathstat #clickhouse #гибрид #remote #middle #senior
#DataEngineer #ContractPosition #Remote #GCP #ThoughtSpot #BigData #Affinity #Slack #Looker #Snowflake

Разыскивается DataEngineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, но возможны варианты.

Стек технологий: GCP, ETL, Snowflake, CRM Affinity, SQL, Airflow, ThoughtSpot (preferred) or Looker , Python, SQL (нужен full stack!!!)

Английский B2 и выше – условие обязательное.

Работать за пределами России и Беларуси - условие обязательное.

Зарплата $5000 – 6500 NET

Для самых внимательных, кто действительно читает описание вакансии: просим  - откликаться только в том случае, если у вас есть полный стек,  - присылать резюме в формате Word.
Для связи: https://t.me/Tary_bird

Description of the Data Engineer contract position:

Location: Preferably San Francisco Bay Area, or remotely in the Pacific or Central Time zone.

Company:

A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.

What to expect:

Your role as a data engineer involves reporting to the head of the data and analytics department and participating in the creation of the entire structure and infrastructure necessary to support operations.

Responsibilities:
   Developing, creating, and maintaining data infrastructure for optimal extraction, transformation, and loading of data from various sources using SQL, NoSQL, and big data technologies.
   Creating and implementing data collection systems that integrate various sources, including company proprietary data and external sources.
   Automating the process of collecting and visualizing user engagement data from CRM/UI.
   Developing and supporting ETL (Extract, Transform, Load) processes on the Google Cloud platform and in the Snowflake system for efficient data processing.
   Extracting data from the Affinity CRM system, ensuring its correctness and relevance.
   Integrating notifications into Slack to improve communication within the team.
   If necessary, developing and supporting analytical reports and dashboards in BI tools such as ThoughtSpot (preferred) or Looker to make data-driven decisions.

What we are looking for:

Qualifications:
•  Experience of at least 3 years as a data engineer or full stack in the field of data warehousing, data monitoring, and building and maintaining ETL pipelines, including experience with Google Cloud and Snowflake.
•  Deep experience with data pipeline and workflow management tools (Airflow).
•  Strong proficiency in SQL and Python
•  Experience with BigQuery.
•  experience extracting data out of Affinity CRM and integrate notifications back to Slack
•  Solid knowledge and experience with database design, setup, and maintenance.
•  Proven ability to work in highly dynamic environments with high product velocity
•   Strong communication skills, both orally and in writing.•  BI tool experience on ThoughtSpot (preferred) or Looker
Nice to have:

•  Bachelor's or master's degree in computer science, database management, etc.
#вакансия #удалённо #job #remote #parttime #руководитель #ML #Lead

Время делиться знаниями!

Компания:
OTUS – образовательная платформа. За 7 лет работы мы создали более 130 авторских курсов для IT-специалистов разного уровня от junior до senior. У нас есть вступительное тестирование для студентов и 600+ преподавателей-практиков из крупнейших компаний. Мы учимся друг у друга, советуемся, помогаем, делимся опытом и обсуждаем новости как в преподавании, так и в IT.

Вакансия: руководитель онлайн-курса "ML Team Lead".

Требуется
4-5 лет опыта в ML. Желательно иметь опыт работы в нескольких разных компаниях, как на технических, так и на управленческих позициях. Можно без опыта преподавания, наши методисты помогут вам освоить лучшие практики.

Руководитель составляет программу курса, преподает часть занятий на курсе. Работает в команде профессионалов: преподаватели, методист и продюсер.

Формат занятий: преподаватель раскрывает тему с помощью теории и примеров из практики. Занятия в Zoom в вечернее время. Можно выбрать удобную нагрузку и темы занятий.

Условия:
- удалённое сотрудничество;
- вы можете выбрать темы занятий и комфортную для себя нагрузку;
- 3000 за один вебинар (полтора часа) и 3000 за подготовку материалов к занятию, также есть доплата за разработку программы и дополнительные активности.

Еще вы сможете:
внести свой вклад в развитие IT;
структурировать свой опыт и знания;
развивать личный бренд.

Бонусы 🎁
- наши курсы со скидкой/бесплатно;
- возможность приглашать в свою команду на работу лучших выпускников;
- воркшопы и конференции для наших преподавателей.

Обсудить подробнее @yu_grin
#вакансия #de #fintech #remote

Привет! Мы в поиске Data Engineer (middle+)

Компания: Vsemirsoft
Проект: банковский проект (входит в ТОП-50 банков РФ).
Стек проекта:
- #Hadoop, #GreenPlum, #S3;
- #Airflow, #Spark, #Kafka, #Debezium;
- #ClickHouse, #Superset

Часовой пояс: Москва (UTC+03:00, Europe/Moscow)
Формат работы: удаленный
Зп: 285 тыс. руб.

📌Ключевые компетенции:
- АБС
- ЦФТ
- DWH

📌 Требования:
- ОПЫТ РАБОТЫ ОТ 3х ЛЕТ;
- опыт работы с хранилищами данных и с отчетностью в АБС Банка;
- понимание жизненного цикла разработки программного обеспечения

📌 Как преимущество:
- понимание процессов формирования обязательной отчетности (ЦБ)

📌 Задачи в рамках проекта:
- анализ новых требований от заказчиков по задачам обязательной отчетности (ЦБ);
- реализация изменений и тестирование на стороне DWH;
- взаимодействие с внутренними заказчиками, системными аналитиками-экспертами других подразделений;
- написание технических задач для развития детального и витринного уровней DWH;
- анализ и контроль качества загрузки данных в DWH;
- описание логической и физической модели DWH и сопровождение документации в части хранилища данных

По всем вопросам обращаться: @odu_v_an
#remote #middle+ #vacancy #вакансия #удаленка #fulltime #parttime#data

Data Engineer
Middle+

Формат работы: удалённо, фулл-тайм, парт-тайм
Местоположение компании: Россия
Зарплата: от 200,000 рублей на руки

Cyber Staff — амбициозное IT агентство, основанное и управляемое бывшими программистами. Мы сотрудничаем с ведущими мировыми технологическими компаниями из разных отраслей и оказываем самые разные услуги: от заказной разработки до подбора и точечного найма лучших IT специалистов для наших клиентов и их крутейших проектов.

В данный момент мы ищем Data Engineer для работы на интереснейшем проекте нашего партнера.

Описание проекта:
Мы работаем с HR данными банка и внешнего рынка:
- ETL (получаем данные от поставщиков, организуем контракты, контролируем и проверяем качество)
- Методология (в тесной коммуникации с продуктовыми командами Аналитики работаем над созданием методологии и формированием алгоритмов расчета показателей)
- Разработка потоков и витрин данных
- Предоставление рассчитанных данных конечным потребителям

Мы используем современные подходы и методологии: microservices, cloud-native, Machine Learning и AI. Параллельно строим свой SaaS для вывода продукта на рынок. Не забываем о cybersecurity и high load. В команде следуем культуре Agile и DevOps.

Основные технологии и используемые решения:
- SQL
- Yandex СlickHouse
- PostgreSQL
- Kafka

Опыт работы:
-обязателен опыт с СУБД ClickHouse
-опыт работы дата инженером от 2 лет
-с MPP базами (Greenplum / Vertica / Clickhouse (Приоритет);
-отличное знание SQL и навыки оптимизации запросов;
-комплексное понимание работы аналитических систем;

Задачи:
-повышение качества данных;
-оптимизация и рефакторинг существующих ETL процессов и SQL запросов;
-обеспечение SLA по времени наших решений;
-улучшение time to market производства витрин;
-участие в продуктовых задачах команды.

Что мы предлагаем:
-полностью удаленная работа
-привлекательная компенсация
-ноль бюрократии внутри компании
-возможность поработать на самых разных мировых проектах
-дружелюбная и поддерживающая рабочая атмосфера

Резюме высылайте сюда @ainuritttka 🙂
❇️Вакансия: Machine Learning Engineer Middle

Формат: удаленно по всему миру
Наш часовой пояс: UTC+3
Занятость: проектная
Оплата: до 350 000₽ /проект или до 2500₽ /час

Subscale AI - специализируемся на разработке и внедрении AI/ML-решений

🔸Необходимые навыки:
- RAG (LangChain, LlamaIndex, OpenAI Assistant)
- Fine-tuning (TensorFlow, PyTorch, HF Transformers)
- Базы данных (MySQL, PostgreSQL, ClickHouse)
- API (REST API, FastAPI)
- Деплой (AWS, Azure, Google Cloud)

🔸Индивидуальные требования:
- Часовой пояс в пределах +-3 часов от UTC+3
- Свободное владение Русским языком
- Владение Английским языком

🔸Направления нашей работы:
- Внедрение ИИ в Отделы Продаж, Маркетинга, HR и др.
- Создание функциональных ИИ-Ассистентов
- Обучение ИИ-моделей с помощью RAG и Fine-tuning
- Разработка ИИ-продуктов(SaaS)

🔸Мы предлагаем:
- Интересные проекты с возможностью творческой реализации
- Возможность принять участие в выводе продуктов и сервисов на международный рынок
- Карьерный рост до Team Lead
- Отсутствие привязки к месту и возможность оплаты труда в любую точку мира
- Свобода мысли и принятия решений при реализации проектов

🔸Кого мы хотим видеть:
- амбициозных, инициативных и талантливых разработчиков, желающих достигать новых высот в сфере AI и ML, которые легко вольются в нашу молодую команду

💬Сразу отправляйте резюме/CV: @subscale_ai

#вакансия #vacancy #удаленка #remote #мидл #middle #ai #ии #ml #мл #llm #nlp #langchain #datascientist #mlengineer #python
#DataScientist #Senior #relocation #remote

We are expanding our DS team and are looking for a talented Senior Data Scientist to join our international team and take part in groundbreaking projects that define the blockchain industry. Clain is building sophisticated analysis software that provides regulatory compliance for crypto related businesses and empowers forensic investigators with ingenious tools to detect and explore crypto-enabled crimes. We offer an ideal workplace for those who want to have a real impact on the growth of an organization and are craving responsibilities.

What we offer:
- A chance to work with cool crypto compliance products and make a real impact on the business
- Powerful server hardware (from 32 CPUs and 256Gb RAM) for work and experiments
- Petabytes of on-chain data and gigabytes of off-chain data: tabular data, json, texts and even pictures
- Relocation to Cyprus (Limassol) with employment and social guarantees in accordance with Cypriot law
- Flexible start of the working day and optionally hybrid working week
- Collaborative and supportive team atmosphere

Key Responsibilities:
- Analysis of on-chain and off-chain data
- Creation and automation of analytical services and ML models
- Participation in the creation of the DS ecosystem

Requirements:
- Strong analytical skills with the ability to extract insights from large datasets and effectively visualize data
- Proven work experience of at least 3 years in a similar role
- Knowledge of development principles: OOP, SOLID
- Practical experience of Python 3, packages: numpy, pandas, pydantic
- Good level of SQL
- Familiar with one of: shell/bash/powershell
- Bachelor's degree in statistics, applied mathematics, or related discipline
- Intermediate English for communication in the international team

It will be a plus:
- Familiar with the principles of Blockchain technology
- Professional level of Python 3 (type hints, logging, profiling, and code modularity)
- Experience with columnar/graph/document-oriented DBs
- Experience with Docker, k8s, AirFlow

If you're driven by innovation, passionate about blockchain, and ready to embrace the challenges of shaping the future, we want to hear from you!

Contact us:
Elena, Talent acquisition manager - tg @elena_yank