Data Science Jobs
15K subscribers
46 photos
2 videos
1 file
641 links
Лучшие вакансии по темам Data Science, машинного обучения, нейросетей, искусственного интеллекта, компьютерного зрения, сбора, обработки и анализа данных.

По всем вопросам: @musit
Чат: @bigdata_ru
Download Telegram
#вакансия #python #ml #remote #fulltime

Компания: BrainShells;
Позиция: Python/ML разработчик;
Вилка: от 6000$;
Формат: удаленная работа;
Занятость: full-time;
Опыт: от 5 лет.

Мы - команда экспертов по искусственному интеллекту, работаем с фреймворками, решающими различные задачи deep learning: генерации текста, аудио и видео, а также проводим транскрибацию, распознавание объектов на видео, также решаем задачи по обогащению данных: сбор данных из соцсетей, видеохостингов и тд. Мы сфокусированы на решении различных архитектурных задач для этих проектов, а также поддержке и мониторинге работающих решений.

Находимся в поиске senior Python разработчика в нашу команду!

Чем предстоит заниматься:

- Разработка и поддержка программного обеспечения на Python;
- Разработка и реализация инновационных решений для задач ИИ: улучшение используемых алгоритмов, оптимизация производительности;
- Масштабирование существующего решений;
- Разработка и реализация инновационных решений для решения задач.

Требования к кандидату:

- Опыт коммерческой разработки python от 5 лет;
- Опыт в анализе данных / машинном обучении / deep learning;
- Понимание задач искусственного интеллекта;
- Призовые места в соревнованиях Kaggle;
- Высшее образование в области компьютерных технологий / прикладной математики и (или) прикладной информатики;
- Английский язык B2 и выше.

Будет плюсом:

- Знание и опыт работы с одним из языков программирования: Go/C/C++/C#/Java;
- Опыт работы с инструментами автоматизации, такими как Docker;
- Знание и опыт работы с базами данных: redis, postgreSQL, MySQL;
- Опыт логирования и мониторинга программного обеспечения;
- Работа с готовыми моделями текстовыми моделями, например, Hugging face и Open AI API;
- Опыт работы с asyncio, threads, и subprocesses; pytest/unittest; pandas, sklearn; pytorch/tensorflow/keras.

Что мы предлагаем:

- Участие в разработке динамично развивающегося продукта, работающего на рынке в реальном времени;
- Справедливую заработную плату по результатам собеседования и вашей квалификации в вилке от 6000$ и выше;
- Возможность прокачивать свою экспертизу за счет работы с топовыми коллегами и обучения в моменте;
- Классный молодой коллектив профессионалов, заряженных на результат. Ценим порядочность, честность и открытость;
- Возможность реализовывать смелые и амбициозные инициативы;
- Горизонтальную структуру, отсутствие бюрократии и синдромов «больших начальников»;
- Мы за результат, а не процесс. У всех наших сотрудников удобный график и полностью удаленная работа.

Для отклика пишите @valeriayanets
#вакансия #ml #remote

Крупная e-com компания приглашает кандидатов на позицию ML Специалиста / Data Scientist

⭐️ Преимущества работы с нами:
• Официальное трудоустройство в ИТ аккредитованную компанию;
• График работы свободный: офисный, гибридный или удалённый формат работы из любой точки мира по договорённости с командой
• Белая ЗП до 450 тыс. рублей;
• Реализация проектов, которые помогут бизнесу принимать решения и расти; нам нужна твоя экспертиза и инициатива
• ДМС и страхование для выезжающих за рубеж;
• Классный тимлид и сильная команда😊

📍Задачи:
• Участие в разработке и реализации алгоритмов персонализации
• Оптимизация ранжирования товаров для улучшения пользовательского опыта
• Анализ и кластеризация поведенческих паттернов пользователей для более глубокого понимания предпочтений клиентов
• Улучшение существующих алгоритмов прогнозирования прибыли для повышения точности и эффективности
• Реализация моделей прогнозирования спроса на товары для оптимизации управления запасами

🧑‍💻Пожелания к кандидату:
• Совокупный опыт работы от 2 лет в области машинного обучения
• Сильные навыки программирования на Python, опыт работы библиотеками ML (scikit-learn, TensorFlow/PyTorch)
• Глубокое понимание алгоритмов и методов машинного обучения, особенно в области рекомендаций и прогнозирования
• Глубокое понимание методов оценки качества и эффективности моделей машинного обучения, включая выбор подходящих метрик и проведение валидации.
• Опыт успешного развертывания и внедрения моделей машинного обучения в производственную среду (продакшен)
• Аналитический склад ума, способность четко формализовать задачу

📩 За подробностями пишите @alyassap
#DataScientist #Senior #Middle+ #relocation #remote

We are expanding our DS team and are looking for a talented Senior Data Scientist to join our international team and take part in groundbreaking projects that define the blockchain industry. Clain is building sophisticated analysis software that provides regulatory compliance for crypto related businesses and empowers forensic investigators with ingenious tools to detect and explore crypto-enabled crimes. We offer an ideal workplace for those who want to have a real impact on the growth of an organization and are craving responsibilities.

What we offer:
- A chance to work with cool crypto compliance products and make a real impact on the business
- Powerful server hardware (from 32 CPUs and 256Gb RAM) for work and experiments
- Petabytes of on-chain data and gigabytes of off-chain data: tabular data, json, texts and even pictures
- Relocation to Cyprus (Limassol) with employment and social guarantees in accordance with Cypriot law
- Flexible start of the working day and optionally hybrid working week
- Collaborative and supportive team atmosphere

Key Responsibilities:
- Analysis of on-chain and off-chain data
- Creation and automation of analytical services and ML models
- Participation in the creation of the DS ecosystem

Requirements:
- Strong analytical skills with the ability to extract insights from large datasets and effectively visualize data
- Proven work experience of at least 3 years in a similar role
- Knowledge of development principles: OOP, SOLID
- Practical experience of Python 3, packages: numpy, pandas, pydantic
- Good level of SQL
- Familiar with one of: shell/bash/powershell
- Bachelor's degree in statistics, applied mathematics, or related discipline
- Intermediate English for communication in the international team

It will be a plus:
- Familiar with the principles of Blockchain technology
- Professional level of Python 3 (type hints, logging, profiling, and code modularity)
- Experience with columnar/graph/document-oriented DBs
- Experience with Docker, k8s, AirFlow

If you're driven by innovation, passionate about blockchain, and ready to embrace the challenges of shaping the future, we want to hear from you!

Contact us:
Elena, Talent acquisition manager - tg @elena_yank
#вакансия #remote #middle #de #da #etl #postgresql #clickhouse #dbt

Компания Excdev в поиске Middle Data Engineer/Data Analyst

Удаленный график работы из любой точки мира,зарплатная плата 200-250 тысяч рублей на руки.

Задачи:
- Разработка хранилищ данных, витрин данных;
- Проектирование, разработка и поддержка ETL-процессов;
- Разработка визуализации данных и отчетности;
- Контроль качества загружаемых данных;
- Интеграция новых источников;

Вы идеальны, если:
- Высшее математическое или техническое образование (компьютерные науки, инженерия, статистика, математика или смежные области)
- Минимум 3 года опыта работы в управлении данными, инжиниринге данных или анализе данных в сфере веб и/или мобильных продуктов
- Практические знания в областях хранения данных, моделирования, управления и визуализации данных, опыт работы со следующими инструментами Airflow, DBT, Clickhouse, Superset, Postgre
- Успешный опыт работы с извлечением и обработкой данных из разных источников для коммерческой ценности
- Опыт работы(настройка и интеграция) с трекерами типа Google Analytics, Branch, AppMetrica, Adjust, AppsFlyer, Binom (поп-ап реклама) и т.п.

Будет огромным плюсом:
- Опыт работы со SkadNetwork iOS и понимание принципов работы с агрегированными данными.
- Опыт настройки и ведения рекламных кампаний в источниках типа Meta, Google Ads, Tiktok и т.п.
- Опыт работы с Tableau, Google Looker или подобных им.

Контакт для связи в тг: @valenti_sh
#вакансия

Data
Engineer в VK Adtech, Москва

Департамент создаёт рекламные продукты и инструменты для бизнеса. Это myTarget, рекламный кабинет ВКонтакте и платформа VK Реклама. Наши разработки также интегрированы в другие продукты VK: Одноклассники, Портал и Почту Mail․ru. Всё это открывает бизнесу доступ к 95% мобильной аудитории рунета. В команде минимум бюрократии и максимум возможностей влиять на продукт — воплощение фич от идеи до релиза может занимать всего пару недель.

Ищем опытного и самостоятельного дата-инженера, который будет участвовать в создании ML-инструментов. Предстоит разрабатывать и поддерживать код на Scala/Spark (UDF/UDAF, Spark ML Transformers, etc.) и Python (платформа ML/ETL). А ещё помогать команде следить за качеством генерируемых данных.

У нас вы будете работать с данными популярных соцсетей (ВК, ОК, Дзен) и других проектов экосистемы VK. Также надеемся, что вам понравится наш кластер Hadoop на примерно 100 петабайтов.

Задачи:
• Проектировать, разрабатывать и поддерживать инструменты для создания надёжных пайплайнов обработки данных;
• участвовать в развитии системы для создания и использования ML-моделей;
• исследовать и интегрировать в продукт новые источники данных;
• создавать витрины признаков для ML-моделей.

Требования:
• Знание алгоритмов и структур данных;
• умение писать качественный, поддерживаемый код на Scala, Python, SQL;
• опыт использования Hadoop, знание механизмов распределённого хранения и обработки данных (HDFS, Spark, Hive);
• знакомство с Bash, Git, Linux, Docker;
• опыт работы с терминалом по SSH.

Будет плюсом:
• Умение использовать Luigi, Airflow, Kafka;
• опыт написания Spark UDF/UDAF на Catalyst API и трансформеров spark.ml;
• знание Java и нюансов JVM;
• понимание классических ML-моделей, задач и методов DS.

✍️ Отправить CV и по всем вопросам: https://t.me/olkony

#de #ml #engineer #mailru #adtech #spark #python #hadoop #kafka #гибрид #remote #middle #senior
#вакансия

Data
analyst / Data scientist, Москва

VK Реклама — одно из ключевых подразделений в VK. Ежедневно наши сервисы охватывают более 140 млн пользователей в России и странах СНГ. Более 100 тыс. рекламодателей каждый день запускают рекламные кампании у нас и находят своих клиентов. Мы — команда ML внутри VK Рекламы, отвечаем за её качество, чтобы пользователи могли увидеть наиболее подходящую им рекламу, а рекламодатели потратить свои бюджеты наиболее эффективно.

Основная задача нашего направления — проверять гипотезы, искать инсайты и точки роста эффективности и впоследствии внедрять их в прод. У нас идёт полный ML-цикл от проработки гипотезы до проведения экспериментов и внедрения фич в продакшен. Результаты нашей работы напрямую влияют на эффективность такого большого продукта, как VK Реклама.

Команда ad hoc аналитики занимается проверкой гипотез и поиском точек роста. Тестирует гипотезы в реальных экспериментах и оценивает изменения. Мы ищем в команду сильных аналитиков, совместными усилиями будем проводить различные аналитические исследования для повышения эффективности нашего продукта.

Задачи:
• Анализ больших данных для поиска потенциальных точек роста и выдвижения гипотез;
• ad hoc аналитика, поиски зависимостей в данных;
• проверка гипотез, поиск узких мест, донесение результатов до прода;
• оптимизация моделей рекламного аукциона и моделей ранжирования пользователей;
• проведение и статоценка экспериментов;
• разработка и автоматизация отчётности;
• сбор, обработка и дальнейшее использование больших данных.

Требования:
• Хорошее знание SQL (сложные запросы, порядок выполнения операций) — нужно написать не просто запрос, а оптимальный запрос, который сможет отработать на действительно больших данных;
• знание Python для анализа данных; библиотеки Pandas, Numpy — нужно будет сделать анализ данных, проработать гипотезы и правильно их визуализировать. Недостаточно просто найти какой-то паттерн — нужно его правильно представить наружу;
• работа с системами больших данных будет большим плюсом (Hadoop, PySpark);
• хорошее понимание матстатистики;
• анализ данных с учётом сезонности, поиски аномалий и выбросов в данных.

Будет плюсом:
• Опыт работы с ClickHouse, Hadoop, Git, Jenkins;
• работа с инструментами BI-отчётности, понимание ETL-инструментов (делаем автоматические отчёты, готовим для них данные, настраиваем выгрузки и другое).

✍️ Отправить CV и по всем вопросам: https://t.me/olkony

#ds #adhoc #analytics #ml #mailru #vk #adtech #sql #python #pandas #numpy #pysprak #hadoop #mathstat #clickhouse #гибрид #remote #middle #senior
#DataEngineer #ContractPosition #Remote #GCP #ThoughtSpot #BigData #Affinity #Slack #Looker #Snowflake

Разыскивается DataEngineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, но возможны варианты.

Стек технологий: GCP, ETL, Snowflake, CRM Affinity, SQL, Airflow, ThoughtSpot (preferred) or Looker , Python, SQL (нужен full stack!!!)

Английский B2 и выше – условие обязательное.

Работать за пределами России и Беларуси - условие обязательное.

Зарплата $5000 – 6500 NET

Для самых внимательных, кто действительно читает описание вакансии: просим  - откликаться только в том случае, если у вас есть полный стек,  - присылать резюме в формате Word.
Для связи: https://t.me/Tary_bird

Description of the Data Engineer contract position:

Location: Preferably San Francisco Bay Area, or remotely in the Pacific or Central Time zone.

Company:

A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.

What to expect:

Your role as a data engineer involves reporting to the head of the data and analytics department and participating in the creation of the entire structure and infrastructure necessary to support operations.

Responsibilities:
   Developing, creating, and maintaining data infrastructure for optimal extraction, transformation, and loading of data from various sources using SQL, NoSQL, and big data technologies.
   Creating and implementing data collection systems that integrate various sources, including company proprietary data and external sources.
   Automating the process of collecting and visualizing user engagement data from CRM/UI.
   Developing and supporting ETL (Extract, Transform, Load) processes on the Google Cloud platform and in the Snowflake system for efficient data processing.
   Extracting data from the Affinity CRM system, ensuring its correctness and relevance.
   Integrating notifications into Slack to improve communication within the team.
   If necessary, developing and supporting analytical reports and dashboards in BI tools such as ThoughtSpot (preferred) or Looker to make data-driven decisions.

What we are looking for:

Qualifications:
•  Experience of at least 3 years as a data engineer or full stack in the field of data warehousing, data monitoring, and building and maintaining ETL pipelines, including experience with Google Cloud and Snowflake.
•  Deep experience with data pipeline and workflow management tools (Airflow).
•  Strong proficiency in SQL and Python
•  Experience with BigQuery.
•  experience extracting data out of Affinity CRM and integrate notifications back to Slack
•  Solid knowledge and experience with database design, setup, and maintenance.
•  Proven ability to work in highly dynamic environments with high product velocity
•   Strong communication skills, both orally and in writing.•  BI tool experience on ThoughtSpot (preferred) or Looker
Nice to have:

•  Bachelor's or master's degree in computer science, database management, etc.
#вакансия #удалённо #job #remote #parttime #руководитель #ML #Lead

Время делиться знаниями!

Компания:
OTUS – образовательная платформа. За 7 лет работы мы создали более 130 авторских курсов для IT-специалистов разного уровня от junior до senior. У нас есть вступительное тестирование для студентов и 600+ преподавателей-практиков из крупнейших компаний. Мы учимся друг у друга, советуемся, помогаем, делимся опытом и обсуждаем новости как в преподавании, так и в IT.

Вакансия: руководитель онлайн-курса "ML Team Lead".

Требуется
4-5 лет опыта в ML. Желательно иметь опыт работы в нескольких разных компаниях, как на технических, так и на управленческих позициях. Можно без опыта преподавания, наши методисты помогут вам освоить лучшие практики.

Руководитель составляет программу курса, преподает часть занятий на курсе. Работает в команде профессионалов: преподаватели, методист и продюсер.

Формат занятий: преподаватель раскрывает тему с помощью теории и примеров из практики. Занятия в Zoom в вечернее время. Можно выбрать удобную нагрузку и темы занятий.

Условия:
- удалённое сотрудничество;
- вы можете выбрать темы занятий и комфортную для себя нагрузку;
- 3000 за один вебинар (полтора часа) и 3000 за подготовку материалов к занятию, также есть доплата за разработку программы и дополнительные активности.

Еще вы сможете:
внести свой вклад в развитие IT;
структурировать свой опыт и знания;
развивать личный бренд.

Бонусы 🎁
- наши курсы со скидкой/бесплатно;
- возможность приглашать в свою команду на работу лучших выпускников;
- воркшопы и конференции для наших преподавателей.

Обсудить подробнее @yu_grin
#вакансия #de #fintech #remote

Привет! Мы в поиске Data Engineer (middle+)

Компания: Vsemirsoft
Проект: банковский проект (входит в ТОП-50 банков РФ).
Стек проекта:
- #Hadoop, #GreenPlum, #S3;
- #Airflow, #Spark, #Kafka, #Debezium;
- #ClickHouse, #Superset

Часовой пояс: Москва (UTC+03:00, Europe/Moscow)
Формат работы: удаленный
Зп: 285 тыс. руб.

📌Ключевые компетенции:
- АБС
- ЦФТ
- DWH

📌 Требования:
- ОПЫТ РАБОТЫ ОТ 3х ЛЕТ;
- опыт работы с хранилищами данных и с отчетностью в АБС Банка;
- понимание жизненного цикла разработки программного обеспечения

📌 Как преимущество:
- понимание процессов формирования обязательной отчетности (ЦБ)

📌 Задачи в рамках проекта:
- анализ новых требований от заказчиков по задачам обязательной отчетности (ЦБ);
- реализация изменений и тестирование на стороне DWH;
- взаимодействие с внутренними заказчиками, системными аналитиками-экспертами других подразделений;
- написание технических задач для развития детального и витринного уровней DWH;
- анализ и контроль качества загрузки данных в DWH;
- описание логической и физической модели DWH и сопровождение документации в части хранилища данных

По всем вопросам обращаться: @odu_v_an
#remote #middle+ #vacancy #вакансия #удаленка #fulltime #parttime#data

Data Engineer
Middle+

Формат работы: удалённо, фулл-тайм, парт-тайм
Местоположение компании: Россия
Зарплата: от 200,000 рублей на руки

Cyber Staff — амбициозное IT агентство, основанное и управляемое бывшими программистами. Мы сотрудничаем с ведущими мировыми технологическими компаниями из разных отраслей и оказываем самые разные услуги: от заказной разработки до подбора и точечного найма лучших IT специалистов для наших клиентов и их крутейших проектов.

В данный момент мы ищем Data Engineer для работы на интереснейшем проекте нашего партнера.

Описание проекта:
Мы работаем с HR данными банка и внешнего рынка:
- ETL (получаем данные от поставщиков, организуем контракты, контролируем и проверяем качество)
- Методология (в тесной коммуникации с продуктовыми командами Аналитики работаем над созданием методологии и формированием алгоритмов расчета показателей)
- Разработка потоков и витрин данных
- Предоставление рассчитанных данных конечным потребителям

Мы используем современные подходы и методологии: microservices, cloud-native, Machine Learning и AI. Параллельно строим свой SaaS для вывода продукта на рынок. Не забываем о cybersecurity и high load. В команде следуем культуре Agile и DevOps.

Основные технологии и используемые решения:
- SQL
- Yandex СlickHouse
- PostgreSQL
- Kafka

Опыт работы:
-обязателен опыт с СУБД ClickHouse
-опыт работы дата инженером от 2 лет
-с MPP базами (Greenplum / Vertica / Clickhouse (Приоритет);
-отличное знание SQL и навыки оптимизации запросов;
-комплексное понимание работы аналитических систем;

Задачи:
-повышение качества данных;
-оптимизация и рефакторинг существующих ETL процессов и SQL запросов;
-обеспечение SLA по времени наших решений;
-улучшение time to market производства витрин;
-участие в продуктовых задачах команды.

Что мы предлагаем:
-полностью удаленная работа
-привлекательная компенсация
-ноль бюрократии внутри компании
-возможность поработать на самых разных мировых проектах
-дружелюбная и поддерживающая рабочая атмосфера

Резюме высылайте сюда @ainuritttka 🙂
❇️Вакансия: Machine Learning Engineer Middle

Формат: удаленно по всему миру
Наш часовой пояс: UTC+3
Занятость: проектная
Оплата: до 350 000₽ /проект или до 2500₽ /час

Subscale AI - специализируемся на разработке и внедрении AI/ML-решений

🔸Необходимые навыки:
- RAG (LangChain, LlamaIndex, OpenAI Assistant)
- Fine-tuning (TensorFlow, PyTorch, HF Transformers)
- Базы данных (MySQL, PostgreSQL, ClickHouse)
- API (REST API, FastAPI)
- Деплой (AWS, Azure, Google Cloud)

🔸Индивидуальные требования:
- Часовой пояс в пределах +-3 часов от UTC+3
- Свободное владение Русским языком
- Владение Английским языком

🔸Направления нашей работы:
- Внедрение ИИ в Отделы Продаж, Маркетинга, HR и др.
- Создание функциональных ИИ-Ассистентов
- Обучение ИИ-моделей с помощью RAG и Fine-tuning
- Разработка ИИ-продуктов(SaaS)

🔸Мы предлагаем:
- Интересные проекты с возможностью творческой реализации
- Возможность принять участие в выводе продуктов и сервисов на международный рынок
- Карьерный рост до Team Lead
- Отсутствие привязки к месту и возможность оплаты труда в любую точку мира
- Свобода мысли и принятия решений при реализации проектов

🔸Кого мы хотим видеть:
- амбициозных, инициативных и талантливых разработчиков, желающих достигать новых высот в сфере AI и ML, которые легко вольются в нашу молодую команду

💬Сразу отправляйте резюме/CV: @subscale_ai

#вакансия #vacancy #удаленка #remote #мидл #middle #ai #ии #ml #мл #llm #nlp #langchain #datascientist #mlengineer #python
#DataScientist #Senior #relocation #remote

We are expanding our DS team and are looking for a talented Senior Data Scientist to join our international team and take part in groundbreaking projects that define the blockchain industry. Clain is building sophisticated analysis software that provides regulatory compliance for crypto related businesses and empowers forensic investigators with ingenious tools to detect and explore crypto-enabled crimes. We offer an ideal workplace for those who want to have a real impact on the growth of an organization and are craving responsibilities.

What we offer:
- A chance to work with cool crypto compliance products and make a real impact on the business
- Powerful server hardware (from 32 CPUs and 256Gb RAM) for work and experiments
- Petabytes of on-chain data and gigabytes of off-chain data: tabular data, json, texts and even pictures
- Relocation to Cyprus (Limassol) with employment and social guarantees in accordance with Cypriot law
- Flexible start of the working day and optionally hybrid working week
- Collaborative and supportive team atmosphere

Key Responsibilities:
- Analysis of on-chain and off-chain data
- Creation and automation of analytical services and ML models
- Participation in the creation of the DS ecosystem

Requirements:
- Strong analytical skills with the ability to extract insights from large datasets and effectively visualize data
- Proven work experience of at least 3 years in a similar role
- Knowledge of development principles: OOP, SOLID
- Practical experience of Python 3, packages: numpy, pandas, pydantic
- Good level of SQL
- Familiar with one of: shell/bash/powershell
- Bachelor's degree in statistics, applied mathematics, or related discipline
- Intermediate English for communication in the international team

It will be a plus:
- Familiar with the principles of Blockchain technology
- Professional level of Python 3 (type hints, logging, profiling, and code modularity)
- Experience with columnar/graph/document-oriented DBs
- Experience with Docker, k8s, AirFlow

If you're driven by innovation, passionate about blockchain, and ready to embrace the challenges of shaping the future, we want to hear from you!

Contact us:
Elena, Talent acquisition manager - tg @elena_yank
#вакансия #удаленка #релокация #remote #DataScientist

Senior Data Scientist
Название компании: Fundraise Up

Формат работы: удаленка
Занятость: полная
Зарплатная вилка: $4,500 - $6,300
Контакты: https://t.me/mmatveeva_FRU

💫 Делаем продукт для сбора донатов на сайтах. Совершаем транзакции на $10M ежемесячно, храним миллиарды событий и имеем сотни счастливых клиентов.

♦️Ищем Senior Data Scientist. Делимся экспертизой и долей компании. Обеспечиваем всем необходимым для комфортной работы.

♦️Позиция предполагает релокацию из РФ и РБ. При желании вы можете воспользоваться нашей программой релокации, которая распространяется на Европу, Сербию и Грузию.

♦️Кого ищем

Есть опыт решения задач в одной и более областей из:
-RecSys;
-Ulift modeling;
-Churn prediction;
-LTV prediction;
-Forecasting.
-Умение проводить A/B тестирование моделей в production;
-Владение MLOps инструментами для сервинга и мониторинга моделей;
-Хорошее знание SQL;
-Уровень английского языка не ниже Intermediate.
Супер-важно уметь соблюдать все виды договоренностей.

♦️Формальный список того, что нужно делать

-Полный цикл обработки данных (EDA, сбор и очистка данных, feature engineering и т.д.),
-Решение задач регрессии, кластеризации, классификации,
-Разработка и реализация моделей машинного обучения,
-Доведение моделей до Production.

♦️Бонусы

Нам важно чтобы работая удаленно, вы чувствовали себя комфортно. Обычно мы отправляем сотрудникам Macbook и нужное число мониторов. Если ваше рабочее место не обустроено, то пришлем стол, удобное кресло и все что нужно для продуктивной работы.
Полностью оплачиваем необходимое ПО, книги и коворкинг, если не хотите работать из дома. Помогаем с оплатой спортзала и бассейна, курсов английского и любого профильного образования.
#вакансия #vacancy #product #analyst #продукт #аналитик #fulltime #millde #remote #удаленно

Product analyst (Middle)

HuntIT - это передовое международное рекрутинговое агентство. Сейчас мы находимся в поиске Middle Product Analyst в команду, которая уже больше 7 лет трудится над высоконагруженной web-платформой с микросервисной архитектурой, пользователи которой находятся по всему миру и исчисляются в десятках миллионов.

Задачи и зона ответственности:
- Обработка данных, построение витрин данных совместно с командой дата-инженеров;
- Участие в построении BI-аналитики, разработка дашбордов в Tableau;
- Выполнение продуктовых исследований для различных отделов: поиск точек роста, поиск инсайтов, формулирование и проверка гипотез;
- Проведение экспериментов: дизайн A/B тестов и подведение их результатов.

Важно:
- Отличное знание SQL (мы используем ClickHouse и MySQL);;
- Хорошее знание Python (Pandas, Numpy, SciPy, Plotly, DataLore);
- Знание основ математической статистики и теории вероятностей (основные теоремы теории вероятностей, описательная статистика, статистические гипотезы);
- Знание базовых правил проведения А/В-тестирований, умение дизайнить эксперименты, а также выбирать наиболее подходящий статистический критерий для проверки гипотез;
- Хорошие навыки визуализации данных, а также умение презентовать результаты своей работы.

Что предлагаем:
- Дружная команда крутых специалистов и максимально комфортная рабочая атмосфера;
- Полностью оборудованное рабочее место;
- Гибкое начало рабочего дня (с 9 до 12);
- ДМС со стоматологией после испытательного срока (на территории РФ);
- Частичная компенсация занятий в фитнес-зале и английского языка.

По всем вопросам и для отправки CV: @huntit_tanya
#datascience #remote #ML

Компания: BrainShells;
Позиция: Senior Data Science;
Вилка: от 6000$;
Формат: удаленная работа;
Занятость: full-time;
Опыт: от 6 лет.

Мы - динамично развивающий стартап, решающими различные задачи deep learning: генерации текста, аудио и видео, а также проводим транскрибацию, распознавание объектов на видео, также решаем задачи по обогащению данных: сбор данных из соцсетей, видеохостингов и тд. Мы сфокусированы на применении SOTA-решений для этих проектов, а также поддержке и мониторинге работающих решений.

Находимся в поиске ML/DL Engineer в нашу команду

Чем предстоит заниматься:

- Применение SOTA DL-решений для конкретных AI-задаx
- Tuning существующих решений: дообучение NN, улучшение используемых алгоритмов, оптимизация производительности;
- Анализ внешних фреймворков и исправление программных багов;
- Масштабирование существующего решений;

Требования к кандидату:

- Опыт работы от 6 лет;
- Опыт коммерческой разработки с нуля;
- Опыт в deep learning и анализе данных или машинном обучении
- Понимание классических ML-алгоритмов, знание SOTA-решений и архитектур в одной из областях: NLP, CV, TTS
- Высшее образование в области компьютерных технологий / прикладной математики и (или) прикладной информатики;
- Английский язык B2 и выше.

Будет плюсом:

- Наличие побед в Kaggle;
- Прохождение ШАД.

Что мы предлагаем:

- Участие в разработке динамично развивающегося продукта, работающего на рынке в реальном времени;
- Справедливую заработную плату по результатам собеседования и вашей квалификации;
- Возможность прокачивать свою экспертизу за счет работы с топовыми коллегами и обучения в моменте;
- Классный молодой коллектив профессионалов, заряженных на результат. Ценим порядочность, честность и открытость;
- Горизонтальную структуру, отсутствие бюрократии и синдромов «больших начальников»;
- Мы за результат, а не процесс. У всех наших сотрудников удобный график и полностью удаленная работа без привязке к стране.

Для отклика пишите @perovvaa
#вакансия #vacancy #senior #ML #удаленныйформат #remote

Вакансия:Senior ML engineer
Компания:EXCDEV
Формат:удаленный(из любой точки мира)
Зарплатная плата:270-350 тысяч рублей на руки.

Чем предстоит заниматься:
- Построение и обучение моделей машинного обучения
- Проведение исследований в новых направлениях с использованием нейронных сетей
- Разработка моделей анализа информации
- Разработка ассистентов и чат-ботов под нужны организации с учетом базовых
скриптов и сценариев взаимодействия с пользователями
- Поддержка и обновление нейросетей в соответствии с изменениями в бизнесе
- Аналитика качества моделей

Требования:
- Минимум 3 года опыта работы в управлении тематическими или техническое данными,
инжиниринге данных или анализе данных
- Уверенное знание Python и основных библиотек анализа данных
- Уверенное знание SQL, опыт работы с различными типами СУБД
-Знание основ Data Science, хорошие аналитические способности
- Опыт разработки RESTful API и интеграция с внешними сервисами
- Опыт в сфере NLP
- Опыт работы с популярными LLM : Gpt3.5/4, LLama2, Falcon
- Опыт работы с генеративными моделями, транcформерами
- Навыки работы с библиотеками PyTorch, TensorFlow (для возможности fine-tuning LLM под
конкретную задачу)
- Разработка векторизованных баз знаний
- Умение работать с Git

Условия:
-График работы 5/2 с 10-00 до 19.00 по московскому времени;
-Удаленный формат работы из любой страны;

Просьба направлять резюме:

@VLT_recruiter
#вакансия #работа #remote #ds #python 👋

Ищем:
DS-разработчик

Что нужно:
Python, pandas, numpy, sklearn, Понимание основ статистики: p-value, дисперсия, и пр., Умение общаться и доносить гипотезы в понятном бизнесу виде, Опыт работы с временными рядами как плюс

Задачи:
Прогнозирование спроса на товары, Работа с временными рядами, Подготовка данных и обучение линейных моделей (проект ~3мес, скорее всего с продлением)

Занятость: проектная
Тип: удаленный
Оплата: по договоренности от 1000р/час
Контакты: @olegvongola

Дополнительно:
Ищем начинающих ML/DS разработчиков на стажировку для задач, связанных с чатботами и файнтюнами.
#вакансия #DA #analyst #remote #fulltime

Вакансия: Middle Data Analyst
Формат: Удаленный
Занятость: Полная
Локация: РФ, РБ
Оплата: 3000 - 4000$ net.

Ptolemay
- аутсорсинговая IT-компания полного цикла по разработке мобильных и веб-приложений для бизнеса и стартапов. Ищем Middle Data Analyst для аустафф-проекта в сфере ритейла.

Задачи:
- Собирать и анализировать данные из различных источников, включая обработку и очистку данных для обеспечения их качества и надежности.
- Создавать интерактивные отчеты и дашборды (matplotlib, seaborn, Power BI, Tableau).
- Анализировать бизнес-процессы, выявлять узкие места и разрабатывать предложения по их оптимизации.
- Разрабатывать и внедрять новые продукты и решения, основанные на анализе данных, с оценкой их влияния на бизнес-показатели.
- Проводить A/B тесты, включая планирование, анализ и интерпретацию результатов.
- Писать скрипты и настраивать процессы для извлечения, трансформации и загрузки данных (ETL), создавать и поддерживать аналитические витрины данных.

Требования:
- Опыт работы аналитиком данных от 3 лет.
- Опыт общения с бизнес-заказчиками.
- Уверенное знание Python и SQL.
- Опыт работы с библиотеками визуализации данных (matplotlib, seaborn и пр.).
- Опыт анализа/изменения бизнес-процессов.
- Опыт внедрения/изменения продуктов, основанных на данных.

Будет плюсом:
- Опыт проведения А/В тестов и оценки их результатов.
- Опыт написания ETL-процессов/создания витрин данных.
- Что-нибудь из: docker, git, airflow, nifi, kafka, командная строка Linux.
- Опыт работы с BI-инструментами (Power BI, Tableau)
- Опыт сбора, составления и согласования функциональных требований к продукту.

Условия:
- Удалённый формат работы.
- Гибкий график.
- Полная занятость.
- Оформление по ИП.
- Возможность роста и развития в крупной компании.
- Оплата 3000 - 4000$ net по результатам собеседования.

Буду рада ответить на вопросы и ознакомиться с резюме: @rinapina_ptolemay
#вакансия #DE #датаинженер #remote #fulltime #senior #удаленка

Data-инженер Senior

🚩Локация: любая
Формат работы: Удаленный
Занятость: полная
Срок привлечения: 3+ мес (с возможностью продления)
Оформление: ИП
💰ЗП: 350-400 К руб./мес.

📌 Обязательные требования
- Релевантный опыт работы не менее З-х лет;
- Знание принципов построения хранилищ данных;
- Понимание архитектур MPP систем;
- Опыт работы с экосистемой Hadoop навыки Data Engineer (HDFS,YARN,Spark,kafka,Nifi,Sqoop,flume и т.д.);
- Опыт работы с ELT-процессами;
- Опыт работы с системами контроля версий (git, Gitlab, Bitbucket);
- Знание SQL (DDL, DML, ANSI, PL), опыт оптимизации запросов;
- Опыт работы с Greenplum либо отличное знание PostgreSQL;
- Практический опыт работы с SAS DIS, Informatica PowerCenter;
- Опыт использования системам ведения проектов и документации, сопровождения и мониторинга информационных систем, находящихся в зоне ответственности;
- Навык работы с Git, Jira, Confluence.

☑️ Задачи на проекте

- Проектирование и разработка потоков данных на ETL, ELT инструментах;
- Имплементация кастомных трансформаций;
- Проектирование и построение прототипов, витрин
- Анализ производительности, масштабирование существующих систем;
- Оптимизация SQL запросов и структур баз данных;
- Разработка процедур на языке PL, pgSQL;
- Развитие архитектуры DWH, анализ и выбор оптимальных технологий, методологий, инструментов;
- Создание и актуализация базы знаний для пользователей DWH.

👌 За подробностями, прошу в лс.
Контакты: @tenedius