Data Science Jobs
14.8K subscribers
48 photos
2 videos
1 file
637 links
Лучшие вакансии по темам Data Science, машинного обучения, нейросетей, искусственного интеллекта, компьютерного зрения, сбора, обработки и анализа данных.

По всем вопросам: @musit
Чат: @bigdata_ru
Download Telegram
#vacancy #вакансия #remote #Cyprus #ML #LLM #machinelearning #mlengineer #backend #Python

💡Hi! I`m Olia, HR at Ennabl. I`m looking for a Python Software Engineer - ML/LLM (Middle/Senior) for our team.

🔆Company: Ennabl
📍Employment: full-time; remote
🌐Location: Cyprus. If you are outside of Cyprus, Ennabl helps and supports relocation
💰Salary: 5,800-8,300 EUR gross
📩Contact: @OlgaBykanova (https://t.me/OlgaBykanova)

⚡️We are a product fintech startup with a headquarters in the USA and a diverse team with 40+ people (Russia, USA, Ireland, Georgia, Kyrgyzstan, Serbia, India, Spain). We are developing a data-driven platform for US insurance brokers and agents which helps them to work with their data more efficiently.

🔥What we can offer:
- People are our main asset, we value our employees. We get together online and offline (cafe, games, team-buildings in different countries). This is a truly amazing team, I work here full-time as well :)
- Every employee is granted company's shares (equity)
- We use modern technologies and don`t have legacy
- English language courses

🛠Technologies:
- Python; ML frameworks (pytorch, tensorflow, scikit-learn); LLMs (GPT, Llama, Mistral); AWS

⚙️Job responsibilities:
- Design, develop, and deploy ML/LLM based systems
- Take end-to-end ownership of AI services: data pipelines, feature/prompt engineering, model training, integration into our production systems
- Collaborate with internal teams to analyze data, refine AI algorithms and integrate AI solutions into Ennabl’s platform

📌Requirements:
- 4+ years of relevant experience
- Proficiency in Python ecosystem
- Experience with modern ML frameworks
- Experience with LLMs and AWS is an advantage
- English (B1+)
#вакансия #Python #Fulltime #remote
◾️Компания: Аккредитованная ИТ компания Devim - FinTech, 9+ лет на рынке
◾️Вакансия: Data Engineer (python)
🌏Формат работы: удаленка откуда угодно (офис по желанию в СПБ, м. Старая деревня), главное - иметь РФ счет для ЗП
💳 Вилка: очень примерная - 250 000-400 000 руб NET, готовы отталкиваться от ожиданий кандидатов

🙏Пожелания к кандидату: 3+ лет опыта с данными в качестве Data Engineer; понимание принципов построения DWH и ETL процесса
Как плюс: опыт с оркестрацией ETL на Airflow или аналогах, опыт вывода моделей в прод
🪄Стек: Python, Airflow, PostgreSQL, Clickhouse, Docker, k8s
📍Задачи: строить хранилище данных для DS команды и продуктового офиса, разрабатывать инфраструктуру обработки данных и ML (MLFlow, DBT, Superset). Проект на начальной стадии, нет легаси, только новые фичи и можно будет собрать data фреймворк под себя

🧠 Этапы: всего 2 - тех интервью и финальная встреча с CPO

📬 Кидать резюме сюда: @k_shvt 🖖
#AI #remote #conversationquality #AIleader #AIlead

Приглашает сильного AI leader занять роль в компании, которая уже много лет развивает продукты в сфере генеративного искуссвтенного интеллекта!


Чем предстоит заниматься:
Сейчас нам нужен специалист, который поможет сделать лучший флоу мультимодального общения с персонажами внутри приложения, и в итоге, вывести продукт в топы своего направления! Нужно будет погружаться в тонкости dating, изучать конкурентов, делать модели, опираясь на потребности бизнеса, и предлагать хорошие инженерные решения. У нас уже есть сильная команда и понимание, как двигаться дальше, но не хватает рук.


Что нам важно:
— Опыт работы с conversation quality
— Сейчас команда делает большую ставку на инструмент ImageGen, который может помочь полностью кастомизировать персоналити разных AI-собеседников, поэтому будет очень классно, если наш будущий кандидат пользовался этим инструментом или готов его освоить.
— Также, нам максимально важно, чтобы специалист имел хороший уровень английского языка для понимания тонкостей tone of voice персонажей.
— Важно уметь работать с векторными базами, чтобы персонажи могли знать актуальные данные про себя и мир вокруг.
— Опыт с ревёрс-инженирингом, MVP и костылями.
— Готовность быть hands-on: писать доработки на Python / Kotlin (опционально) / Scala (опционально), делать production для backend сервисов, использовать векторные базы данных в контексте AI.
— Уметь быстро собрать сервис или скрипт по процессингу данных на Python.
— Опыт с fine-tuning, LLM в целом.

Что готовы предложить:
— Небольшая талантливая команда, открытая любым идеям и обсуждениям.
— 35 рабочих дней отпуска в год и больничные в свободном формате.
— Оплачиваемое участие в профессиональных конференциях 1-2 раза в год.
— Командные поездки несколько раз в год. Команда уже побывала в Сан-Франциско, Лос-Анджелесе, Барселоне, Сицилии, Турции, Грузии и Черногории.
— Корпоративные программы для поддержки ментального здоровья и изучения английского языка.
-Зарплата: готовы обсуждать максимально гибко, стартуем от 6000 USD gross
— Важно: периодические звонки с 8 a.m по Сан-Франциско.


Присылайте ваши CV мне в тг: @NastyaSereb
До встречи!
#DataEngineer #ContractPosition #Remote # GCP #ThoughtSpot #BigData #Affinity #Slack #Looker #Snowflake

Разыскиваем #DataEngineer на работу по контракту с крупной американской венчурной компанией.
Контракт на 6 месяцев с возможностью перезаключения договора.
Предпочтительна возможность работать в их часовых поясах, но возможны варианты.

Стек технологий: GCP, ETL, Snowflake, CRM Affinity, SQL, Airflow, ThoughtSpot (preferred) or Looker , Python, SQL (нужен full stack!)

Английский B2 и выше – условие обязательное.

Работать за пределами России и Беларуси - условие обязательное.

Зарплата $5000 – 6500 NET

Для самых внимательных, кто действительно читает описание вакансии: просим откликаться в том случае, если у вас есть полный стек и присылать резюме в формате Word.

Для связи: https://t.me/Tary_bird

Description of the Data Engineer contract position:

Location: Preferably San Francisco Bay Area, or remotely in the Pacific or Central Time zone.

Company:

A large venture company with assets of over $11 billion and employees in Austin, London, Menlo Park, and San Francisco.

What to expect:

Your role as a data engineer involves reporting to the head of the data and analytics department and participating in the creation of the entire structure and infrastructure necessary to support operations.

Responsibilities:
   Developing, creating, and maintaining data infrastructure for optimal extraction, transformation, and loading of data from various sources using SQL, NoSQL, and big data technologies.
   Creating and implementing data collection systems that integrate various sources, including company proprietary data and external sources.
   Automating the process of collecting and visualizing user engagement data from CRM/UI.
   Developing and supporting ETL (Extract, Transform, Load) processes on the Google Cloud platform and in the Snowflake system for efficient data processing.
   Extracting data from the Affinity CRM system, ensuring its correctness and relevance.
   Integrating notifications into Slack to improve communication within the team.
   If necessary, developing and supporting analytical reports and dashboards in BI tools such as ThoughtSpot (preferred) or Looker to make data-driven decisions.

What we are looking for:

Qualifications:
•  Experience of at least 3 years as a data engineer or full stack in the field of data warehousing, data monitoring, and building and maintaining ETL pipelines, including experience with Google Cloud and Snowflake.
•  Deep experience with data pipeline and workflow management tools (Airflow).
•  Strong proficiency in SQL and Python
•  Experience with BigQuery.
•  experience extracting data out of Affinity CRM and integrate notifications back to Slack
•  Solid knowledge and experience with database design, setup, and maintenance.
•  Proven ability to work in highly dynamic environments with high product velocity
•  Strong communication skills, both orally and in writing.

Nice to have:

•  BI tool experience on ThoughtSpot (preferred) or Looker
•  Bachelor's or master's degree in computer science, database management, etc.

For those who pay close attention and thoroughly read through job descriptions: please only apply if you possess full-stack capabilities and send your resume in Word format.
#вакансия #datascience #fulltime #remote #senior

Вакансия: Senior Data Scientist
Формат: удалённый
Занятость: полная
Оплата: 4000- 4200$ net

Аутсорсинговая компания Ptolemay приглашает Senior Data Science специалиста на полную занятость для участия в аутстафф-проекте на долгосрочной основе.

Задачи:
- Работать над технологическим развитием продукта с командой (распределение задач, трекинг, развитие команды).
- Разрабатывать код и тесты на python, участвовать в код-ревью.
- Создавать архитектуру систем, использующих машинное обучение.
- Заниматься аналитикой и проверкой гипотез, подготавливать данные для моделирования (получение, очистка).
- Проводить расчет результатов АБ-тестов, дизайн АБ-тестов, построение моделей машинного обучения, развивать инструменты для проведения A/B тестов.
- Разворачивать модели и сервисы в контуре х5 (hadoop/k8s/airflow).
- Писать запросы на SQL, оптимизировать запросы (spark, в частности).
- Предлагать прокси-метрики и функции потерь, связанные с бизнес-метриками.

Требования:
- Знание Python, алгоритмов и структур данных.
- Знание продвинутых методов машинного обучения.
- Знание SQL, знакомство с hadoop-стэком.
- A/B тесты, генерация и проверка гипотез.
- Опыт с docker, kubernetes, pyspark, kafka, postgres, airflow.
- Умение оценивать сложность алгоритмов.
- Понимание ML-алгоритмов, включая SOTA-методы и адаптация их для задач.
- Построение моделей из стандартных компонентов.
- Понимание жизненного цикла ML-разработки и взаимодействие этапов в проекте, разработка архитектуры.
- Понимание мониторинга бизнес-метрик для модели.

Условия:
- Полная занятость.
- Удаленная работа.
- Гибкий график для выбора максимальной продуктивности в удобные часы.
- Прозрачная коммуникация, которая помогает быстрее прийти к решению.
- Возможность профессионального роста и развития в рамках крупного проекта.
- Оплата $4000 - 4200 net по итогам собеседования.

Будем рады ответить на вопросы и ознакомиться с резюме: @rinapina_ptolemay
Не забудьте уточнить, что вы из @datasciencejobs
#вакансия #python #ml #remote #fulltime

Компания: BrainShells;
Позиция: Python/ML разработчик;
Вилка: от 6000$;
Формат: удаленная работа;
Занятость: full-time;
Опыт: от 5 лет.

Мы - команда экспертов по искусственному интеллекту, работаем с фреймворками, решающими различные задачи deep learning: генерации текста, аудио и видео, а также проводим транскрибацию, распознавание объектов на видео, также решаем задачи по обогащению данных: сбор данных из соцсетей, видеохостингов и тд. Мы сфокусированы на решении различных архитектурных задач для этих проектов, а также поддержке и мониторинге работающих решений.

Находимся в поиске senior Python разработчика в нашу команду!

Чем предстоит заниматься:

- Разработка и поддержка программного обеспечения на Python;
- Разработка и реализация инновационных решений для задач ИИ: улучшение используемых алгоритмов, оптимизация производительности;
- Масштабирование существующего решений;
- Разработка и реализация инновационных решений для решения задач.

Требования к кандидату:

- Опыт коммерческой разработки python от 5 лет;
- Опыт в анализе данных / машинном обучении / deep learning;
- Понимание задач искусственного интеллекта;
- Призовые места в соревнованиях Kaggle;
- Высшее образование в области компьютерных технологий / прикладной математики и (или) прикладной информатики;
- Английский язык B2 и выше.

Будет плюсом:

- Знание и опыт работы с одним из языков программирования: Go/C/C++/C#/Java;
- Опыт работы с инструментами автоматизации, такими как Docker;
- Знание и опыт работы с базами данных: redis, postgreSQL, MySQL;
- Опыт логирования и мониторинга программного обеспечения;
- Работа с готовыми моделями текстовыми моделями, например, Hugging face и Open AI API;
- Опыт работы с asyncio, threads, и subprocesses; pytest/unittest; pandas, sklearn; pytorch/tensorflow/keras.

Что мы предлагаем:

- Участие в разработке динамично развивающегося продукта, работающего на рынке в реальном времени;
- Справедливую заработную плату по результатам собеседования и вашей квалификации в вилке от 6000$ и выше;
- Возможность прокачивать свою экспертизу за счет работы с топовыми коллегами и обучения в моменте;
- Классный молодой коллектив профессионалов, заряженных на результат. Ценим порядочность, честность и открытость;
- Возможность реализовывать смелые и амбициозные инициативы;
- Горизонтальную структуру, отсутствие бюрократии и синдромов «больших начальников»;
- Мы за результат, а не процесс. У всех наших сотрудников удобный график и полностью удаленная работа.

Для отклика пишите @valeriayanets
#вакансия #ml #remote

Крупная e-com компания приглашает кандидатов на позицию ML Специалиста / Data Scientist

⭐️ Преимущества работы с нами:
• Официальное трудоустройство в ИТ аккредитованную компанию;
• График работы свободный: офисный, гибридный или удалённый формат работы из любой точки мира по договорённости с командой
• Белая ЗП до 450 тыс. рублей;
• Реализация проектов, которые помогут бизнесу принимать решения и расти; нам нужна твоя экспертиза и инициатива
• ДМС и страхование для выезжающих за рубеж;
• Классный тимлид и сильная команда😊

📍Задачи:
• Участие в разработке и реализации алгоритмов персонализации
• Оптимизация ранжирования товаров для улучшения пользовательского опыта
• Анализ и кластеризация поведенческих паттернов пользователей для более глубокого понимания предпочтений клиентов
• Улучшение существующих алгоритмов прогнозирования прибыли для повышения точности и эффективности
• Реализация моделей прогнозирования спроса на товары для оптимизации управления запасами

🧑‍💻Пожелания к кандидату:
• Совокупный опыт работы от 2 лет в области машинного обучения
• Сильные навыки программирования на Python, опыт работы библиотеками ML (scikit-learn, TensorFlow/PyTorch)
• Глубокое понимание алгоритмов и методов машинного обучения, особенно в области рекомендаций и прогнозирования
• Глубокое понимание методов оценки качества и эффективности моделей машинного обучения, включая выбор подходящих метрик и проведение валидации.
• Опыт успешного развертывания и внедрения моделей машинного обучения в производственную среду (продакшен)
• Аналитический склад ума, способность четко формализовать задачу

📩 За подробностями пишите @alyassap
#DataScientist #Senior #Middle+ #relocation #remote

We are expanding our DS team and are looking for a talented Senior Data Scientist to join our international team and take part in groundbreaking projects that define the blockchain industry. Clain is building sophisticated analysis software that provides regulatory compliance for crypto related businesses and empowers forensic investigators with ingenious tools to detect and explore crypto-enabled crimes. We offer an ideal workplace for those who want to have a real impact on the growth of an organization and are craving responsibilities.

What we offer:
- A chance to work with cool crypto compliance products and make a real impact on the business
- Powerful server hardware (from 32 CPUs and 256Gb RAM) for work and experiments
- Petabytes of on-chain data and gigabytes of off-chain data: tabular data, json, texts and even pictures
- Relocation to Cyprus (Limassol) with employment and social guarantees in accordance with Cypriot law
- Flexible start of the working day and optionally hybrid working week
- Collaborative and supportive team atmosphere

Key Responsibilities:
- Analysis of on-chain and off-chain data
- Creation and automation of analytical services and ML models
- Participation in the creation of the DS ecosystem

Requirements:
- Strong analytical skills with the ability to extract insights from large datasets and effectively visualize data
- Proven work experience of at least 3 years in a similar role
- Knowledge of development principles: OOP, SOLID
- Practical experience of Python 3, packages: numpy, pandas, pydantic
- Good level of SQL
- Familiar with one of: shell/bash/powershell
- Bachelor's degree in statistics, applied mathematics, or related discipline
- Intermediate English for communication in the international team

It will be a plus:
- Familiar with the principles of Blockchain technology
- Professional level of Python 3 (type hints, logging, profiling, and code modularity)
- Experience with columnar/graph/document-oriented DBs
- Experience with Docker, k8s, AirFlow

If you're driven by innovation, passionate about blockchain, and ready to embrace the challenges of shaping the future, we want to hear from you!

Contact us:
Elena, Talent acquisition manager - tg @elena_yank
#вакансия #remote #middle #de #da #etl #postgresql #clickhouse #dbt

Компания Excdev в поиске Middle Data Engineer/Data Analyst

Удаленный график работы из любой точки мира,зарплатная плата 200-250 тысяч рублей на руки.

Задачи:
- Разработка хранилищ данных, витрин данных;
- Проектирование, разработка и поддержка ETL-процессов;
- Разработка визуализации данных и отчетности;
- Контроль качества загружаемых данных;
- Интеграция новых источников;

Вы идеальны, если:
- Высшее математическое или техническое образование (компьютерные науки, инженерия, статистика, математика или смежные области)
- Минимум 3 года опыта работы в управлении данными, инжиниринге данных или анализе данных в сфере веб и/или мобильных продуктов
- Практические знания в областях хранения данных, моделирования, управления и визуализации данных, опыт работы со следующими инструментами Airflow, DBT, Clickhouse, Superset, Postgre
- Успешный опыт работы с извлечением и обработкой данных из разных источников для коммерческой ценности
- Опыт работы(настройка и интеграция) с трекерами типа Google Analytics, Branch, AppMetrica, Adjust, AppsFlyer, Binom (поп-ап реклама) и т.п.

Будет огромным плюсом:
- Опыт работы со SkadNetwork iOS и понимание принципов работы с агрегированными данными.
- Опыт настройки и ведения рекламных кампаний в источниках типа Meta, Google Ads, Tiktok и т.п.
- Опыт работы с Tableau, Google Looker или подобных им.

Контакт для связи в тг: @valenti_sh
#вакансия

Data
Engineer в VK Adtech, Москва

Департамент создаёт рекламные продукты и инструменты для бизнеса. Это myTarget, рекламный кабинет ВКонтакте и платформа VK Реклама. Наши разработки также интегрированы в другие продукты VK: Одноклассники, Портал и Почту Mail․ru. Всё это открывает бизнесу доступ к 95% мобильной аудитории рунета. В команде минимум бюрократии и максимум возможностей влиять на продукт — воплощение фич от идеи до релиза может занимать всего пару недель.

Ищем опытного и самостоятельного дата-инженера, который будет участвовать в создании ML-инструментов. Предстоит разрабатывать и поддерживать код на Scala/Spark (UDF/UDAF, Spark ML Transformers, etc.) и Python (платформа ML/ETL). А ещё помогать команде следить за качеством генерируемых данных.

У нас вы будете работать с данными популярных соцсетей (ВК, ОК, Дзен) и других проектов экосистемы VK. Также надеемся, что вам понравится наш кластер Hadoop на примерно 100 петабайтов.

Задачи:
• Проектировать, разрабатывать и поддерживать инструменты для создания надёжных пайплайнов обработки данных;
• участвовать в развитии системы для создания и использования ML-моделей;
• исследовать и интегрировать в продукт новые источники данных;
• создавать витрины признаков для ML-моделей.

Требования:
• Знание алгоритмов и структур данных;
• умение писать качественный, поддерживаемый код на Scala, Python, SQL;
• опыт использования Hadoop, знание механизмов распределённого хранения и обработки данных (HDFS, Spark, Hive);
• знакомство с Bash, Git, Linux, Docker;
• опыт работы с терминалом по SSH.

Будет плюсом:
• Умение использовать Luigi, Airflow, Kafka;
• опыт написания Spark UDF/UDAF на Catalyst API и трансформеров spark.ml;
• знание Java и нюансов JVM;
• понимание классических ML-моделей, задач и методов DS.

✍️ Отправить CV и по всем вопросам: https://t.me/olkony

#de #ml #engineer #mailru #adtech #spark #python #hadoop #kafka #гибрид #remote #middle #senior