Data Science Jobs
20.5K subscribers
42 photos
485 links
админ - @workakkk

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram - 🔥лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python книги📚

@datascienceiot - ml книги📚

РЕЕСТР РКН: clck.ru/3Fmrbd
Download Telegram
Data аналитик Senior

Локация: РФ
Гражданство: РФ
Зарплатная вилка: от 300 000 до 320 000
Оформление: ИП, СЗ

Описание вакансии: Ищем Data аналитика на аутстафф проекты наших партнеров!

Стек: MS SQL, ClickHouse, Power BI, Yandex DataLens, Airflow, Python, SSIS, Azure Data Factory, Data Bricks

Основные требования:
Опыт работы в роли бизнес/дата аналитика 3+ лет;
Отличное знание MS SQL, DAX;
Опыт работы с ClickHouse;
Практический опыт работы с BI-инструментами (Power BI, Yandex DataLens);
Опыт оптимизации производительности запросов и построения дашбордов;
Опыт составления документации по DWH/ETL/BI;
Понимание принципов ETL.
Задачи на проекте
Технический аудит источников данных (Структура таблиц, Качество данных
(полнота, консистентность, выбросы, ...);
Формализация паспорта источника данных (Таблицы, Вьюхи, ЕТЛ процесс
получения данных, Источник данных);
Интервью со стейкхолдерами, обработка результатов интервью (Заметки с
интервью, Реестр источников, Реестр KPI, Реестр бизнес-процессов, Реестр
отчетов);
Изучение отчетов Power BI (отчеты и листы Power BI, логика построения);
Изучение KPI (Меры (поиск в отчетах), Документ о расчетах KPI, Валидация
однозначности расчёта KPI);
Формирование документации, согласование;
Внесение корректировок и демонстрации.

Писать: @okabirorin
🖕12🤝1
2026: отклоняют резюме, которое ещё даже не отправил ))
🤣63👍6😡41😢1
#вакансия #dba #postgresql

Вакансия: DBA PostgreSQL
Компания: GRI - Аккредитованная ИТ компания , которая сделала Sunlight 😊 app и web
Вилка: от 400 000-600 000 gross
Условия: удаленно
Трудоустройство: ТК РФ
https://hh.ru/vacancy/131460477?hhtmFrom=employer_vacancies


Обязанности:
- Поддержка кластеров СУБД в рабочем состоянии;
- Сопровождение высокодоступного катастрофоустойчивого решения для СУБД postgres;
- Оптимизация существующих БД под рост нагрузки;
- Оптимизация настройки Linux, виртуальных машин для работы СУБД под большой нагрузкой;
- Профилирование и оптимизация sql запросов;
- Консультация команд сопровождения и разработки по вопросам, связанным с взаимодействием с БД;
- Cопровождение и развитие систем мониторинга БД;
-Настройка и подготовка тестовых и прод окружений, организация резервного копирования и репликаций;
- Участие в проработке процессов доставки данных (ETL, CDC и др).
- Оперативное реагирование на алерты.

Чего мы ожидаем:

Экспертное знание SQL,pgSQL;

- Опыт работы с PostgreSQL на уровне эксперта от 3х лет;
- Опыт мониторинга и настройки производительности БД, оптимизации запросов;
- Опыт реализации решений с высокой доступностью для СУБД PostgreSQL;
-Опыт администрирования Linux;
- Опыт автоматизации рутинных процессов.
- Что предлагаем в GRI, помимо интересных задач и сильной команды:

График 5/2 с гибким началом рабочего дня. Гибрид, офис, удаленка - рассматриваем все варианты

Обучение за счёт компании: оплачиваем курсы, конференции, внутренние митапы и обмен опытом

Программа лояльности Best Benefits – скидки на еду, спорт, обучение, развлечения и другие радости

Современное техническое оснащение – техника, доступ ко всем нужным инструментам, быстрая поддержка

Комфортный офис (по желанию): чай, кофе, фрукты, сладости, зоны отдыха, спортинвентарь

Живая корпоративная культура – как онлайн, так и офлайн: тимбилдинги, квизы, тематические недели

Работа без бюрократии и микроменеджмента – мы доверяем и работаем на результат, а не контролируем

Контакты: @KseniaMur002
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🖕2
🚀 GigaChat 3.1 Ultra и GigaChat 3.1 Lightning в опенсорс под MIT лицензией!

Обе модели
• Обучены с нуля — без инициализации зарубежными весами
• MoE + MTP + MLA
• Совместимы с HuggingFace, llama.cpp / vLLM / SGLang

Код и веса уже на платформе GitVerse.

Это не просто релиз весов, а результат большой инженерной работы над качеством, alignment и стабильностью модели. В блоге команда поделилась результатами и своими наработками.
В релизе: высокие результаты на аренах, улучшенный function calling, решённая проблема циклов, DPO в нативном FP8, найденный и зарепорченный баг в SGLang при dp > 1.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🖕11🔥5
Senior Data Engineer — строить дата-платформу с нуля.
Удалёнка / Москва | до 450.000₽ net | YCLIENTS (B2B SaaS)
писать: @aaankvic

Сейчас: реплика БД + ClickHouse как «песочница».
Нужно: построить лейкхаус с нуля — от источников до витрин.

Что сделаешь первым:
→ Подключишь OLTP/API → настроишь инкременты в Iceberg (S3)
→ Проведёшь PoC CDC через Debezium + Kafka → лейкхаус
→ Запустишь трансформации Bronze → Silver → Gold
→ Определишь стратегию, например: Trino для ad-hoc, ClickHouse для BI
→ Настроишь мониторинг свежести данных + автоматизируешь бэкфиллы в Airflow

Почему мы?
→ Зелёное поле — не мигрируем с легаси, а строим с нуля
→ Архитектурная свобода — ты выбираешь паттерны и инструменты
→ Высокая ответственность — данные для 50к+ бизнесов в сфере услуг
→ Скорость — первые витрины за 6–8 недель, не «год на проектирование»

Что важно:
→ Сильный SQL + опыт инкрементов и витрин
→ Python для интеграций (не только скрипты)
→ Airflow в проде (зависимости, ретраи, бэкфиллы)
→ Понимание лейкхауса: снепшоты, эволюция схемы, слоистость
Будет плюсом: опыт с Debezium/CDC, Trino, глубокая оптимизация ClickHouse
Стек не догма — если строил лейкхаус на Delta/Hudi и понимаешь принципы — быстро освоишь Iceberg.
Главное — архитектурное мышление.
🙈4🔥1🖕1
#вакансия #работа #plsql #oracle #sql #developer #dataengineer #etl #analyst #belarus #минск #cotvec #гибрид

🚀 Cotvec ищет PL/SQL Developer

Мы — белорусская IT-компания, резидент ПВТ. Уже 10 лет занимаемся разработкой и внедрением IT-решений для бизнеса.
Нас уже 250+ специалистов, и каждый проект — это реальный вызов и возможность прокачаться 💪
🌐 cotvec.com

👨‍💻 О проекте:
Ты будешь развивать и поддерживать систему регуляторной отчётности и аналитических витрин для крупного банка.

📍 Что нужно делать:

Развивать корпоративное хранилище данных (проектирование, ETL, PL/SQL).
Оптимизировать процессы и запросы.
Разрабатывать отчёты (SQL / PL/SQL / BI-инструменты).
Анализировать требования и документировать результаты.

💡 Что мы ждём:

Уверенные знания Oracle PL/SQL (Analytical SQL, Oracle concepts).
Понимание реляционных моделей и принципов построения DWH.
Навыки оптимизации SQL-запросов.

🧩 Будет плюсом:

Опыт работы с SAP DataServices / BusinessObjects, Informatica, Greenplum или другими BI/ETL-инструментами.

Что мы предлагаем:

Стабильность и доход: Зарплата с привязкой к $, итоговый уровень обсудим на собеседовании.

Забота о здоровье: Медицинская страховка (ДМС).

Work-life balance: 29 дней отпуска.

Гибкость во всем: Работай в офисе или в гибридном формате (после периода адаптации).

Развитие: Доступ к внутреннему и внешнему обучению.

Атмосферный офис: Локация на Чапаева, 4. У нас есть всё для комфорта: XBOX, настолки, библиотека, уютная кухня и даже массажное кресло.

📩 Контакты для отклика:
Татьяна @tatsyanaFL
#вакансия #работа #Product #Analyst #аналитик #Growth #удалёнка #Fintech #Web3 #Python #SQL

🤩Product Analyst
ЗП: до 5000$ (USDT)
Формат: Удаленно
Компания: крипто-необанк

Компания развивает продукт в сфере финтеха и цифровых активов, объединяя инструменты для управления, использования и приумножения средств в единой экосистеме. Основной фокус - на создании удобных пользовательских решений для операций с активами, включая платежные инструменты, финансовые продукты и торговые возможности.

Требования:
- 3–5+ лет опыта в роли Product / Growth Analyst
- Уверенное владение SQL и Python
- Практический опыт проведения A/B тестов (end-to-end)
- Сильная база в математической статистике
- Опыт работы с продуктовой аналитикой: retention, churn, LTV, funnels
- Опыт работы с event-based аналитикой
- Практика в Amplitude (или аналогах, например Mixpanel)
- Опыт с AppsFlyer (атрибуция и анализ трафика)
- Опыт работы в продуктовых / fintech / web3 / mobile-first компаниях — плюс

Задачи:
- Дизайн, запуск и анализ A/B тестов
- Формирование и проверка продуктовых гипотез
- Поиск точек роста в продуктовой воронке
- Анализ пользовательского поведения и метрик
- Построение системы продуктовых метрик
- Работа с событиями и постановка трекинга
- Влияние на продуктовые решения через данные

Условия:
- Продуктовая команда с сильным data-driven подходом
- Влияние на ключевые решения и рост продукта
- Минимум бюрократии и быстрые циклы принятия решений
- Работа с современным аналитическим стеком
- Возможность роста в сторону Product / Growth

🔥 Не просто смотришь на цифры — влияешь на продукт и его рост

Для отклика присылай резюме в личные сообщения: @itmari
2👍2🔥2🤨2
Роскошный максимум: получить приглашение в команду SberAds за один день! 😉

Сделать это можно на One Day Offer* для Data Analyst**, который пройдёт уже 25 апреля. Сбер ждёт специалистов, которые готовы:

✔️ создавать и улучшать модели для real-time аукционов
✔️ трансформировать SberAds — вывести на пик эффективности, качества и релевантности рекламы
✔️ стать частью команды из 8000+ коллег (это вау! 🤩)

Занимай место в проекте мечты!

* One Day Offer — предложение о работе за один день.
** Data Analyst — аналитик данных.
🖕2
#вакансия #работа #Data #Analyst #аналитик #Senior #удалёнка #РФ #Россия #Python

🤩Senior Data Analyst ЗП: 350К-400К на руки Формат: Удаленная работа из РФ. Полная занятость
Компания: Omega Solutions Проект: Телеком

💛Требования
- Уверенное владение экосистемой Hadoop и фреймворком PySpark;
- Глубокие знания языка SQL;
- Опыт настройки и администрирования планировщика задач Airflow;
- Уверенное владение языком Python;
- Понимание модели данных Data Vault;
- Навыки работы с системой

♥️Задачи
- Анализ источников данных для последующей интеграции;
- Коммуникация с заказчиками (выяснение детальных требований, условий приемки и т.д.);
- Создание прототипов витрин для пользовательских отчетов;
- Описание объектов в каталоге данных, составление документации в confluence;
- Формирование требований к качеству данных (DQ проверки);
- Приемка разработанных DE объектов согласно критериям, описанным в бизнес-требованиях.

🤝Условия
Оформление по ИП
Дружелюбная атмосфера внутри компании
Развитие через реальные задачи, а не формальные курсы
Возможность предлагать идеи и видеть, как они внедряются
Гибкий график работы и возможность удаленной работы
Оплата за фактически отработанное время
Участие в интересных проектах  без лишнего микроменеджмента

🫶Контакт: @TatiSolar 🔥 Строй data pipelines, улучшай качество данных и влияй на бизнес-решения
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉4🖕4💯2
Senior DevOps Engineer (DWH/ML Platform)
Ищем DevOps-инженера, который не просто «держит прод», а строит масштабируемую платформу для работы с данными. Вам предстоит развивать инфраструктуру, на которой крутятся Trino, Spark и ML-модели, используя лучшие практики IaC и Kubernetes.

Технологический стек
Core Infra: AWS (EKS, VPC, IAM), Kubernetes, Terragrunt
CI/CD: GitLab CI
Compute & Query: Trino, Apache Spark
Storage: S3 (Data Lake, Apache Iceberg), ClickHouse, ScyllaDB
Orchestration: Apache Airflow (Kubernetes Executor)
Observability: Prometheus, Grafana, ELK
Deployment: Helm


Чем предстоит заниматься
Развитие Kubernetes-платформы (EKS)
Написание и поддержка сложных Helm-чартов для stateful-приложений (Trino, ClickHouse, Solr, ScyllaDB).
Управление ресурсами, автомасштабированием (HPA/VPA, Cluster Autoscaler, Karpenter).
Настройка сетевых политик, Ingress, service mesh при необходимости.

Infrastructure as Code
Полное описание инфраструктуры через Terragrunt: EKS-кластеры, VPC, IAM, S3, RDS и др.
Поддержка принципа DRY, управление стейтами в AWS S3.
Структурирование кода для нескольких окружений (dev/stage/prod).
CI/CD пайплайны
Построение процессов доставки кода и данных через GitLab CI.
Настройка GitLab Runners (в т.ч. на Kubernetes), кэширование артефактов.
Автоматизация тестирования инфраструктуры, Helm-чартов и Terraform-модулей.
Observability
Настройка сбора метрик через Prometheus (ServiceMonitors, PodMonitors, Exporters).
Визуализация в Grafana: дашборды для Data-компонентов и инфраструктуры.
Настройка алертинга для критичных сценариев: лаг репликации, очередь задач Spark/Airflow, утилизация ресурсов.
Централизованный сбор логов.

Data Ops
Поддержка кластеров Trino и Spark, обеспечение их взаимодействия с S3 (Iceberg) и базами данных (Solr, ScyllaDB).
Настройка Airflow на Kubernetes Executor, помощь DE-команде с инфраструктурными вопросами.
Участие в работе с инцидентами.

ML Support
Обеспечение стабильной работы сервисов ML (Solr, ScyllaDB, Redis) в продакшене.
Поддержка инфраструктуры для MLflow, Feast, inference-сервисов.

Что хотим видеть:
Если вы не работали с инструментами ниже, нам, к сожалению, будет сложно:
Kubernetes (Expert level): Вы не просто используете готовые манифесты, а понимаете внутренности EKS, умеете писать собственные Helm-чарты с нуля и дебажить сложные проблемы (OOMKilled, Pending pods, PVC issues, networking).
IaC: Умение структурировать код для нескольких окружений (dev/stage/prod).
GitLab CI: Глубокое понимание .gitlab-ci.yml, опыт настройки пайплайнов со сложной логикой.
AWS: Понимание сетевого взаимодействия и управления правами (IAM Policies/Roles, IRSA).
Опыт эксплуатации Big Data стека: например Trino (Presto), Spark, Airflow.
Опыт работы с колоночными NoSQL (ScyllaDB/Cassandra).
Опыт работы с поисковыми движками (Solr или Elasticsearch).
Понимание процессов MLOps и опыт с ML-инфраструктурой (MLflow, Feast, KServe).
Опыт с GitOps (ArgoCD, Flux).
Опыт работы с Apache Iceberg и Data Lake архитектурой.

@grenivetskiy
🖕3😁1👌1🌭1
⚡️ Вышло большое обновление популярного курса- Ai AI агенты, которые реально работают в проде!

Вы всё ещё пишете обёртки над ChatGPT и называете это «AI-продуктом»?

Пока вы промптите - рынок переходит на агентные системы. Те, что принимают решения, ходят в API, работают с Postgres и Redis, управляют браузером через Playwright.

И 90% таких систем ломаются между ноутбуком и продом.

AI Agents Engineering - курс, который закрывает этот разрыв. LangGraph, AutoGen, Computer Use, LLMOps. 8 модулей, 120+ шагов - от архитектуры до деплоя в Docker.

На выходе: реальный опыт на большой практической базе, а production-агент и навыки, за которые уже платят.

👉 48 часов действует скидка на курс 55 процентов: https://stepik.org/a/276971/
👍4🔥43🖕1
#jobs #Бишкек

Формат: Офис, Бишкек (5/2)
Должность: Senior Data Scientist
Место работы: Ведущая цифровая экосистема Кыргызстана (телеком, финтех, e-commerce)
Заработная плата: $3 000 – $4 000 (netto, обсуждается по итогам интервью)

Обязанности:
• Проектирование и реализация end-to-end ML решений (от исследования до продакшна)
• Разработка и оптимизация RAG-систем и LLM-сервисов
• Анализ данных для выявления паттернов и инсайтов, влияющих на бизнес-решения
• A/B-тестирование и оценка качества моделей
• Fine-tuning и дообучение моделей
• Разработка систем оценки и мониторинга ML/LLM моделей
• Интеграция предиктивных и генеративных моделей в продакшн совместно с MLOps и архитекторами
• Участие в развитии корпоративной AI-платформы и стандартах CI/CD для ML
• Документирование гипотез, методологий и результатов, подготовка презентаций для бизнеса
• Взаимодействие с продуктами и владельцами данных для формализации задач

Требования:
• 3+ лет коммерческого опыта в Data Science / Machine Learning / AI
• Сильная база в статистике, вероятностях и линейной алгебре
• Глубокое понимание ML-алгоритмов, feature engineering и оценки моделей
• Уверенный Python и ML-библиотеки (pandas, scikit-learn, PyTorch / TensorFlow)
• Опыт работы с большими данными (SQL, Spark, Airflow или аналоги)
• Практический опыт с LLM, RAG, векторными БД
• Понимание MLOps-практик, Docker, Kubernetes, ML-пайплайнов
• Опыт продакшен-развертывания моделей
• Навыки менторства и работы в кросс-функциональных командах
• Английский язык — Upper-Intermediate и выше

Будет преимуществом:
• Опыт в телекоме, финтехе или банковской сфере
• Работа с облачными ML-платформами (AWS, Azure, GCP)
• Опыт деплоя LLM в закрытом контуре (on-premise)

Условия:
• Работа в одной из крупнейших цифровых экосистем страны
• Участие в создании AI-платформы уровня группы компаний
• Сильная команда Data/AI и зрелые MLOps процессы
• Возможность влиять на архитектуру и технологический стек
• Конкурентная заработная плата
• Оформление по ТК
• Профессиональное обучение и участие в профильных конференциях

Контакты для связи
:
Акмарал, IT Recruiter — DevCats
@akurstanbekova_dc
🤣8🔥3🥱3
👣 На Stepik обновили курс «Rust: полный курс разработчика. С нуля до профи»

Представьте: через три месяца вы открываете чужой Rust-код и читаете его как книгу.

Arc<Mutex<T>> не вызывает панику. impl Future не пугает. Вы точно знаете, почему компилятор ругается и как это починить за 10 секунд.

Это не фантазия. Это результат 50 уроков, в которых каждая концепция объясняется через код и закрепляется практикой.

Ownership, traits, generics, async, unsafe - всё, что казалось магией, станет рабочим инструментом.

А бонусом - портфолио проектов: от CLI-утилит до REST API и WebAssembly.

Вы и так знаете, что Rust - ваш следующий язык. Этот курс просто сделает это реальностью.

Сегодня - 55% процентов от цены, торопись: https://stepik.org/a/269250/
Please open Telegram to view this post
VIEW IN TELEGRAM
🖕42
Мы ищем Старшего менеджера по продукту, который будет отвечать за развитие и масштабирование цифровых и data-driven решений для коммерческого блока.

Ключевые обязанности:
•Формирование и развитие стратегии BI и data-продуктов для поддержки продаж;
•Лидирование кросс-функциональных цифровых инициатив (Big Data, AI, Data Lab, интеграции);
•Управление продуктовым бэклогом и приоритизацией задач;
•Перевод бизнес-требований в понятные функциональные и технические задачи;
•Координация разработки и внедрения BI-решений (дашборды, отчеты, data-продукты);
•Развитие AI-направления (ML/DL/LLM, агентные решения) и формирование roadmap.
 

Требования:
•Профильный опыт в Product Management не менее 5 лет;
•Опыт управления цифровыми или data-продуктами;
•Опыт работы с AI/ML-технологиями как преимущество;
•Сильные аналитические навыки и умение формировать бизнес-инсайты;
•Развитые навыки работы со стейкхолдерами;
•Умение приоритизировать и управлять сложным бэклогом;
•Лидерские качества и способность драйвить изменения.
 
Условия:
•Официальное оформление в крупную компанию в сфере FMCG;
•График работы 5/2 с 9:00 до 18:00 (гибридный формат работы);
•Стабильная белая заработная плата, ежегодное повышение заработной платы по результатам работы;
•Добровольное медицинское страхование и страхование жизни (ДМС);
•Корпоративное обучение, возможности профессионального и карьерного роста.

Контакты:
Если вакансия вас заинтересовала, пишите в тг: @kristinaVtn
🖕31
#вакансия #DWH #анализ #ищуразработчика #удаленка #Fine BI #middle #Oracle #SQL

Позиция: Разработчик DWH (Middle / Senior)
Компания: ПрофСофт (Аккредитованная IT компания, Аутстафф)
Формат работы: удаленный, фултайм.

📌Основные задачи:
. Анализ имеющегося функционала хранилища данных для целей миграции бизнес-процессов.
. Анализ новых требований от заказчиков по задачам развития отчетности.
. Реализация изменений и тестирование на стороне DWH.
. Взаимодействие с внутренними заказчиками, системными аналитиками-экспертами других подразделений.
. Написание технических задач для развития детального и витринного уровней DWH.
. Анализ и контроль качества загрузки данных в DWH.
. Описание логической и физической модели DWH и сопровождение документации в части хранилища данных.

💻 Требования:
. Опыт работы с Hadoop, Airflow, Greenplum, Spark, Kafka, Clickhouse, Fine BI, Oracle.
. Владение SQL на уровне Middle / начальный Senior.
. Знание и использование на практике оконных функций, ранжирование, группировки, подзапросы, умение разбирать/декомпозировать сложные SQL запросы, а так же умение потом их правильно собрать обратно.

🧩 Будет плюсом:
. Высшее образование (техническая специализация).

Что предлагаем:
. Официальное трудоустройство с первого дня работы.
. Соблюдение ТК РФ, оплачиваемые отпуска и больничные.
. Заработная плата «белая» и обсуждается по результатам собеседования.
. Формат оформления: ТК,ГПХ,ИП.

Контакт для отклика: @Artem_Eri
🖕1
Интервьюер: где вы видите себя через 5 лет?

Я:
🤣1211🔥3👍2
#jobs #vacancy #вакансия #fulltime
Должность : Product BI Analyst / BI Analyst
Локация: офис Ташкент
Компания:HaaS
Занятость: Полная
Зп.2500-3000$
BI Analyst (Mobile Fintech)
Мы ищем опытного BI Analyst / Product BI Analyst для работы над мобильным приложением в сфере кредитных решений, где каждый этап пользовательского пути напрямую влияет на конверсию, бизнес-результат и качество клиентского опыта.
Это роль для аналитика, который умеет работать с данными, продуктовой воронкой и BI-отчётностью, понимает влияние каждого этапа customer journey на ключевые метрики и помогает бизнесу принимать решения на основе данных.
Ключевые обязанности
-Анализ продуктовых и бизнес-метрик мобильного приложения
-Построение и поддержка дашбордов и отчётности в Power BI
-Анализ воронки клиента: от подачи заявки до выдачи кредита
-Поиск узких мест и точек потери конверсии на каждом этапе funnel
-Подготовка аналитических выводов и рекомендаций для product и business команд
-Анализ эффективности новых продуктовых изменений и гипотез
-Работа с SQL-запросами для извлечения, проверки и анализа данных
-Мониторинг KPI, SLA и ключевых бизнес-показателей
-Анализ пользовательского поведения и customer journey
-Подготовка регулярной и ad hoc отчётности для стейкхолдеров
-Поддержка data-driven решений по запуску новых кредитных продуктов
Требования
-От 3 лет коммерческого опыта в роли BI Analyst / Product Analyst
-Сильный опыт работы с SQL
-Уверенный опыт работы с Power BI
-Опыт анализа продуктовых воронок и конверсий
-Опыт построения отчётности, dashboards и KPI monitoring
-Умение работать с большими массивами данных
-Сильное аналитическое мышление и data-driven подход
-Опыт работы с цифровыми продуктами (mobile / fintech / web)
Будет плюсом
-Опыт работы в fintech / banking / lending
-Понимание процессов кредитования
-Опыт анализа скоринга, fraud / risk статусов
-Опыт A/B test analysis
-Опыт cohort / retention analysis
-Понимание UX/UI влияния на конверсию
Ключевые навыки
-Product Analytics
-BI Analytics
-SQL
-Power BI
-Funnel Analysis
-KPI Reporting
-Conversion Analytics
-Dashboard Development

📩 Контакты: @sourserXP
😁3🌭31🖕1
🖥 На Stepik обновили курс «C# с нуля до профи»

Представьте: через четыре месяца вы открываете чужой .NET-проект и читаете его как книгу.

IServiceCollection не вызывает ступора. async Task<IActionResult> пишется на автомате. Вы точно знаете, почему EF Core сгенерировал именно такой SQL - и как переписать запрос, чтобы он летал.

Это не фантазия. Это результат после 16 модулей, в которых каждая концепция объясняется через код и закрепляется практикой.

ООП, SOLID, LINQ, async/await, DI, EF Core, ASP.NET Core, Docker, Kubernetes - всё, что казалось магией, станет рабочим инструментом.

А бонусом - портфолио проектов: от CLI-утилит и REST API до собственного SaaS с multi-tenancy, JWT и деплоем в Kubernetes под TLS.

Скидка - 58% доступна 48 часов: https://stepik.org/a/282984/
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥2🖕2👍1
Вакансия: Middle/Senior Data Analyst

Локация/Гражданство: РФ
Оформление: СЗ/ИП
Компания: DataDev
ЗП: от 250 000 до 350 000 р.
Занятость: Проектная/Полная

Обязанности:
🔹 Анализ поведения клиентов и эффективности ML-моделей.
🔹 Оценка результатов экспериментов: A/B-тесты, uplift-анализ, контрольные группы.
🔹 Участие в анализе источников данных, предложение улучшений для дата-платформы (сбор, хранение, подготовка данных для DS).
🔹 Разработка метрик и дашбордов (Looker/Tableau/Metabase) для мониторинга и принятия решений.
🔹 Верификация данных (поиск аномалий, автоматизация проверок).
🔹 Исследование больших массивов данных, поиск закономерностей, формирование инсайтов и рекомендаций для продукта.
🔹 Настройка ETL-процессов для подготовки данных.
🔹 Сегментация аудитории, анализ воронок, выявление узких мест в продукте.
🔹 Работа в связке с Data Scientists, Product Managers, Data Engineers.
🔹 Развитие процессов и культуры работы с данными в компании.

Требования:
3+ года опыта в аналитике данных (SaaS / eCommerce – преимущество).
Продвинутый SQL (сложные запросы, оптимизация, работа с большими таблицами).
Python (Pandas, NumPy, SciPy) – обработка данных, автоматизация.
Знание статистики и опыта проведения A/B-тестов.
Понимание основ ML/AI (как бизнес-аналитик/заказчик).
Структурное мышление, умение объяснять данные бизнесу.

Технический стек:
Языки: Python, SQL (включая PL/SQL, PL/pgSQL)
Базы данных: Greenplum, PostgreSQL
BigData: Kafka, Trino, Spark, Hadoop, Hive
ETL-системы: Apache Airflow


Будет плюсом:
Опыт в SaaS, eCommerce, маркетплейсах.
Знание Airflow, dbt или других инструментов ETL.
Базовые навыки ML (интерпретация моделей, feature importance).
Опыт работы с ClickHouse, BigQuery, Snowflake.

Писать: @irina_it_rec