Инжиниринг Данных
23.4K subscribers
1.98K photos
56 videos
192 files
3.2K links
Делюсь новостями из мира аналитики и карьерными советами.

15 лет в Аналитике и Инжиниринге Данных, 10 лет в MAANG

🛠️ dataengineer.ru | 🏄‍♂️ Surfalytics.com

№5017813306

Реклама:
https://almond-rule-130.notion.site/1199f595f76a8030ba1be1e607c9a8ce
Download Telegram
Меня вот по знакомству устроили на завод в университете прямо сюда ГКНПЦ им Хруничева. 3 незабываемых года! 🚀🛰
😁31😢12👍1
Forwarded from Nikita Baburov
😁21👍20🔥8
В статье The Unbundling of Airflow (Unbundling - разъединение) автор рассуждает в чем же роль Airflow, если все задачки решают другие инструменты.

Например, загрузка данных (Airbyte, Meltano), трансформации в SQL (dbt) и далее по списку.

На каждую операцию есть свой open source (и платный) продукт.

А Dagster, наоборот пишет про Rebundling the Data Platform (объединение).

Кому верить решайте сами. Я лично люблю, когда все вместе. Но с точки зрения архитектуры это опасно, что-нибудь сломается = все сломается. Зато можно быстро строить - move fast, break things. И сразу можно починить.
👍12
Продолжаю изучать DevOps и Terraform по книге - Terraform: Up & Running, 2nd Edition. Когда мы работаем с данными, часто встает вопрос, как бы с паролем (или другим токеном), ведь нам нельзя его хранить как текст или записывать в логи.

Один из вариантов был - использовать системные переменные Linux/Unix/OS X shells, например, есть пароль:

$ export db_password="(YOUR_DB_PASSWORD)"
Но перед словом export нужно поставить пробел, чтобы мы не записали это в лог. Вот подробности:

In most Linux/Unix/OS X shells, every command you type is stored in some sort of history file (e.g., ~/.bash_history). If you start your command with a space, most shells will skip writing that command to the history file. Note that you might need to set the HISTCONTROL environment variable to “ignoreboth” to enable this if your shell doesn’t enable it by default.
👍16😢4
Как-то я писал про статью в которой, автор провел анализ Европейских компаний и понял, что The median data to engineers ratio for the US companies I looked at is 1:4.

Теперь он провел похожий анализ про Штаты - The median data to engineers ratio for the US companies I looked at is 1:7.

Главная мысль автора, что все компании гоняются за data специалистами. Людей с реальным опытом не хватает.
👍181
👍32😁9🔥7
Нашел 2 хороших видео про Feature Store:
1) Introduction to Featurestores - общая теория.
2) Databricks Feature Store - непосредственно сам процесс создания и хранения фич в Databricks.
🔥6
Я всегда максимально стремлюсь помогать всем кому могу, неся знания и опыт в массы и искренне хочу для всех мира и процветания.

Я не буду делится со своими эмоциями, выводами и точками зрения. Я старался максимально оградить канал от "политики", но это уже не политика, это наши с вами жизни и судьбы, которые изменятся навсегда. Никто не был готов к такому раскладу.

Теперь по делу. Цель сообщества "инжиниринг данных" всегда была помогать людям, учиться новому, искать работу или просто обмениваться знаниями. Я внимательно слежу за объявлениями моего работодателя и при первой информации о возможности получения рабочей визы, релокации, я сразу дам знать. Если вы уже попали в Канаду или Европу и получили документы на работу, то datalearn это лучший ресурс для быстрого обучения и подготовки для поиска работы во всем мире. Если вы в Канаде, и вам нужна какая либо информация и помощь обращайтесь.

🕊
496👍96😢37👎11
Попался бесплатный курс подготовки к IELTS на Edx - IELTS Academic Test Preparation.

Prepare for the IELTS Academic tests in this comprehensive, self-paced course covering listening, speaking, reading and writing.

Обычно Academic нужен для поступление в университет. Но его разница от General в более сложных текстах для Reading и эссе для Writing.
По необходимости приходится изучать ETL инструмент dbt . Это такой SQL friendly open source. Очень гибкий и приятный в работе.

Его основная задача это трансформация данных. Поддерживает все популярные базы данных. Можно развернуть в контейнере или виртуальной машине.

Если зайти со стороны datalearn, то это про 4й модуль. Если вы сделали задание по ETL для Pentaho DI + Postgres, то можно попробовать сделать то же самое, но с dbt.

У них на сайте есть обучающие ресурсы, этого хватит с головой.

Так как dbt отвечает только за трансформацию данных, та самая T в ETL/ELT, то необходимо использовать еще одно решение для загрузки данных в БД, популярные open source - Airbyte и Meltano (я работаю с Meltano).

Ну и для полноты картины, нужен инструмент для оркестрации (workflow manager). Можно, конечно, cron, но все чаще и чаще вижу, что используют Prefect, вместо Airflow.
👍6
Список 50 топ дата стартапов - The World’s Top Data Startups
👍1
На собеседованиях вас часто могу спросить про real world case. То есть вам нужно рассказать красивую историю, как вы использовали данные, чтобы приносить ценность бизнесу.

Shopify опубликовал хороший обзор про измерение продукта - A Data Scientist’s Guide To Measuring Product Success

Несмотря на то, что здесь упоминается DS, без помощи Data Engineering тут никак не обойтись.

Если вы собеседуетесь, то вам должно быть полезно понять, как лучше рассказывать истории о ваших use cases.
👍2🔥2
У нас давно был запланирован вебинар на тему "Основы венчура + как выйти на рынок Северной Америки". Я просил своего знакомого рассказать про "кухню" венчура, визы для предпринимателей и стартап культуру. Хотелои бы вы такой вебинар или нет?
Anonymous Poll
26%
Было бы интересно посмотреть вебинар в режиме трансляции и задать вопросы спикеру.
54%
Было бы интересно посмотреть сразу запись без трансляции.
8%
Мне не до вебинаров и дата новостей, отписка.
12%
Свой вариант (пока можно оставить при себе).
👍1
Небольшой конспект по python decorators. Я их еще не использую, но планирую применять для логирования трансформация в PySpark. Условно у меня есть функция, которая умеет делать spark.read и другая функция, которая умеет делать spark.write.

Моя задача собирать дополнительную информацию о работе функции - logging. Я хочу знать сколько времени функция работала (timestamp start, timestamp end), сколько строчек я прочитал и сколько строчек записал.

Для этого мне нужно выполнить одни и те же команды перед началом функции и после функции. То есть, как бы обернуть каждую функцию (wrap) в дополнительные команды. Именно это и делает декоратор, и если в коде вы видите @ символ перед функцией, значит кто-то использует декоратор.

Вот материалы по python decorator:
Python Decorators in 15 Minutes - прям офигенно.
Python Next Steps: Functions, Parameters, Closures, & Decorators - O'Reilly workshop, возможно можно найти запись.
Primer on Python Decorators - примеры, чтобы воспроизвести
Python Decorators - еще примеры
Видео на русском.

А вот реальные кейсы использования и примеры:
5 reasons you need to learn to write Python decorators - статья от O'Reilly
What are some common uses for Python decorators? - наш любимый stackoverflow

Мой PDF ниже
👇👇👇
👍3
Аналитическое решение уже давно превратилось в Дата Продукт. Команды которые относятся к своему решению как к продукту, добавляют в него новые фичи, изучают гипотезы и применяют новый опыт достигают бОльших успехов. Уже не солидно иметь в команде Project Manager, нужно, чтобы был Product Manager, и зарплата у человека соответствующая.

Статья про продуктовый подход в решениях аналитики - The Data-Informed Product Cycle

Most teams jump from high level strategy/goals straight to feature ideas (w/ "success metrics") The most successful teams
1. Have a strategy
2. Translate that into models
3. Add minimally viable measurement
4. Identify leverage points
5. Explore options
6. Run experiments
Сейчас самый актуальный вопрос это какие аналоги использовать для аналитических решений - open source или отечественные. И тут каждый решает для себя сам, точнее за вас решат в компании в 99% случаев.

Возможно это отличная возможность для отечественных компаний получить необходимые инвестиции и улучшить их продукт. Одно понятно, что любимчики Tableau, Snowflake, Databricks и другие, теперь будет сложней заполучить. (или невозможно)

Возможно это отличная возможность разобраться в дебрях аналитических решений и закодить все на open source.

Если в начале карьеры вам платят за знание инструмента, например вы можете знать Power Query но не понимать, что такое BI, ETL, DW, BigData. Условно вы знаете функционал продукта и можете из пункта А добраться в пункт Б. То со временем, для вас становится более важные не сам инструмент, а фундаментальные подходы для построения решений. Например, если вы знаете Tabelau и понимаете, что такое BI и какие преимущества может получить бизнес от аналитики, то вы можете уже показывать результат и без Tableau. Из минусов это ваш персональный experience работы с BI инструментом.

Вместо Tabelau можно рассмотреть любой другой инструмент аналитического стека. В независимости от санкций данные никуда не пропадут, возможно поменяются источники или структура, но данные будут и кто-то их должен анализировать, собирать и хранить.

Зато теперь не надо ломать голову, что учить Power BI или Tableau, AWS или Azure, Redshift или Snowflake, Databricks или Dremio. Но не стоит пренебрегать этими решениями, так как подходы и best practices для построения решений всегда хорошо подсмотреть у вендоров.

SQL будет так же ценен, как и раньше. И даже еще более ценен.

Если раньше Python был необходим для более продвинутых задач, то теперь он может стать очень важным элементов аналитического решения. На нем можно делать что угодно и как угодно.

PS ну или начинать учить китайские решения для аналитики🏮
👍10