Arguments made with data are celebrated as unimpeachable level-minded science; arguments without it are the shrill opinions of a hysteric. Walk into a conversation without a supporting graph, and you’re hit with a Goodread link to W. Edwards Deming quotes: “Without data, you’re just another person with an opinion.” “In God we trust; all others must bring data.”
Power BI Guide.pdf
8 MB
Power BI
for Intermediates
A step-by-step training guide - 80 страниц
for Intermediates
A step-by-step training guide - 80 страниц
SQL Cheatsheet.pdf
3.5 MB
It's designed to give you a meaningful structure but also to let you add your own
notes (that's why the empty boxes are there). It starts from the absolute basics
(SELECT * FROM table_name;) and guides you to the intermediate level (JOIN,
HAVING, subqueries). I added everything that you will need as a data analyst/
scientist.
The ideal use case of this cheat sheet is that you print it in color and keep it next to
you while you are learning and practicing SQL on your computer.
notes (that's why the empty boxes are there). It starts from the absolute basics
(SELECT * FROM table_name;) and guides you to the intermediate level (JOIN,
HAVING, subqueries). I added everything that you will need as a data analyst/
scientist.
The ideal use case of this cheat sheet is that you print it in color and keep it next to
you while you are learning and practicing SQL on your computer.
Introducing our three roles in Data & Insight at Oda
"In this post we will introduce why Oda chose exactly these three roles in our Data & Insight discipline, along with how we define them and what sets them apart. In following posts we will go into more specifics about those roles, straight from the mouth of the people who do the job, some of our Data Analysts, Data Engineers and Data Scientists."
https://medium.com/oda-product-tech/introducing-our-three-roles-in-data-insight-at-oda-7a8878182106
"In this post we will introduce why Oda chose exactly these three roles in our Data & Insight discipline, along with how we define them and what sets them apart. In following posts we will go into more specifics about those roles, straight from the mouth of the people who do the job, some of our Data Analysts, Data Engineers and Data Scientists."
https://medium.com/oda-product-tech/introducing-our-three-roles-in-data-insight-at-oda-7a8878182106
Forwarded from Reveal the Data
29 сентября пройдёт Tableau Day для русскоязычного комьюнити. Отличные спикеры и доклады, советую сходить!
— Что нового в бизнесе Tableau | Алексей Пинчук;
— История успеха Tinkoff | Артем Давтян;
— Новые возможности Tableau | Ольга Колчева;
— История успеха Sibur | Андрей Телятник;
— В чем польза Data Management Add-ons | Ольга Колчева;
— История успеха Delivery Club | Андрей Cухань;
— История успеха Wargaming | Дарья Рудых, Дмитрий Шмуриев;
— Великий самообман Self-Service BI | Александр Бараков.
#ссылка
— Что нового в бизнесе Tableau | Алексей Пинчук;
— История успеха Tinkoff | Артем Давтян;
— Новые возможности Tableau | Ольга Колчева;
— История успеха Sibur | Андрей Телятник;
— В чем польза Data Management Add-ons | Ольга Колчева;
— История успеха Delivery Club | Андрей Cухань;
— История успеха Wargaming | Дарья Рудых, Дмитрий Шмуриев;
— Великий самообман Self-Service BI | Александр Бараков.
#ссылка
👍1
В этом году уже 20 лет как нет башен близнецов. Одна из самых больших трагедий в США. Интересный вопрос. Как вы считаете:
Anonymous Poll
67%
Башни близнецы были разрушены в результате атаки террористов, которые врезались в башни.
27%
Башни были разрушены изнутри, взорвали металлические перекрытия и акция была спланирована в США.
6%
Ваш вариант
Azure выпустила новый инструмент для бизнес глоссария и дата каталога - Azure Purview. Я им обязательно воспользуюсь для моего Delta Lake (Hive Metastore). 28 сентября вы можете узнать про этот продукт - Achieve unified data governance with Azure Purview
Отличная вакансия в компанию MARS - Website & CRM manager (описание и требования по ссылке).
Website & CRM manager will be a key part of the journey to next generation brand building with the aim with the aim to transform the way we connect with the pet parents and build relationships with them at the heart of everything we do.
This role will be a key part of Mars Pet Nutrition’s Digital Data marketing transformation and will be responsible for managing brand-owned digital experiences in Russia, for all BDB brands. This role will manage the execution of brand Digital Ecosystem strategies, across websites, CRM, organic search/SEO and content.
This role must roll out scalable solutions, optimizations, best practices and frequent learnings to advance Mars Pet Nutrition’s owned digital efforts.
Website & CRM manager will be a key part of the journey to next generation brand building with the aim with the aim to transform the way we connect with the pet parents and build relationships with them at the heart of everything we do.
This role will be a key part of Mars Pet Nutrition’s Digital Data marketing transformation and will be responsible for managing brand-owned digital experiences in Russia, for all BDB brands. This role will manage the execution of brand Digital Ecosystem strategies, across websites, CRM, organic search/SEO and content.
This role must roll out scalable solutions, optimizations, best practices and frequent learnings to advance Mars Pet Nutrition’s owned digital efforts.
Отличный заголовок - Go collect some $#*(&% data ( в посту простая идея, если хочешь быть data scientist - иди набери даты))
Counting Stuff
Go collect some $#*(&% data
You need to. Seriously.
Интерсная заметка про data mesh, мне стало немного понятней, когд а на пальцах описали:
Force me to describe how a data mesh might actually work, and my immediate thought is something like Trino (née Presto): It’s a query wrapper that sits on top of a bunch of data sources.
This seems to be the community’s best guess for well. But as Ross Housewright points out, this is an uninspiring answer. If the data mesh works with any underlying data structure (e.g., it can sit on top of BigQuery, Oracle, S3, and every weird thing in between), it doesn’t integrate anything. It’s just a switchboard, routing queries to different destinations.
If the data mesh does requires data sources to be heavily standardized (e.g., each data source is a Snowflake database configured in a particular way), the data mesh doesn’t do anything. It’s just another layer of organization above the database schema. Presto, in fact, already does exactly this.
In both cases, the data mesh fails to help people consuming data—the people for whom all of this effort is supposedly for.
Вообще это из статьи про Data OS, где автор рассуждает о куче несвязанных инструментов, где есть vendor lock, и как не хватает операционной системы, как например, Андроид, где уживаются разные приложения.
Force me to describe how a data mesh might actually work, and my immediate thought is something like Trino (née Presto): It’s a query wrapper that sits on top of a bunch of data sources.
This seems to be the community’s best guess for well. But as Ross Housewright points out, this is an uninspiring answer. If the data mesh works with any underlying data structure (e.g., it can sit on top of BigQuery, Oracle, S3, and every weird thing in between), it doesn’t integrate anything. It’s just a switchboard, routing queries to different destinations.
If the data mesh does requires data sources to be heavily standardized (e.g., each data source is a Snowflake database configured in a particular way), the data mesh doesn’t do anything. It’s just another layer of organization above the database schema. Presto, in fact, already does exactly this.
In both cases, the data mesh fails to help people consuming data—the people for whom all of this effort is supposedly for.
Вообще это из статьи про Data OS, где автор рассуждает о куче несвязанных инструментов, где есть vendor lock, и как не хватает операционной системы, как например, Андроид, где уживаются разные приложения.
benn.substack
The data OS
Decentralization is overrated.
Недавно был шикарный вебинар про Data Vault от Николая, где он все подробно объяснил. Итого, у нас есть 3 основные методологии:
- 3NF
- Dimensional Modelling
- Data Vault
Так же Николай рассказывал мельком про Anchor modelling (4ая методология) - Vertica+Anchor Modeling (его статья на хабр из Авито)
А недавно мне попалась еще одна вещь из мира моделирования хранилищ - Activity Schema.
The activity schema is a new data modeling paradigm designed for modern data warehouses. It was created and implemented by Ahmed Elsamadisi at Narrator.
This new standard is a response to the current state of modeling with star or snowflake schemas - multiple definitions for single concepts, layers of dependencies, foreign key joins, and extremely complex SQL definitions. It is designed to make data modeling substantially simpler, faster, and more reliable than existing methodologies.
The activity schema aims for these design goals
- only one definition for each concept - know exactly where to find the right data
- single model layer - no layers of dependencies
- simple definitions - no thousand-line SQL queries to model data
- no relationships in the modeling layer - all concepts are defined - independently of each other
- no foreign key joins - all concepts can be joined together without having to identify how they relate in advance
- analyses can be run anywhere — analyses can be shared and reused - across companies with vastly different data.
- high performance - reduced joins and fewer columns leverage the power of modern column-oriented data warehouses
- incremental updates - no more rebuilding data models on every update
At its core an activity schema consists of transforming raw tables into a single, time series table called an activity stream. All downstream plots, tables, materialized views, etc used for BI are built directly from that single table, with no other dependencies.
- 3NF
- Dimensional Modelling
- Data Vault
Так же Николай рассказывал мельком про Anchor modelling (4ая методология) - Vertica+Anchor Modeling (его статья на хабр из Авито)
А недавно мне попалась еще одна вещь из мира моделирования хранилищ - Activity Schema.
The activity schema is a new data modeling paradigm designed for modern data warehouses. It was created and implemented by Ahmed Elsamadisi at Narrator.
This new standard is a response to the current state of modeling with star or snowflake schemas - multiple definitions for single concepts, layers of dependencies, foreign key joins, and extremely complex SQL definitions. It is designed to make data modeling substantially simpler, faster, and more reliable than existing methodologies.
The activity schema aims for these design goals
- only one definition for each concept - know exactly where to find the right data
- single model layer - no layers of dependencies
- simple definitions - no thousand-line SQL queries to model data
- no relationships in the modeling layer - all concepts are defined - independently of each other
- no foreign key joins - all concepts can be joined together without having to identify how they relate in advance
- analyses can be run anywhere — analyses can be shared and reused - across companies with vastly different data.
- high performance - reduced joins and fewer columns leverage the power of modern column-oriented data warehouses
- incremental updates - no more rebuilding data models on every update
At its core an activity schema consists of transforming raw tables into a single, time series table called an activity stream. All downstream plots, tables, materialized views, etc used for BI are built directly from that single table, with no other dependencies.
#вакансия #fulltime #продуктовыйаналитик #удаленка #офис
Привет! Ищем продуктового аналитика (Junior+ — Middle) в компанию Академия Eduson.
💴 ЗП: до 150 000 рублей на руки.
Полная занятость, удаленная работа (офис в г.Москва, м. Автозаводская, БЦ Омега Плаза.
Мы ищем аналитика, который сможет покрыть дашбордами весь маркетинг, продажи и операционку Академии, построить предиктивные модели и будет проводить количественные исследования в продукте. У нас настроена аналитическая инфраструктура, так что сейчас дело за содержанием.
Задачи:
— Вместе с архитектором определять требования к системе сбора аналитических данных;
— Настроить панели мониторинга, которые помогут команде следить за успехами и проблемами бизнеса;
— Делать понятные отчеты для команды и структурировать их так, чтобы с их помощью принимались правильные продуктовые решения;
— Предлагать продуктовые гипотезы и тесты исходя из собранных данных;
— Разрабатывать предиктивные модели для скоринга лидов;
— Проектировать, запускать и интерпретировать A/B-тесты;
— С ростом команды — собирать и вести команду аналитиков.
Ожидания:
— Опыт работы с продуктовыми данными от 1 года;
Понимание продуктовых метрик;
— Крепкая теоретическая база: математика, статистика, методологии А/В-тестирования;
— Уверенное знание хотя бы одного инструмента визуализации аналитических данных;
— Понимание принципов работы сквозной аналитики (из трафика в оказанную услугу);
— Умение писать сложные SQL-запросы;
Будет большим плюсом:
1) опыт программирования;
2) владение Python / R / Matlab;
3) PowerBI / Tableau / Periscop.
Условия:
— оформления по ТК РФ;
— работа в офисе в Москве или удаленно, гибкий график;
— повышение квалификации за счет компании.
Рекомендации и отклики буду ждать в личных сообщениях: @as_sheveleva
PS Объявление поддержало фонд всевсевместе.
Привет! Ищем продуктового аналитика (Junior+ — Middle) в компанию Академия Eduson.
💴 ЗП: до 150 000 рублей на руки.
Полная занятость, удаленная работа (офис в г.Москва, м. Автозаводская, БЦ Омега Плаза.
Мы ищем аналитика, который сможет покрыть дашбордами весь маркетинг, продажи и операционку Академии, построить предиктивные модели и будет проводить количественные исследования в продукте. У нас настроена аналитическая инфраструктура, так что сейчас дело за содержанием.
Задачи:
— Вместе с архитектором определять требования к системе сбора аналитических данных;
— Настроить панели мониторинга, которые помогут команде следить за успехами и проблемами бизнеса;
— Делать понятные отчеты для команды и структурировать их так, чтобы с их помощью принимались правильные продуктовые решения;
— Предлагать продуктовые гипотезы и тесты исходя из собранных данных;
— Разрабатывать предиктивные модели для скоринга лидов;
— Проектировать, запускать и интерпретировать A/B-тесты;
— С ростом команды — собирать и вести команду аналитиков.
Ожидания:
— Опыт работы с продуктовыми данными от 1 года;
Понимание продуктовых метрик;
— Крепкая теоретическая база: математика, статистика, методологии А/В-тестирования;
— Уверенное знание хотя бы одного инструмента визуализации аналитических данных;
— Понимание принципов работы сквозной аналитики (из трафика в оказанную услугу);
— Умение писать сложные SQL-запросы;
Будет большим плюсом:
1) опыт программирования;
2) владение Python / R / Matlab;
3) PowerBI / Tableau / Periscop.
Условия:
— оформления по ТК РФ;
— работа в офисе в Москве или удаленно, гибкий график;
— повышение квалификации за счет компании.
Рекомендации и отклики буду ждать в личных сообщениях: @as_sheveleva
PS Объявление поддержало фонд всевсевместе.
Сегодня (у вас наверно завтра) будет что-то интересное - Space Launch - First ever all private citizen orbital mission launch.
SpaceX will launch four private astronauts on the first free flight mission of Crew Dragon on Inspiration4. The Falcon 9 B1062-3 will launch Crew Dragon C207-2 into a 590 km low-Earth orbit; this will mark the highest orbit a crewed mission has gone to since the STS-103 mission in 1999. The Inspiration4 mission will launch from Launch Complex 39A (LC-39A), at the Kennedy Space Center, in Florida, USA.
Так как я начинал свою карьеру в ГКНПЦ им Хруничева (провел там 3 года), это они запускаю Протон и в школе ходил в Дворец Пионеров на м Университет, где занимался ракетомоделизмом, то всегда интересно следить за индустрией космоса. Дата инженеров пока SpaceX и BlueOrigin не берут)
SpaceX will launch four private astronauts on the first free flight mission of Crew Dragon on Inspiration4. The Falcon 9 B1062-3 will launch Crew Dragon C207-2 into a 590 km low-Earth orbit; this will mark the highest orbit a crewed mission has gone to since the STS-103 mission in 1999. The Inspiration4 mission will launch from Launch Complex 39A (LC-39A), at the Kennedy Space Center, in Florida, USA.
Так как я начинал свою карьеру в ГКНПЦ им Хруничева (провел там 3 года), это они запускаю Протон и в школе ходил в Дворец Пионеров на м Университет, где занимался ракетомоделизмом, то всегда интересно следить за индустрией космоса. Дата инженеров пока SpaceX и BlueOrigin не берут)
Everyday Astronaut
Inspiration4 | Falcon 9 Block 5
SpaceX will launch the Inspiration4 mission, paid for by Jared Isaacman, to a 590 km LEO on the first ever all private orbital mission.
Не часто вижу, как кого-то наказывают (компанию, продукт) за ложные обещания, особенно за данные. Я работал давно с AppAnnie, и вроде популярный иснтрумент, и денег у них должно хватать, но они решили "под шумок" обманывать клиентов и разработчиков. Кто там разберет, как эти данные, модели и алгоритмы работают.
From 2014 to 2018, that data had a little extra (and apparently untoward) spice added to it—non-aggregated and non-anonymized data provided to App Annie by different mobile developers. This was a two-way deception. The company told developers who provided user data to App Annie that said data would be anonymized and aggregated before analytics were presented to customers.
Customers in turn were told that the data they were analyzing was derived from App Annie’s statistical models and analysis. It was buoyed by that non-anonymized, non-aggregated data.
В общем 10млн штрафа. Я уверен таких компаний очень много.
From 2014 to 2018, that data had a little extra (and apparently untoward) spice added to it—non-aggregated and non-anonymized data provided to App Annie by different mobile developers. This was a two-way deception. The company told developers who provided user data to App Annie that said data would be anonymized and aggregated before analytics were presented to customers.
Customers in turn were told that the data they were analyzing was derived from App Annie’s statistical models and analysis. It was buoyed by that non-anonymized, non-aggregated data.
В общем 10млн штрафа. Я уверен таких компаний очень много.
Game Developer
SEC hits App Annie with a $10m fine for securities fraud
The SEC has fined mobile analytics firm App Annie for $10 million, alleging that the company engaged in deceptive practices about how its data was derived.
Forwarded from LEFT JOIN
Конференция по современному open-source data stack в онлайне: пройдет 28-30 сентября. Можно зарегистрироваться на сайте.
Opensourcedatastack
Open Source Data Stack
Building the modern stack with open source data solutions.