Forwarded from Alexandra
Приглашаем на бесплатный онлайн-митап Microsoft. Тема — «Microsoft Virtual Training Day: основы Power Platform».
9 февраля в 12.00 (МСК)
За 2,5 часа вы узнаете, как:
> создавать многофункциональные приложения;
> анализировать бизнес-производительность в режиме реального времени;
> анализировать данные и автоматизировать рабочие процессы для максимальной эффективности;
> использовать Dataverse для безопасного хранения данных и управления ими.
Вебинар впервые пройдёт на русском языке!
Зарегистрироваться можно уже сейчас: https://bit.ly/35HQHAh
Количество мест ограничено!
9 февраля в 12.00 (МСК)
За 2,5 часа вы узнаете, как:
> создавать многофункциональные приложения;
> анализировать бизнес-производительность в режиме реального времени;
> анализировать данные и автоматизировать рабочие процессы для максимальной эффективности;
> использовать Dataverse для безопасного хранения данных и управления ими.
Вебинар впервые пройдёт на русском языке!
Зарегистрироваться можно уже сейчас: https://bit.ly/35HQHAh
Количество мест ограничено!
👍7😢1
Forwarded from ✨swiftness
#Spark #Streaming #BigData #Structured
Spark Structured Streaming - это масштабируемый и отказоустойчивый механизм потоковой обработки данных на основе движка SparkSQL (см.
По итогу мы можем работать со стандартным инструментарием SQL-запросов через DataFrame API или операции Scala в DataSet API, чем Spark Structured отличается от Spark Streaming. Ключевая идея структурированной потоковой передачи состоит в том, чтобы обрабатывать поток данных в режиме реального времени как таблицу, которая постоянно обновляется - добавляются новые записи.
Эта неограниченная по глубине таблица продолжает увеличиваться по мере поступления новых данных и непрерывно обрабатывается с помощью долго выполняющегося запроса. Результаты обработки записываются в выходную таблицу. Каждый интервал триггера (скажем, каждую секунду) к входной таблице добавляются новые строки, которые в конечном итоге обновляют таблицу результатов (выходную таблицу).
На вход Spark Structured Streaming принимает файлы или данные из Kafka. Вывод данных определяет то, что именно будет записано во внешнее хранилище. Существует несколько режимов в Spark Structured Streaming:
⚙️ Режим добавления: во внешнее хранилище будут записаны только новые строки, добавленные в таблицу результатов с момента последнего триггера. Это применимо только к запросам, в которых не предполагается изменение существующих строк в таблице результатов.
⚙️ Режим обновления: во внешнее хранилище будут записываться только те строки, которые были обновлены в таблице результатов с момента последнего триггера.
⚙️ Полный режим: вся обновленная таблица результатов будет записана во внешнее хранилище. Storage Connector должен решить, как обрабатывать запись всей таблицы.
Какие же основные достоинства у этого механизма по сравнению с обычным Spark Streaming?
📍Мы используем DataFrame/DataSet вместо RDD, что обеспечивает более высокий уровень абстракции и позволяет гибко манипулировать данными, включая поддержку всех этапов оптимизации SQL-запросов
📍Начиная со Spark 2.3, в Spark Structured Streaming вместо микропакетной обработки поддерживается непрерывная, которая работает с минимальной задержкой (до 1 миллисекунды), что существенно ускоряет обработку данных.
📍Повысилась надежность и отказоустойчивость за счет условий восстановления после любой (!) ошибки - например, через воспроизводимость источника данных в случае сбоя.
📍Обработка времени события - времени, когда событие действительно (вне Spark) произошло. Это позволяет повысить точность вычислений и обработать события, которые пришли в Spark с опозданием.
Таким образом, для полноценной отказоустойчивой потоковой обработки, на мой взгляд, лучше использовать Spark Structured Streaming.
Spark Structured Streaming - это масштабируемый и отказоустойчивый механизм потоковой обработки данных на основе движка SparkSQL (см.
официальную документацию Spark). Движок Spark SQL заботится о том, чтобы поток данных обрабатывался постепенно и непрерывно, обновляя конечный результат по мере поступления новых потоковых данных. По итогу мы можем работать со стандартным инструментарием SQL-запросов через DataFrame API или операции Scala в DataSet API, чем Spark Structured отличается от Spark Streaming. Ключевая идея структурированной потоковой передачи состоит в том, чтобы обрабатывать поток данных в режиме реального времени как таблицу, которая постоянно обновляется - добавляются новые записи.
Эта неограниченная по глубине таблица продолжает увеличиваться по мере поступления новых данных и непрерывно обрабатывается с помощью долго выполняющегося запроса. Результаты обработки записываются в выходную таблицу. Каждый интервал триггера (скажем, каждую секунду) к входной таблице добавляются новые строки, которые в конечном итоге обновляют таблицу результатов (выходную таблицу).
На вход Spark Structured Streaming принимает файлы или данные из Kafka. Вывод данных определяет то, что именно будет записано во внешнее хранилище. Существует несколько режимов в Spark Structured Streaming:
⚙️ Режим добавления: во внешнее хранилище будут записаны только новые строки, добавленные в таблицу результатов с момента последнего триггера. Это применимо только к запросам, в которых не предполагается изменение существующих строк в таблице результатов.
⚙️ Режим обновления: во внешнее хранилище будут записываться только те строки, которые были обновлены в таблице результатов с момента последнего триггера.
⚙️ Полный режим: вся обновленная таблица результатов будет записана во внешнее хранилище. Storage Connector должен решить, как обрабатывать запись всей таблицы.
Какие же основные достоинства у этого механизма по сравнению с обычным Spark Streaming?
📍Мы используем DataFrame/DataSet вместо RDD, что обеспечивает более высокий уровень абстракции и позволяет гибко манипулировать данными, включая поддержку всех этапов оптимизации SQL-запросов
📍Начиная со Spark 2.3, в Spark Structured Streaming вместо микропакетной обработки поддерживается непрерывная, которая работает с минимальной задержкой (до 1 миллисекунды), что существенно ускоряет обработку данных.
📍Повысилась надежность и отказоустойчивость за счет условий восстановления после любой (!) ошибки - например, через воспроизводимость источника данных в случае сбоя.
📍Обработка времени события - времени, когда событие действительно (вне Spark) произошло. Это позволяет повысить точность вычислений и обработать события, которые пришли в Spark с опозданием.
Таким образом, для полноценной отказоустойчивой потоковой обработки, на мой взгляд, лучше использовать Spark Structured Streaming.
👍11
Forwarded from Data Nature 🕊 (Alex Barakov)
TDWI B Maturity Model Poster.png
897.8 KB
Eсть такой известный в узких кругах древний как бивни мамонта постер - Модель BI Зрелости от авторитетных ребят из TDWI. Прошло прилично времени, много BI продуктов родились и умерли, но постер все еще хороший и таки актуальный:
... сейчас кажется 95% компаний прям таки столпились на краю второй пропасти ("chasm") для шага из teenager в adult стадию. В этой точке сходятся кривые гибкости и стандартизованности. Выход - сложные переговоры и консолидация аналитики и BI ландшафта. Где-то в этой же точке происходит переход от Self-Service к Customized Delivery, открывающий перспективу роста для числа casual users в бизнесе. Похоже на правду.
Кажется авторитетные ребята шарят и уже тогда что-то знали..
P.S. Всем BI Зрелости в новом году)🎅 Побольше адекватности и драйва! С наступающим!
Постер в высоком разрешении
🔗 TDWI_BI_Maturity_Model_Poster
#biстратегия
... сейчас кажется 95% компаний прям таки столпились на краю второй пропасти ("chasm") для шага из teenager в adult стадию. В этой точке сходятся кривые гибкости и стандартизованности. Выход - сложные переговоры и консолидация аналитики и BI ландшафта. Где-то в этой же точке происходит переход от Self-Service к Customized Delivery, открывающий перспективу роста для числа casual users в бизнесе. Похоже на правду.
Кажется авторитетные ребята шарят и уже тогда что-то знали..
P.S. Всем BI Зрелости в новом году)🎅 Побольше адекватности и драйва! С наступающим!
Постер в высоком разрешении
🔗 TDWI_BI_Maturity_Model_Poster
#biстратегия
👍6
Пост про подходы проектирования современного озера данных. И есть еще запись от AWS про схожую тему - Modern Data Lake Storage Layers
👍1
Всем привет!
В четверг (10 февраля) в 19:00 по мск вебинар.
Мы познакомимся с платформой по подготовке данных - Alteryx.
Тема: Знакомство с Alteryx на практике.
Чем будем заниматься:
Познакомимся с Alteryx и постараемся понять зачем он вообще нужен за такие-то деньги ($5к Individual User/Year).
За пару минут спарсим ~15 Гб данных и поразмышляем о вине и мифах он нем.
А именно, на основе собранных данных ответим на вопросы:
- Правда ли, что французское вино всегда лучше чилийского
- Действительно ли белое больше подходит к рыбе, а красное к мясу
- Определим всегда ли старое вино лучше молодого
- И есть ли корреляция между ценой на вино и его качеством
Спикер - Георгий Виноградов,
Head of Data Management at Novartis
Контакты спикера:
https://www.linkedin.com/mwlite/in/georgiy-vinogradov-b4208756
@vinogradov_g
Ссылка на вебинар:
https://youtu.be/G5B61Swflf4
Ставьте колокольчик, чтобы не пропустить
В четверг (10 февраля) в 19:00 по мск вебинар.
Мы познакомимся с платформой по подготовке данных - Alteryx.
Тема: Знакомство с Alteryx на практике.
Чем будем заниматься:
Познакомимся с Alteryx и постараемся понять зачем он вообще нужен за такие-то деньги ($5к Individual User/Year).
За пару минут спарсим ~15 Гб данных и поразмышляем о вине и мифах он нем.
А именно, на основе собранных данных ответим на вопросы:
- Правда ли, что французское вино всегда лучше чилийского
- Действительно ли белое больше подходит к рыбе, а красное к мясу
- Определим всегда ли старое вино лучше молодого
- И есть ли корреляция между ценой на вино и его качеством
Спикер - Георгий Виноградов,
Head of Data Management at Novartis
Контакты спикера:
https://www.linkedin.com/mwlite/in/georgiy-vinogradov-b4208756
@vinogradov_g
Ссылка на вебинар:
https://youtu.be/G5B61Swflf4
Ставьте колокольчик, чтобы не пропустить
👍29🔥5
мы слышали много раз про dbt tool, у них большое сообщество и есть конференция Coalesce, следующая будет в 2022 году. Имя на слуху. А что если назвать data компанию coalesce? Удобно же, будет хорошая "органика". И действительно, есть такая компания - coalesce announces 5.82m$ seed funding (reimagine data transformations). Я бы назвал компанию reInvent если че))
Coalesce
Coalesce Emerges from Stealth to Reimagine Data Transformations - Coalesce
Coalesce, the data transformation company, announced its emergence from stealth and the launch of the Coalesce Data Transformation platform.
👍5
Пробило чего-то сегодня на такой вот текст размышления, куда двигаться и в какой индустрии развиваться. https://vc.ru/future/362168-konec-duopolii-ili-kuda-dvizhetsya-tech-industriya
vc.ru
Конец Дуополии или куда движется Tech индустрия — Будущее на vc.ru
Всем привет, я работаю в tech секторе в Северной Америке уже больше 7 лет в FAANMG компаниях. Я слежу за индустрией и всегда интересно смотреть куда движется мир и к чему готовиться. Я решил поделиться своим мнением и узнать ваше, куда мы движимся и кем нам…
🔥16❤3😱2
Личный бренд - нужен или не нужен? А если нужен, с чего начать.
Personal Brand - достаточно популярный термин в корпоративном мире. Его можно делать, а можно не делать. Каждый решает для себя. Личный бренд нельзя создать за месяц, и возможно и года будет мало. Это ваша репутация в индустрии, это ваше имя, которое ассоциируются с чем-то, как правило с вашими заслугами в том, чем вы занимаетесь и в том, что вы любите. Ведь вы должны любить то, что делаете!=)
Я постарался ответить себе на вопросы:
1) что такое личный бренд в моем понимании
2) хорошой бренд = суперстар?
3) помогает ли бренд получить работу?
4) как создать свой бренд?
5) какие преимущества у бренда
6) какие недостатки у личного бренда
7) бренд для РФ или запада?
8) токсичная среда у нас и позитивная за границей. (Хабр, реакция на ошибки)
9) нужно ли вам создавать личный бренд?
Time Codes:
- 0:15 Что такое личный бренд
- 1:36 Создание личного бренда
- 8:40 Создали бренд - что дальше
- 10:50 Создание бренда на Западе и в России
- 13:29 Заключение
Поддержка по звуку: Мак (PhD, NLP Eng.; подкаст Data Coffee)
Personal Brand - достаточно популярный термин в корпоративном мире. Его можно делать, а можно не делать. Каждый решает для себя. Личный бренд нельзя создать за месяц, и возможно и года будет мало. Это ваша репутация в индустрии, это ваше имя, которое ассоциируются с чем-то, как правило с вашими заслугами в том, чем вы занимаетесь и в том, что вы любите. Ведь вы должны любить то, что делаете!=)
Я постарался ответить себе на вопросы:
1) что такое личный бренд в моем понимании
2) хорошой бренд = суперстар?
3) помогает ли бренд получить работу?
4) как создать свой бренд?
5) какие преимущества у бренда
6) какие недостатки у личного бренда
7) бренд для РФ или запада?
8) токсичная среда у нас и позитивная за границей. (Хабр, реакция на ошибки)
9) нужно ли вам создавать личный бренд?
Time Codes:
- 0:15 Что такое личный бренд
- 1:36 Создание личного бренда
- 8:40 Создали бренд - что дальше
- 10:50 Создание бренда на Западе и в России
- 13:29 Заключение
Поддержка по звуку: Мак (PhD, NLP Eng.; подкаст Data Coffee)
Spotify for Creators
Личный бренд - нужен или не нужен? А если нужен, с чего начать. by Инжиниринг Данных и Ко
Personal Brand - достаточно популярный термин в корпоративном мире. Его можно делать, а можно не делать. Каждый решает для себя. Личный бренд нельзя создать за месяц, и возможно и года будет мало. Это ваша репутация в индустрии, это ваше имя, которое ассоциируются…
🔥15👍7🎉1
Вот пример начала создания бренда:
1) в 2013 я сделал абы какой блог, не имея опыта я туда кое как чего то писал. Практиковал английский и мне это давало личной уверенности для собеседований. http://techbusinessintelligence.blogspot.com
2) позже стал выкладывать презенташки https://www.slideshare.net/dimoobraznii
и все какие были переводил на английский, уверенности стало в 2 раза больше🤣
Поэтому делайте что хотите и как хотите, это все пойдет на пользу в long term.
1) в 2013 я сделал абы какой блог, не имея опыта я туда кое как чего то писал. Практиковал английский и мне это давало личной уверенности для собеседований. http://techbusinessintelligence.blogspot.com
2) позже стал выкладывать презенташки https://www.slideshare.net/dimoobraznii
и все какие были переводил на английский, уверенности стало в 2 раза больше🤣
Поэтому делайте что хотите и как хотите, это все пойдет на пользу в long term.
Blogspot
techBI
This blog consist of useful staff around Business Intelligence, Data Discovery, Operational Intelligence, Digital Intelligence, DWH, ETL, BigData, Data Science and Data Engineering.
👍25
Мне пришла идея про data learn на английском, чтобы было не скучно. Я веду еще один канал про Xbox новости и игры, и последний пост у меня был про Unreal Engine и MetaHuman. И я понял, что было бы круто сделать datalearn в metaverse.
Ну начать сначала просто с meta персонажа, который будет копировать мою мимику и просто грузить результат на youtube. У меня всеравно стоит без дела самый навороченный PC для Game Dev и мы работаем на Unreal Engine 5 в области добавление ML и автоматизации элементов game dev. Но это скучно, а вот сделать по фану курс в таком формате будет огонь, но придется вложиться в оборудование. Может кому интересен такой концепт запилить DataLearn для всего мира в формате сериала Netflix (Любовь. Смерть. Роботы).
Я обязательно поковыряюсь в этом и спрошу коллег, чтобы прислать привет и метавселенной))
Ну начать сначала просто с meta персонажа, который будет копировать мою мимику и просто грузить результат на youtube. У меня всеравно стоит без дела самый навороченный PC для Game Dev и мы работаем на Unreal Engine 5 в области добавление ML и автоматизации элементов game dev. Но это скучно, а вот сделать по фану курс в таком формате будет огонь, но придется вложиться в оборудование. Может кому интересен такой концепт запилить DataLearn для всего мира в формате сериала Netflix (Любовь. Смерть. Роботы).
Я обязательно поковыряюсь в этом и спрошу коллег, чтобы прислать привет и метавселенной))
Telegram
Xbox fans - новости Xbox и Microsoft Gaming
Unreal Engine 5 выпустил MetaHuman, скоро игры будут еще реалистичный!
🔥11👍7
https://youtu.be/G5B61Swflf4
мы начинаем
мы начинаем
YouTube
ЗНАКОМСТВО С ALTERYX НА ПРАКТИКЕ И ЗАЧЕМ ОН НУЖЕН / ГЕОРГИЙ ВИНОГРАДОВ
Чем будем заниматься:
Познакомимся с Alteryx и постараемся понять зачем он вообще нужен за такие-то деньги ($5к Individual User/Year).
За пару минут спарсим ~15 Гб данных и поразмышляем о вине и мифах он нем.
А именно, на основе собранных данных ответим…
Познакомимся с Alteryx и постараемся понять зачем он вообще нужен за такие-то деньги ($5к Individual User/Year).
За пару минут спарсим ~15 Гб данных и поразмышляем о вине и мифах он нем.
А именно, на основе собранных данных ответим…
❤4🔥3👍2
Python_Packages_and_Environments.pdf
675.1 KB
Я смог пройти вот этот курс - Managing Python Packages and Virtual Environments и задокументировал его.
🔥24👍13
Data Engineer New(2).pdf
783.3 KB
Попался документ "WHAT DOES A DATA ENGINEER DO AT AMAZON" и чего ждать на интервью.
👍6🔥4❤1
Какие темы обсудить в подкасте?
У меня есть пару идей:
1) про выгорание, что это такое и как справляться
2) про MBA и аспирантуру и пользу в карьере
3) как первую написать книгу
Напишите что ещё интересно. Подкасты это быстро и удобно! Пока в пробке стоишь, записал🤗 правда у нас нет пробок!🤣
У меня есть пару идей:
1) про выгорание, что это такое и как справляться
2) про MBA и аспирантуру и пользу в карьере
3) как первую написать книгу
Напишите что ещё интересно. Подкасты это быстро и удобно! Пока в пробке стоишь, записал🤗 правда у нас нет пробок!🤣
😁9
Мы знаем, что есть ETL, а еще есть ELT. Когда я спрашиваю на собседованиях, в чем разница между ETL и ELT, а так же MPP и SMP (второе редко кто отвечает, даже если работали с MPP), мои руководители, спрашивают меня, зачем я это спрашиваю. Мне это важно, потому что показывает кругозор кандидата, это не вопрос про "почему люк круглый" или "сколько беременных женщин проезжает за день в московском метро".
На самом дела я хотел написать про Meta ETL. И это очень хороший подход, который позволяет избежать Copy-Paste ваших pipelines, jobs, transformations and so on.
Как раз такой мы и используем на Azure Data Factory. Весь ETL создан в Visual Studio на C#, за это можно поставить памятник моему коллеге, все это дело подвязано на Azure DevOps, и происходит Deploy на Dev/Prod. Это чистой воды Software Engineering проект, который делает ETL. Ничего сложней я не видел. Я уже профессионально овладел навыком Copy/Paste кусочков C# для создания нового pipeline. Я прям горд за себя!😊
Допустим, я сделал новы Databricks Notebook, который:
1. Берет файлы (spark.read) и создает data frame
2. Дальше я могу менять data frame используя Pyspark сколько душе угодно
3. Записываю финальный data frame в таблицу (spark.write). Обычно добавляю партицию (заменяю). Но с Delta Lake можно позволить себе MERGE операцию.
Для каждой таблицы у меня отдельный notebook. Операция 1 и 3 унифицированы (обычная функция Python, которая на вход берет ряд параметром **read_parameters или **write_parameters в dictionary), а 2 это уникальный элемент для каждой таблицы.
Теперь, чтобы поставить это дело на расписание, я беру Azure Data Factory (вместо Databricks Jobs, Live Delta Tables) и создаю новый Pipeline (Copy Paste C# кусок и изменяю его). И все готово.
А если у меня 100 таблиц? Это значит без C# надо укликаться в ADF UI, чтобы все создать. С C# легче, просто копируем себе, а потом выстраиваем в одну большую очередь (назовем это Hand Made DAG). И запускаем.
Это все было не Meta ETL. А теперь подход Meta. Я создаю 1 pipeline в котором есть несколько циклов (Stages). Потом беру, например Azure SQL бд, в ней создаю таблицу - ETL_CONFIG и набор колонок. 1 строчка = 1 таблица (job, notebook). Идея в том, что мой единственный Pipeline будет запускать цикл (или несколько циклов) и на вход брать название таблицы.
То есть, я могу сделать один ETL job (даже в томже Airflow), который будет выполнять мои Databricks Notebooks по очереди с соблюдение зависимостей и приоритетов.
Нужно добавить новую таблицу? Легко, делаю новый notebook в Databricks и добавляю новую строчку в Azure SQL и все. Visual Studio даже открывать не надо (эх забуду свои навыки в C#🤔).
И тут я уже ограничен только фантазией, я могу так же сделать всего 1 Notebook вместо 100 (сейчас 1 таблица = 1 notebook), и так же передавать параметры и гонять его покругу.
Вот кстати статья про это.
Я бы хотел сделать такой проектик в модуле 7, но нужны руки:)
На самом дела я хотел написать про Meta ETL. И это очень хороший подход, который позволяет избежать Copy-Paste ваших pipelines, jobs, transformations and so on.
Как раз такой мы и используем на Azure Data Factory. Весь ETL создан в Visual Studio на C#, за это можно поставить памятник моему коллеге, все это дело подвязано на Azure DevOps, и происходит Deploy на Dev/Prod. Это чистой воды Software Engineering проект, который делает ETL. Ничего сложней я не видел. Я уже профессионально овладел навыком Copy/Paste кусочков C# для создания нового pipeline. Я прям горд за себя!😊
Допустим, я сделал новы Databricks Notebook, который:
1. Берет файлы (spark.read) и создает data frame
2. Дальше я могу менять data frame используя Pyspark сколько душе угодно
3. Записываю финальный data frame в таблицу (spark.write). Обычно добавляю партицию (заменяю). Но с Delta Lake можно позволить себе MERGE операцию.
Для каждой таблицы у меня отдельный notebook. Операция 1 и 3 унифицированы (обычная функция Python, которая на вход берет ряд параметром **read_parameters или **write_parameters в dictionary), а 2 это уникальный элемент для каждой таблицы.
Теперь, чтобы поставить это дело на расписание, я беру Azure Data Factory (вместо Databricks Jobs, Live Delta Tables) и создаю новый Pipeline (Copy Paste C# кусок и изменяю его). И все готово.
А если у меня 100 таблиц? Это значит без C# надо укликаться в ADF UI, чтобы все создать. С C# легче, просто копируем себе, а потом выстраиваем в одну большую очередь (назовем это Hand Made DAG). И запускаем.
Это все было не Meta ETL. А теперь подход Meta. Я создаю 1 pipeline в котором есть несколько циклов (Stages). Потом беру, например Azure SQL бд, в ней создаю таблицу - ETL_CONFIG и набор колонок. 1 строчка = 1 таблица (job, notebook). Идея в том, что мой единственный Pipeline будет запускать цикл (или несколько циклов) и на вход брать название таблицы.
То есть, я могу сделать один ETL job (даже в томже Airflow), который будет выполнять мои Databricks Notebooks по очереди с соблюдение зависимостей и приоритетов.
Нужно добавить новую таблицу? Легко, делаю новый notebook в Databricks и добавляю новую строчку в Azure SQL и все. Visual Studio даже открывать не надо (эх забуду свои навыки в C#🤔).
И тут я уже ограничен только фантазией, я могу так же сделать всего 1 Notebook вместо 100 (сейчас 1 таблица = 1 notebook), и так же передавать параметры и гонять его покругу.
Вот кстати статья про это.
Я бы хотел сделать такой проектик в модуле 7, но нужны руки:)
Welcome to the Blog of Paul Andrew
Creating a Simple Staged Metadata Driven Processing Framework for Azure Data Factory Pipelines – Part 2 of 4
In this four part blog series I want to share my approach to delivering a metadata driven processing framework in Azure Data Factory. This is very much version 1 of what is possible and where can w…
👍23😢3🔥1🎉1
Давно слежу за дяденькой, он вроде как ветеран в Microsoft и создавал Synapse, а тут свалил в Snowflake. То есть это как понимать, Synapse фигня и нет смысла его использовать или менеджмент в Synapse плохой, что тоже влияет на качество продукта.
Вообще я еще не знаю ни одну компанию кто использует Synapse.
Недавно смотрел внутренний вебинар про Synapse ML - взяли за основу SparkML и накруртили там всего, чего можно. Но где реальные клиенты передовых аналитических инструментов, или они не передовые? Или это dogfood.
Любой человек в Microsoft знает, что это значит (обычно боль и мучение, для людей, которые используют продукт). Народ из Microsoft, попадалась вам “собачья еда”?
Вообще я еще не знаю ни одну компанию кто использует Synapse.
Недавно смотрел внутренний вебинар про Synapse ML - взяли за основу SparkML и накруртили там всего, чего можно. Но где реальные клиенты передовых аналитических инструментов, или они не передовые? Или это dogfood.
Любой человек в Microsoft знает, что это значит (обычно боль и мучение, для людей, которые используют продукт). Народ из Microsoft, попадалась вам “собачья еда”?
👍4