Кстати, у меня есть слайд из моей недавней презентации про рынок Северной Америке. На протяжении последних 8 лет я только и делал, что вечно искал работу, собеседовался и пытался нащупать, где и сколько платят. Все кто мне знает лично, знают, что мой любимый вопрос, а сколько ты получаешь. Именно, чтобы понять как вообще все работает и какие перспективы есть, а может быть их и нет, как на примере Канадского рынка.
Самое интересное, что ЗП в 200-300 в Канаде это реально, если например у вас удаленная работа + фриланс. Но конкуренция дикая, куча народа со всего мира приезжает в Канаду и готовы работатьеду за 50т в год в нашей индустрии.
Поэтому у меня уже есть свой железобетонный рецепт для иммигрантов как быть, что делать и тп, вот его и хочу реализовать в Surfalytics. Так же планирую писать еженедельные отчеты про прогрессу.
🔠 🔠 🔠 🔠 🅰️ 🔠 🔠 🔠 🔠 🔠 🔠
Пока больше все на стадии идей. Но совсем недавно вышел на сообщество аналитиков из LATAM и уже пропиарил им идею, в целом зашло хорошо, но у меня пока нет контента. Так же стал искать на Dribbble крутых content makers, чтобы сделать анимацию, телеграм стикерпак. Заказал еще футболок брендовых. Изучаю про свет для видео или думаю просто нанять профессионального оператора и заснять весь модуль один. Пока я совершаю главную ошибку - много думаю, мало делаю! Вообще же все просто, все что мы захотим и попросим у вселенной - все будет! Надо просто напоминать об этом!😆
Самое интересное, что ЗП в 200-300 в Канаде это реально, если например у вас удаленная работа + фриланс. Но конкуренция дикая, куча народа со всего мира приезжает в Канаду и готовы работать
Поэтому у меня уже есть свой железобетонный рецепт для иммигрантов как быть, что делать и тп, вот его и хочу реализовать в Surfalytics. Так же планирую писать еженедельные отчеты про прогрессу.
Пока больше все на стадии идей. Но совсем недавно вышел на сообщество аналитиков из LATAM и уже пропиарил им идею, в целом зашло хорошо, но у меня пока нет контента. Так же стал искать на Dribbble крутых content makers, чтобы сделать анимацию, телеграм стикерпак. Заказал еще футболок брендовых. Изучаю про свет для видео или думаю просто нанять профессионального оператора и заснять весь модуль один. Пока я совершаю главную ошибку - много думаю, мало делаю! Вообще же все просто, все что мы захотим и попросим у вселенной - все будет! Надо просто напоминать об этом!
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡41🦄11🌚5💯5❤🔥2🍌2🙈2
#weeklydatanewsdump
Самое интересное за последнее время - это оживления рынка - больше вакансий, компании планируют свое IPO, или ожидают поглощения, меньше увольнений и самого страха увольнения, снова инвестиции в data компании.
Единственное, что я не заметил это рост зарплат, хотят должны быть 10% в год к base pay на рынке. Вот работаете год за X, в следующем году у вас будет X+2% (если повезет), а на рынке уже можно просить X+10%-15%, поэтому сидеть на одной работе это упущенная выгода, если вам конечно важна ваша компенсация, так как для многих от "скакунов" появляется презрительная ухмылка. Хотя "скакуны" это двигатель прогресса по части компенсации.
Другой момент - это стоимость рынка акций, в целом есть компании кто вырос сильно, как NVIDEO, но большинство tech и стоки инженеров в глубоком минусе. Придется дальше ждать😲
Кстати, недавно узнал сколько стоит сделать custom sticker park для телеграмма с анимацией - 3к USD 10 штук, 6к USD 20 штук, но это прям мега профессиональные, дорого конечно. Я бы купил и 20, если за меня еще и всю концепцию придумали, а то ведь надо еще и концепцию придумать. Зато можно себя увековечить, почти как памятник поставить, недорого))
💲Давайте еще раз посмотрим на интересные события:
Cisco купил Splunk
Secoda Raises $14M to Save Companies from Drowning in Data
Tabular Closes $26 Million in Funding - интересный продукт и есть Open Source, работает с Iceberg, но я сам еще не попробовал, стоящая штука чтобы изучить. У нас даже со Snowflake планируют использовать для landing zone.
DataBlend Raises Seed Funding Round
Databricks raises over $500 mln at $43 bln valuation - сегодня изучал компании, которые позволяют инвестировать в private компании, кто-нибудь знает хороший сервис?
ThoughtSpot acquires Mode Analytics, a BI platform, for $200M in cash and stock - не пробовал ни один, ни другой, но у Mode классный SQL симулятор.
MotherDuck secures investment from Andreessen Horowitz to commercialize DuckDB - кто-нибудь использует их?
А вот еще отличная бизнес ниша для kaggle чемпионов - As AI porn generators get better, the stakes get higher.
Ладно, давайте ближе ктелу делу.
🐶Zach Wilson - является топ DE influencer. Его посты в linkedin набирают по 300 лайков. Он и курс запустил по DE, где за 1000+ вы можете пройти его самостоятельно, самое интересное, что он сделал сам платформу, где нужно лабу делать. Недавно он написал, что в месяц он получает 50к US, ну что могу сказать, красавчик!
Вот парочка его писем из недавних:
- How to pass data engineering SQL interviews in big tech - все по делу. Знали бы вы сколько раз я провалился на простых SQL вопросах на собесах, реально стыдно. Даже если вы его используете каждый день, некоторые вопросы вас застанут врасплох.
- How to pass the data modeling round in big tech data engineering interviews - на таких вопросах я тоже плыл. На самом деле данный пост не совсем однозначный, например про One Big table я не знаю, зато знаю про Data Vault.
🐼Другой influencer - Seattle Data Guy тоже не молчит, и спамит мой почтовый ящик:
- The Challenges You Will Face When Data Modeling - тоже про моделирование данных. Но все это похоже на плохой пересказ Кимбала. Сколько чувак зарабатывает я не знаю.
Для меня всегда вопрос, что народ делает с баблом. Вот музыкальные блогеры понятно, все на показ, и tech блогеры выглядят, как будто за еду работают😮
- Mistakes I Have Seen When Data Teams Deploy Airflow - мне кажется, что Airflow это инструмент, который все используют, и все ненавидят, потому что ни в одной серьезной организации он не может работать стабильно, по крайней мере я не видел. Лучше cron ничего не придумали еще.
Самое интересное за последнее время - это оживления рынка - больше вакансий, компании планируют свое IPO, или ожидают поглощения, меньше увольнений и самого страха увольнения, снова инвестиции в data компании.
Единственное, что я не заметил это рост зарплат, хотят должны быть 10% в год к base pay на рынке. Вот работаете год за X, в следующем году у вас будет X+2% (если повезет), а на рынке уже можно просить X+10%-15%, поэтому сидеть на одной работе это упущенная выгода, если вам конечно важна ваша компенсация, так как для многих от "скакунов" появляется презрительная ухмылка. Хотя "скакуны" это двигатель прогресса по части компенсации.
Другой момент - это стоимость рынка акций, в целом есть компании кто вырос сильно, как NVIDEO, но большинство tech и стоки инженеров в глубоком минусе. Придется дальше ждать
Кстати, недавно узнал сколько стоит сделать custom sticker park для телеграмма с анимацией - 3к USD 10 штук, 6к USD 20 штук, но это прям мега профессиональные, дорого конечно. Я бы купил и 20, если за меня еще и всю концепцию придумали, а то ведь надо еще и концепцию придумать. Зато можно себя увековечить, почти как памятник поставить, недорого))
💲Давайте еще раз посмотрим на интересные события:
Cisco купил Splunk
Secoda Raises $14M to Save Companies from Drowning in Data
Tabular Closes $26 Million in Funding - интересный продукт и есть Open Source, работает с Iceberg, но я сам еще не попробовал, стоящая штука чтобы изучить. У нас даже со Snowflake планируют использовать для landing zone.
DataBlend Raises Seed Funding Round
Databricks raises over $500 mln at $43 bln valuation - сегодня изучал компании, которые позволяют инвестировать в private компании, кто-нибудь знает хороший сервис?
ThoughtSpot acquires Mode Analytics, a BI platform, for $200M in cash and stock - не пробовал ни один, ни другой, но у Mode классный SQL симулятор.
MotherDuck secures investment from Andreessen Horowitz to commercialize DuckDB - кто-нибудь использует их?
А вот еще отличная бизнес ниша для kaggle чемпионов - As AI porn generators get better, the stakes get higher.
Ладно, давайте ближе к
🐶Zach Wilson - является топ DE influencer. Его посты в linkedin набирают по 300 лайков. Он и курс запустил по DE, где за 1000+ вы можете пройти его самостоятельно, самое интересное, что он сделал сам платформу, где нужно лабу делать. Недавно он написал, что в месяц он получает 50к US, ну что могу сказать, красавчик!
Вот парочка его писем из недавних:
- How to pass data engineering SQL interviews in big tech - все по делу. Знали бы вы сколько раз я провалился на простых SQL вопросах на собесах, реально стыдно. Даже если вы его используете каждый день, некоторые вопросы вас застанут врасплох.
- How to pass the data modeling round in big tech data engineering interviews - на таких вопросах я тоже плыл. На самом деле данный пост не совсем однозначный, например про One Big table я не знаю, зато знаю про Data Vault.
🐼Другой influencer - Seattle Data Guy тоже не молчит, и спамит мой почтовый ящик:
- The Challenges You Will Face When Data Modeling - тоже про моделирование данных. Но все это похоже на плохой пересказ Кимбала. Сколько чувак зарабатывает я не знаю.
Для меня всегда вопрос, что народ делает с баблом. Вот музыкальные блогеры понятно, все на показ, и tech блогеры выглядят, как будто за еду работают
- Mistakes I Have Seen When Data Teams Deploy Airflow - мне кажется, что Airflow это инструмент, который все используют, и все ненавидят, потому что ни в одной серьезной организации он не может работать стабильно, по крайней мере я не видел. Лучше cron ничего не придумали еще.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥16🐳7🌚1👨💻1
🔬Еще есть интересный paper - What Predicts Software Developers’ Productivity?
Organizations have a variety of options to help their software developers become their most productive selves, from modifying office layouts, to investing in better tools, to cleaning up the source code. But which options will have the biggest impact? Drawing from the literature in software engineering and industrial/organizational psychology to identify factors that correlate with productivity, we designed a survey that asked 622 developers across 3 companies about these productivity factors and about self-rated productivity. Our results suggest that the factors that most strongly correlate with self-rated productivity were non-technical factors, such as job enthusiasm, peer support for new ideas, and receiving useful feedback about job performance. Compared to other knowledge workers, our results also suggest that software developers' self-rated productivity is more strongly related to task variety and ability to work remotely.
😯 Последнее время много попадается клиентов у кого есть Databricks. Я всегда думал, что главная проблема в Spark это производительность и всем нужно будет помогать тюнить spark. Оказывается в 70% случаев это проблемы с networking. У Databricks есть опция - Secure Cluster Connectivity (No Public IP), это когда ваш кластер не подключен к интернету. И вам нужно настраивать виртуальную сеть, группы безопасности, firewall... Сами понимаете, что главные пользователи Databricks это инженеры данных, и у них могут быть скудные познания в настройках сети, а документацию читать лень, да она еще не очень user friendly. Так что нужен курс - networking for DE 101. Я кстати уделял этому много внимания в datalearn.
Из личных новостей я продал несколько платных консультаций surfalytics и люди остались более чем довольны. Пока еще в бета режиме
Впервые решил попробовать Apple watch, как раз вышли новые ultra с большой батареей. Задачи у часов 2:
- напоминать про встречи, так как это мой главный косяк, я пропускаю встречу, и некоторых это очень сильно тригерит, типа плохой work ethics.
- другая задача - трекать время активностей - работа, спорт, чтение и тп, использую ATracker, можно будет потом посчитать, сколько вы реально зарабатываете в час, и сколько чистых часов работаете.
PS есть еще важные новости про которые забыл? Присылайте в комментарии.
Organizations have a variety of options to help their software developers become their most productive selves, from modifying office layouts, to investing in better tools, to cleaning up the source code. But which options will have the biggest impact? Drawing from the literature in software engineering and industrial/organizational psychology to identify factors that correlate with productivity, we designed a survey that asked 622 developers across 3 companies about these productivity factors and about self-rated productivity. Our results suggest that the factors that most strongly correlate with self-rated productivity were non-technical factors, such as job enthusiasm, peer support for new ideas, and receiving useful feedback about job performance. Compared to other knowledge workers, our results also suggest that software developers' self-rated productivity is more strongly related to task variety and ability to work remotely.
Из личных новостей я продал несколько платных консультаций surfalytics и люди остались более чем довольны. Пока еще в бета режиме
Впервые решил попробовать Apple watch, как раз вышли новые ultra с большой батареей. Задачи у часов 2:
- напоминать про встречи, так как это мой главный косяк, я пропускаю встречу, и некоторых это очень сильно тригерит, типа плохой work ethics.
- другая задача - трекать время активностей - работа, спорт, чтение и тп, использую ATracker, можно будет потом посчитать, сколько вы реально зарабатываете в час, и сколько чистых часов работаете.
PS есть еще важные новости про которые забыл? Присылайте в комментарии.
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡11❤🔥4🦄3
Forwarded from Тимур Тибеев | BigTechDream
Staff Engineer в Мета с зарплатой $800K ⬆️
Вышла статья инженера Rahul Pandey про то, как он за 4 года вырос из senior до staff инженера (E5 to E6) в Meta и его совокупный доход за последний год достиг более $800K.
Автор в статье делиться опытом каждого года, прочитайте на досуге. Я лишь скопирую самое интересное.
⬅️ Ссылка на оригинальную статью.
https://www.jointaro.com/blog/how-i-became-an-800k-engineer
Вышла статья инженера Rahul Pandey про то, как он за 4 года вырос из senior до staff инженера (E5 to E6) в Meta и его совокупный доход за последний год достиг более $800K.
Автор в статье делиться опытом каждого года, прочитайте на досуге. Я лишь скопирую самое интересное.
● Самый большой скачок в зарплате произошел при переходе от Senior до Staff.● Важно первый год посвятить изучению кода и проекта, даже если очень тяжело. Автор работал 50+ часов в неделю и это дало свои результаты, в следующем году он уже брал тимлидские обязанности. ● Чтобы получить повышение - недостаточно один-два раза на ревью показать результат “выше ожиданий”. Нужно постоянно показывать высокую эффективность, на это может потребоваться время. ● Если планируете расти внутри компании, закладывайте как минимум 2 года. Поэтому важно выбирать правильную компанию, в которой можно несколько лет посвятить своей карьере.● Как только выбрали правильную компанию, можно забыть про литкод и алгоритмы, и не тратить на это время. ● Нужно понимать как работают акции и опционы. Слишком много разработчиков закцикливаются только на зарплате. Автор закрыл 2021 год с доходом в 800 тысяч долларов в Meta, и почти 600 тысяч долларов из них составили акции компании. https://www.jointaro.com/blog/how-i-became-an-800k-engineer
Please open Telegram to view this post
VIEW IN TELEGRAM
Taro's Blog - Software Eng Career Growth
How I Became An $800K Meta Staff Engineer
The last full year I worked at Meta, I made more than $800,000 dollars. In this post, I'll break down my compensation and how it changed each year.
❤🔥20
В четверг команда российского BI, построенного на NLP, проводит вебинар - "BI в мессенджере для менеджеров продаж: кейс ГК Самолет"
Ребята расскажут о том, как сделать бизнес-аналитику доступной сотруднику, даже если он работает «в полях» или у него нет времени разбираться со сложным интерфейсом.
А также обсудят, как AI позволяет получать аналитические данные прямо в мессенджер за доли секунды.
Что будет на вебинаре:
👉🏻 Easy Report: BI в мессенджере. Обзор системы и кейсы применения.
👉🏻 Быстрый доступ к данным для коммерческого блока через BI в мессенджере: кейс застройщика.
👉🏻 Демонстрация работы решения.
Спикеры:
Юрий Ефаров - CEO Easy Report, генеральный директор Sapiens solutions (в ТОП-15 поставщиков аналитических решений в РФ)
Павел Сухоруков - руководитель группы формирования отчетности, ГК Самолет.
Игорь Пантелеев - Соучредитель и CTO Easy Report.
Ссылка на вебинар.
🗓 28 сентября, 11:00 мск • Онлайн
Ребята расскажут о том, как сделать бизнес-аналитику доступной сотруднику, даже если он работает «в полях» или у него нет времени разбираться со сложным интерфейсом.
А также обсудят, как AI позволяет получать аналитические данные прямо в мессенджер за доли секунды.
Что будет на вебинаре:
👉🏻 Easy Report: BI в мессенджере. Обзор системы и кейсы применения.
👉🏻 Быстрый доступ к данным для коммерческого блока через BI в мессенджере: кейс застройщика.
👉🏻 Демонстрация работы решения.
Спикеры:
Юрий Ефаров - CEO Easy Report, генеральный директор Sapiens solutions (в ТОП-15 поставщиков аналитических решений в РФ)
Павел Сухоруков - руководитель группы формирования отчетности, ГК Самолет.
Игорь Пантелеев - Соучредитель и CTO Easy Report.
Ссылка на вебинар.
🗓 28 сентября, 11:00 мск • Онлайн
🙈11❤🔥10🍌1
Продолжаю серию постов про пеликанов. VK Cloud опубликовали кейс - Как облако помогло ученым посчитать пеликанов за 30 миллисекунд вместо 7 дней
Ссылка на канал VK Cloud - 🌎 Мы считали пеликанов: как нейросеть помогает сохранять популяцию редких птиц в дикой природе
А вот история постов про пеликанов
Пост1 - идея использовать ML для подсчета колоний пеликанов
Пост2, Пост3 - публикация научной статьи
Пост4 - статья в научном журнале
PS технический лидер проекта Владимир Валеев зарекомендовал себя как очень крутой специалист по компьютерному зрению да теперь еще и большой опыт ML на отечественных облаках, если вам нужен специалист, то обращайтесь к нему, он как раз ищет новый проект! А если хотите получить ML опыт, тоже пишите ему, лишние руки не помешают!
PS А если вы в Москве, приходите в зоопарк посмотреть на живых пеликанов..
Ссылка на канал VK Cloud - 🌎 Мы считали пеликанов: как нейросеть помогает сохранять популяцию редких птиц в дикой природе
А вот история постов про пеликанов
Пост1 - идея использовать ML для подсчета колоний пеликанов
Пост2, Пост3 - публикация научной статьи
Пост4 - статья в научном журнале
PS технический лидер проекта Владимир Валеев зарекомендовал себя как очень крутой специалист по компьютерному зрению да теперь еще и большой опыт ML на отечественных облаках, если вам нужен специалист, то обращайтесь к нему, он как раз ищет новый проект! А если хотите получить ML опыт, тоже пишите ему, лишние руки не помешают!
PS А если вы в Москве, приходите в зоопарк посмотреть на живых пеликанов..
❤🔥20🍌5🐳1
От удаленной работы до анализа данных с бейджей. ИТ превращается в режимные объекты, пока планируют трекать время в офисе, но пора добавлять время в туалете или кофе брейке, большие данные они такие…
WSJ
Bosses Aren’t Just Tracking When You Show Up to the Office but How Long You Stay
Employers are stepping up monitoring of in-office attendance, though efforts can alienate workers or prove difficult to implement.
😈4🌭2
This media is not supported in your browser
VIEW IN TELEGRAM
Коллеги из компании Sapiens solutions разработали фреймворк, выполняющий следующие задачи:
➡️ стандартизация ETL процессов,
➡️ загрузка и расчет данных с помощью метаданных и минимального объема разработок.
Фреймворк доступен на GitHub как Open source по лицензии Apache 2.0
🖥3 октября они проведут вебинар, на котором рассмотрят вопросы:
1. Проблемы в процессах ETL
2. Подходы к загрузке в Greenplum
3. Преимущества ETL фреймворка
4. Компоненты фреймворка
5. Развертывание и использование
6. Продуктивные кейсы
📌Всем зарегистрированным будет отправлена запись.
Вебинар будет полезен для компаний, которые планируют использовать хранилище данных на платформе Arenadata DB / Greenplum и проектов миграции хранилищ данных с проприетарных DB (SAP HANA, Oracle, Teradata и др.)
Спикеры:
Юрий Ефаров - Основатель и CEO Sapiens solutions (в ТОП-15 поставщиков аналитических решений в РФ)
Дмитрий Исмаилов - Архитектор хранилищ данных, эксперт в вопросах миграции на Greenplum.
Ссылка на вебинар.
🗓 03 октября, 11:00 мск • Онлайн
#промо
➡️ стандартизация ETL процессов,
➡️ загрузка и расчет данных с помощью метаданных и минимального объема разработок.
Фреймворк доступен на GitHub как Open source по лицензии Apache 2.0
🖥3 октября они проведут вебинар, на котором рассмотрят вопросы:
1. Проблемы в процессах ETL
2. Подходы к загрузке в Greenplum
3. Преимущества ETL фреймворка
4. Компоненты фреймворка
5. Развертывание и использование
6. Продуктивные кейсы
📌Всем зарегистрированным будет отправлена запись.
Вебинар будет полезен для компаний, которые планируют использовать хранилище данных на платформе Arenadata DB / Greenplum и проектов миграции хранилищ данных с проприетарных DB (SAP HANA, Oracle, Teradata и др.)
Спикеры:
Юрий Ефаров - Основатель и CEO Sapiens solutions (в ТОП-15 поставщиков аналитических решений в РФ)
Дмитрий Исмаилов - Архитектор хранилищ данных, эксперт в вопросах миграции на Greenplum.
Ссылка на вебинар.
🗓 03 октября, 11:00 мск • Онлайн
#промо
⚡12❤🔥4🙈3👨💻1
VK Data Meetup — митап об инструментах и людях, которые умеют работать с данными
⏰ Когда: 12 октября, 14:00 по Москве
📍 Регистрация
VK Data Meetup — это серия событий о практиках работы с данными на разных уровнях.
Митап 12 октября посвящен работе с большими данными и ML. Обсудим:
• Тренды работы с данными;
• Процессы взаимодействия со смежными подразделениями и внутри дата-команд;
• Новые инструменты, такие как Spark on Kubernetes и No Code AutoML-платформы;
• Кейсы решения практических бизнес-задач от ведущих российских компаний.
Митап будет интересен дата- и ML-инженерам, тимлидам и разработчикам платформ данных, архитекторам и специалистам по Data Science.
Присоединяйтесь к сообществу VK Data Meetup, чтобы узнать про работающие практики и поделиться своим опытом.
Зарегистрироваться
#промо
⏰ Когда: 12 октября, 14:00 по Москве
📍 Регистрация
VK Data Meetup — это серия событий о практиках работы с данными на разных уровнях.
Митап 12 октября посвящен работе с большими данными и ML. Обсудим:
• Тренды работы с данными;
• Процессы взаимодействия со смежными подразделениями и внутри дата-команд;
• Новые инструменты, такие как Spark on Kubernetes и No Code AutoML-платформы;
• Кейсы решения практических бизнес-задач от ведущих российских компаний.
Митап будет интересен дата- и ML-инженерам, тимлидам и разработчикам платформ данных, архитекторам и специалистам по Data Science.
Присоединяйтесь к сообществу VK Data Meetup, чтобы узнать про работающие практики и поделиться своим опытом.
Зарегистрироваться
#промо
❤🔥9🙉2
Ставка по ипотеке в Северной Америке достигла 7.5% (раньше было около 2х), теперь лента в linkedin заиграла новыми красками. И это не только в СФ, а в любом крупном городе Канады или США. Ссылка на дискуссию под постом. Еще есть вариант бесплатной эвтаназии, если не тянете😐
Please open Telegram to view this post
VIEW IN TELEGRAM
😭26🙈10🍾3🗿2🎄1
Яндекс открыл подачу заявок на научную премию в области машинного обучения
Научную премию Яндекс проводит не первый год, но именно в этот раз впервые лауреатами Yandex ML Prize могут стать ученые, которые занимаются генеративными моделями. Кроме этого, наградят тех, кто отличился в изучении распознавания и синтеза речи, компьютерного зрения, информационного поиска и анализа данных и обработки естественного языка.
Участвовать могут исследователи, которые работают или учатся в университетах России, Азербайджана, Армении, Беларуси, Казахстана, Кыргызстана, Молдовы, Сербии, Таджикистана, Туркменистана или Узбекистана.
Призы, кстати, нешуточные: до миллиона рублей, грант от Yandex Cloud на использование сервиса для исследования (там, к слову, можно развернуть нейросетку на основе Stable Diffusion или любыми другими генеративными штуками заняться) и до кучи подписка на Яндекс 360. Подать заявку можно до 16 октября — отличная возможность заявить о себе сообществу и попробовать свои силы.
Научную премию Яндекс проводит не первый год, но именно в этот раз впервые лауреатами Yandex ML Prize могут стать ученые, которые занимаются генеративными моделями. Кроме этого, наградят тех, кто отличился в изучении распознавания и синтеза речи, компьютерного зрения, информационного поиска и анализа данных и обработки естественного языка.
Участвовать могут исследователи, которые работают или учатся в университетах России, Азербайджана, Армении, Беларуси, Казахстана, Кыргызстана, Молдовы, Сербии, Таджикистана, Туркменистана или Узбекистана.
Призы, кстати, нешуточные: до миллиона рублей, грант от Yandex Cloud на использование сервиса для исследования (там, к слову, можно развернуть нейросетку на основе Stable Diffusion или любыми другими генеративными штуками заняться) и до кучи подписка на Яндекс 360. Подать заявку можно до 16 октября — отличная возможность заявить о себе сообществу и попробовать свои силы.
🙈36❤🔥8🌚7💯2😈2⚡1🐳1💘1
Опачки! 31 Октября у AWS появилась сертификация Data Engineer. (У azure и gcp уже давно были).
https://aws.amazon.com/certification/certified-data-engineer-associate/
https://aws.amazon.com/certification/certified-data-engineer-associate/
⚡51❤🔥4🌭3🤷♂1
Все чаще вижу кейсы когда хотят использовать хранилище данных для:
- добавления новых фичи в сам продукт, используя данные из хранилища данных
- писать в Sales Force, Market и другие SaaS API для "real time" actions
- обогащать данные real-time телеметрии для операционной аналитики
- Использование PII (клиентские) данные для downstream систем, что сильно меняет требования к аналитическому решению
Тем самым извращаю цель хранилища данных - анализировать исторические данные и принимать решения, использовать данные для систем машинного обучения или просто как песочницу для аналитиков, где они могу искать data insights.
Как только мы начинаем использовать хранилище данных для customer face продукта, приложения, сразу происходит искажение SLA для решения. Теперь, если какой-нибудь ETL упал ночью, это сразу Sev A (то есть инцидент с самой высокой категорией, который необходимо решить немедленно). Команда хранилища данных (инженеры данных) сразу должны быть On-Call и просыпаться ночью, чтобы починить pipeline.
Как правило, чтобы строить такое решение используют 2 варианта
- Open Source (код) или Reverse ETL
- Сложные интеграции с командами разработкой и множеством слоев
По-моему опыту все эти поделки добавляют кучу проблем для команды хранилища дынных (инженеров данных), тратя их ресурсы на поддержание работоспособности кастомизированного решения и ведет к снижению вовлеченности в работу.
Мне кажется, тут нет идеального рецепта и все несчастливы по своему.
А вам приходилось с таким сталкиваться?
- добавления новых фичи в сам продукт, используя данные из хранилища данных
- писать в Sales Force, Market и другие SaaS API для "real time" actions
- обогащать данные real-time телеметрии для операционной аналитики
- Использование PII (клиентские) данные для downstream систем, что сильно меняет требования к аналитическому решению
Тем самым извращаю цель хранилища данных - анализировать исторические данные и принимать решения, использовать данные для систем машинного обучения или просто как песочницу для аналитиков, где они могу искать data insights.
Как только мы начинаем использовать хранилище данных для customer face продукта, приложения, сразу происходит искажение SLA для решения. Теперь, если какой-нибудь ETL упал ночью, это сразу Sev A (то есть инцидент с самой высокой категорией, который необходимо решить немедленно). Команда хранилища данных (инженеры данных) сразу должны быть On-Call и просыпаться ночью, чтобы починить pipeline.
Как правило, чтобы строить такое решение используют 2 варианта
- Open Source (код) или Reverse ETL
- Сложные интеграции с командами разработкой и множеством слоев
По-моему опыту все эти поделки добавляют кучу проблем для команды хранилища дынных (инженеров данных), тратя их ресурсы на поддержание работоспособности кастомизированного решения и ведет к снижению вовлеченности в работу.
Мне кажется, тут нет идеального рецепта и все несчастливы по своему.
А вам приходилось с таким сталкиваться?
💯51🫡5
Очень классное сравнение ПО (SDE) и data (data engineering):
(я честно пытался перевести, но получилось такая шляпа, решил оставить оригинал):
Here are 10 ways software engineering and data fundamentally differ from each other:
1. Software is built fit-for-purpose, but Data is recycled many times.
2. Software is owned by the team that created and uses it. Data may not be owned by the team that uses it, or even know who created it in the first place.
3. Most software changes are reviewed within teams, whereas most data changes should be reviewed between teams.
4. 'Pipelines' are not a concept in software engineering.
5. Data architecture is based on the real-world semantic truth of the business. Software architecture is based on what solves the functional requirements.
6. In software, nothing gets built without a clear customer use case. In data, you don't know if the answer to a question will be useful or not until you've answered it.
7. Software teams require tooling for creating, Data teams require tools for exploring.
8. Governance in software engineering usually relates to development patterns. Governance in data usually relates to the way data is organized and accessed.
9. In software, microservices make teams ultimately go faster. In data, microservices make teams ultimately go slower, as it leads to duplication and no single source of truth.
10. Technical debt causes a lack of scalability and devex issues. Data debt causes a lack of trust and quality issues.
The bottom line:
Data and Software are unique disciplines. While they both require writing code - the goals, organizational structure, architecture, applications, toolsets, and processes have very different INTENT and outcomes.
When organizations don't understand how the intent and outcomes of each industry function, where there is overlap, and where there is not, it will lead to extreme dissatisfaction, churn, and gaps in ROI.
(я честно пытался перевести, но получилось такая шляпа, решил оставить оригинал):
Here are 10 ways software engineering and data fundamentally differ from each other:
1. Software is built fit-for-purpose, but Data is recycled many times.
2. Software is owned by the team that created and uses it. Data may not be owned by the team that uses it, or even know who created it in the first place.
3. Most software changes are reviewed within teams, whereas most data changes should be reviewed between teams.
4. 'Pipelines' are not a concept in software engineering.
5. Data architecture is based on the real-world semantic truth of the business. Software architecture is based on what solves the functional requirements.
6. In software, nothing gets built without a clear customer use case. In data, you don't know if the answer to a question will be useful or not until you've answered it.
7. Software teams require tooling for creating, Data teams require tools for exploring.
8. Governance in software engineering usually relates to development patterns. Governance in data usually relates to the way data is organized and accessed.
9. In software, microservices make teams ultimately go faster. In data, microservices make teams ultimately go slower, as it leads to duplication and no single source of truth.
10. Technical debt causes a lack of scalability and devex issues. Data debt causes a lack of trust and quality issues.
The bottom line:
Data and Software are unique disciplines. While they both require writing code - the goals, organizational structure, architecture, applications, toolsets, and processes have very different INTENT and outcomes.
When organizations don't understand how the intent and outcomes of each industry function, where there is overlap, and where there is not, it will lead to extreme dissatisfaction, churn, and gaps in ROI.
💯25🤷♂4🌚2❤🔥1⚡1🐳1
Forwarded from Книжный куб (Alexander Polomodov)
Как я выбираю какую книгу читать следующей
Мне периодически задают такой вопрос и я всегда отвечаю, что это зависит от контекста и текущей ситуации. Например, пару недель назад пролетела новость про то, что Cisco покупает компанию Splunk за 28 млрд долларов. Это интересная новость в силу того, что Cisco - это топовая компания по производству сетевых устройств и не только, а Splunk - это один из лидеров на рынке observability платформ. Поэтому я решил узнать про нее побольше и, закончив читать предыдущие книги, взял с полки бумажную книгу "Соединяя точки. Уроки лидерства" Джона Чемберса, ex-CEO компании с 1995 года по 2015.
В этой книге Джон рассказывает про свой подход к управлению на примерах из жизни IBM, Wang Laboratories и в основном Cisco, где он за 20 лет построил компанию, которая в 2000 году даже была самой дорогой в мире:) Одна из глав как раз называется "Мой план успешных поглощений", в которой Джон говорит про свой подход, в основе которого лежат 4 ключевых принципа
1) Сосредоточиться на тех поглощениях, что позволят выйти на новые рынки в переходном периоде или расширить на них свою деятельность
2) Прислушиваться к рекомендациям клиентов
3) Сразу же интегрировать компанию в свою структуру, если вы не покупаете ее в качестве самостоятельной бизнес-единицы
4) Настойчиво добиваться соответствия вашей культуре и ценностям
Интересно, что именно стратегическое поглощение Crescendo, закончившееся успешно, позволило Джону стать главой компании, а потом провернуть еще 179 поглощений, которые он проводил в соответствии с приведенными выше принципами. Дальше он поделился семью золотыми правилами, что они использовали при заключении сделок:
1. Каждое поглощение должно соответствовать вашему видению и стратегии
2. В центре внимания должны находиться рыночные преобразования и подрывные инновации в области технологий
3. Прислушивайтесь к рекомендациям клиентов при выборе объекта поглощения
4. Создайте взаимовыгодную ситуацию для обеих компаний, их руководителей, инвесторов, сотрудников и клиентов
5. Отдавайте предпочтение компаниям и технологиям, соответствующим вашему профилю
6. Выбирайте компании, культура которых в значительной степени соответствует вашей
7. Учитывайте географическую близость к своей штаб-квартире или основным операционным центрам
Отдельно Джон говорит о том, что объединение - это хорошая возможность для компаний разных размеров, где большая компания поглощает маленькую. А вот для сравнимых по размерам компаний лучшим вариантом является стратегическое партнерство - это не так рискованно как объединение, но позволяет получить хорошие результаты. В этом случае оно тоже должно иметь стратегическое значение для компаний, у обеих компаний должна быть мотивация к этому партнерству, эту идею должен разделять весь топ-менеджмент компании, а также в рамках партнерства стоит инициировать несколько проектов, чтобы общий баланс ценности портфеля был относительно справедливо распределены между компаниями.
Отдельно Джон приводит статистику того, что из 180 поглощений только треть была неудачными, а несколько десятков компаний выросли в миллиардные направления по обороту. Именно за счет поглощений компания Cisco активно наращивала свой портфель продуктов для "Changing the way, we work, live, play and learn".
P.S.
Отдельно потом напишу про книгу целиком, а то тут получилось рассказать только про одну главу:)
#Management #Leadership #Processes
Мне периодически задают такой вопрос и я всегда отвечаю, что это зависит от контекста и текущей ситуации. Например, пару недель назад пролетела новость про то, что Cisco покупает компанию Splunk за 28 млрд долларов. Это интересная новость в силу того, что Cisco - это топовая компания по производству сетевых устройств и не только, а Splunk - это один из лидеров на рынке observability платформ. Поэтому я решил узнать про нее побольше и, закончив читать предыдущие книги, взял с полки бумажную книгу "Соединяя точки. Уроки лидерства" Джона Чемберса, ex-CEO компании с 1995 года по 2015.
В этой книге Джон рассказывает про свой подход к управлению на примерах из жизни IBM, Wang Laboratories и в основном Cisco, где он за 20 лет построил компанию, которая в 2000 году даже была самой дорогой в мире:) Одна из глав как раз называется "Мой план успешных поглощений", в которой Джон говорит про свой подход, в основе которого лежат 4 ключевых принципа
1) Сосредоточиться на тех поглощениях, что позволят выйти на новые рынки в переходном периоде или расширить на них свою деятельность
2) Прислушиваться к рекомендациям клиентов
3) Сразу же интегрировать компанию в свою структуру, если вы не покупаете ее в качестве самостоятельной бизнес-единицы
4) Настойчиво добиваться соответствия вашей культуре и ценностям
Интересно, что именно стратегическое поглощение Crescendo, закончившееся успешно, позволило Джону стать главой компании, а потом провернуть еще 179 поглощений, которые он проводил в соответствии с приведенными выше принципами. Дальше он поделился семью золотыми правилами, что они использовали при заключении сделок:
1. Каждое поглощение должно соответствовать вашему видению и стратегии
2. В центре внимания должны находиться рыночные преобразования и подрывные инновации в области технологий
3. Прислушивайтесь к рекомендациям клиентов при выборе объекта поглощения
4. Создайте взаимовыгодную ситуацию для обеих компаний, их руководителей, инвесторов, сотрудников и клиентов
5. Отдавайте предпочтение компаниям и технологиям, соответствующим вашему профилю
6. Выбирайте компании, культура которых в значительной степени соответствует вашей
7. Учитывайте географическую близость к своей штаб-квартире или основным операционным центрам
Отдельно Джон говорит о том, что объединение - это хорошая возможность для компаний разных размеров, где большая компания поглощает маленькую. А вот для сравнимых по размерам компаний лучшим вариантом является стратегическое партнерство - это не так рискованно как объединение, но позволяет получить хорошие результаты. В этом случае оно тоже должно иметь стратегическое значение для компаний, у обеих компаний должна быть мотивация к этому партнерству, эту идею должен разделять весь топ-менеджмент компании, а также в рамках партнерства стоит инициировать несколько проектов, чтобы общий баланс ценности портфеля был относительно справедливо распределены между компаниями.
Отдельно Джон приводит статистику того, что из 180 поглощений только треть была неудачными, а несколько десятков компаний выросли в миллиардные направления по обороту. Именно за счет поглощений компания Cisco активно наращивала свой портфель продуктов для "Changing the way, we work, live, play and learn".
P.S.
Отдельно потом напишу про книгу целиком, а то тут получилось рассказать только про одну главу:)
#Management #Leadership #Processes
❤🔥27⚡5
Интересная интеграция dbt + cube
Про cube я писал ранее, что мы использовали open source для красивой визуализации и рассылки emails для внешних клиентов. (назовем это embedded BI).
В данном кейсе, пример больше про классический BI.
Про cube я писал ранее, что мы использовали open source для красивой визуализации и рассылки emails для внешних клиентов. (назовем это embedded BI).
В данном кейсе, пример больше про классический BI.
❤🔥28
Я давно изменил структуру своих подписок и теперь больше читаю всяких экспертов в разных областях. Вот один из них, бывший VP Amazon. В своем посте он рассказывает об очевидной проблеме связанной с удаленной работой, где главное препятствие это недоверие работодателя к сотрудникам. И далее он предлагает пути решения, связанные с gentle мониторингом вашей активности, чтобы вы, не дай бог, на 3х работах не работали. Но если разобраться, почему людям приходится работать на 3х работах, то очевидно, что это высокая стоимость жизни и низкие зарплаты. Вот буквально видел 5 минут назад вакансию на инженера данных в Канаде за 85к в год, это 4500 канадских в месяц, а рент более менее это 2500 в месяц. И таких вакансий много. Возможно одно из главных решений это оплата труда для хороших специалистов, которая закроет потребности, например в Канаде это 15к, то есть в 3.5 раза больше. Но откуда VP будет знать о таких мелочах, он уже и забыл когда он мало зарабатывал и еле сводил концы с концами.
💯105⚡4🦄2🌚1
Еще один Success Story для Surfalytics от Максима из Онтарио.
Бэкграунд:
Закончил железнодорожный университет в Новосибирске по специальности инженер, информационные системы и технологии.
После универа начал работать инженером тех поддержки в международной компании, затем продолжил как технический писатель, после чего перешёл в технические проджект менеджеры и проработал около 13 лет. Из инструментов немного использовал SQL для простых запросов и Python для автоматизации отчётов. Английский был на уровне intermediate, разговорный практически на нуле. Поэтому до переезда нашел репетитора и начал заниматься с упором на разговорный. За полгода занятий поднял до уровня upper-intermediate / advanced, которого уже было достаточно для прохождения интервью.
В Канаду переехал вместе с семьёй в декабре 2022, 10 месяцев назад.
После переезда по инерции начал искать работу проджектом. В процессе откликов понял что хочу сменить сферу и выбрал направление аналитики данных.
Определиться с направлением (ответить на вопрос Куда?) - это большое дело. Но мне было совершенно непонятно Как туда идти, а куча курсов, ресурсов, информации делали это еще сложнее.
Через нетворк в LinkedIn я узнал про Диму и data learn. Это помогло мне получить понимание и ответы на вопрос «Как?»
Ещё было очень полезно оказаться в группе Surfalytics bootcamp, в которой мы обсуждали вакансии, ЗП вилки, помогали друг другу улучшить резюме и даже созванивались для подготовки к интервью.
Поиск работы
1 раунд поиска
С мая по октябрь 2023
Откликов - 210(+40) шт. 210 отмечал в экселе, около 40 откликался через easy apply на LinkedIn и Indeed без отметок в экселе, поэтому цифра 40 примерная
Приглашений на интервью - 14 шт.
Оферов - 1 шт:
Senior Data Analyst в technology solutions provider - 110k base salary + 15% annual bonus
В процессе много экспериментировал с резюме с целью повысить конверсию в приглашения, всего было около 10 версий резюме.
Что учил:
Активно начал заниматься с середины марта 2023
- Прошёл SQL курс на DataLearn
- Прошел 3 модуля DataLearn
- Решил практически все задачки по SQL на DataLemur
- DBT fundamentals course
- Курс Google Data Analytics на курсере (8 модулей)
- Visualization with Tableau program (5 модулей)
- Прочитал Lean Analytics
- Подготовил портфолио
1 Excel project
4 Tableau projects
1 Power BI project
2 SQL projects
2 Python
1 data engineering project with deployment BI solution in cloud and data modeling (Amazon Redshift and Tableau Server Linux on MS Azure cloud)
- Освежил знания по Python и pandas, прошёл несколько курсов по python, в т.ч. на kaggle. Сделал выжимку из прошедших ранее курсов в виде Jupyter Notebook
К каждому раунду интервью готовился по несколько часов. Активно пинговал рекрутеров через LinkedIn и по e-mail после откликов
Делал записи интервью для разбора ошибок и подготовки ответов на вопросы, по которым затупил.
Бэкграунд:
Закончил железнодорожный университет в Новосибирске по специальности инженер, информационные системы и технологии.
После универа начал работать инженером тех поддержки в международной компании, затем продолжил как технический писатель, после чего перешёл в технические проджект менеджеры и проработал около 13 лет. Из инструментов немного использовал SQL для простых запросов и Python для автоматизации отчётов. Английский был на уровне intermediate, разговорный практически на нуле. Поэтому до переезда нашел репетитора и начал заниматься с упором на разговорный. За полгода занятий поднял до уровня upper-intermediate / advanced, которого уже было достаточно для прохождения интервью.
В Канаду переехал вместе с семьёй в декабре 2022, 10 месяцев назад.
После переезда по инерции начал искать работу проджектом. В процессе откликов понял что хочу сменить сферу и выбрал направление аналитики данных.
Определиться с направлением (ответить на вопрос Куда?) - это большое дело. Но мне было совершенно непонятно Как туда идти, а куча курсов, ресурсов, информации делали это еще сложнее.
Через нетворк в LinkedIn я узнал про Диму и data learn. Это помогло мне получить понимание и ответы на вопрос «Как?»
Ещё было очень полезно оказаться в группе Surfalytics bootcamp, в которой мы обсуждали вакансии, ЗП вилки, помогали друг другу улучшить резюме и даже созванивались для подготовки к интервью.
Поиск работы
1 раунд поиска
С мая по октябрь 2023
Откликов - 210(+40) шт. 210 отмечал в экселе, около 40 откликался через easy apply на LinkedIn и Indeed без отметок в экселе, поэтому цифра 40 примерная
Приглашений на интервью - 14 шт.
Оферов - 1 шт:
Senior Data Analyst в technology solutions provider - 110k base salary + 15% annual bonus
В процессе много экспериментировал с резюме с целью повысить конверсию в приглашения, всего было около 10 версий резюме.
Что учил:
Активно начал заниматься с середины марта 2023
- Прошёл SQL курс на DataLearn
- Прошел 3 модуля DataLearn
- Решил практически все задачки по SQL на DataLemur
- DBT fundamentals course
- Курс Google Data Analytics на курсере (8 модулей)
- Visualization with Tableau program (5 модулей)
- Прочитал Lean Analytics
- Подготовил портфолио
1 Excel project
4 Tableau projects
1 Power BI project
2 SQL projects
2 Python
1 data engineering project with deployment BI solution in cloud and data modeling (Amazon Redshift and Tableau Server Linux on MS Azure cloud)
- Освежил знания по Python и pandas, прошёл несколько курсов по python, в т.ч. на kaggle. Сделал выжимку из прошедших ранее курсов в виде Jupyter Notebook
К каждому раунду интервью готовился по несколько часов. Активно пинговал рекрутеров через LinkedIn и по e-mail после откликов
Делал записи интервью для разбора ошибок и подготовки ответов на вопросы, по которым затупил.
❤🔥122⚡15💯4🍌3🗿1