❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_157
🔠Что такое Spark и как он устроен ? (Часть_2)
2. Resilient Distributed Datasets (RDD): RDD представляет собой основную абстракцию данных в Spark. Он представляет нераспределенную и неизменяемую коллекцию объектов, которая может быть параллельно обработана. RDD обеспечивает устойчивость к сбоям и автоматическую восстанавливаемость.
3. API на разных языках: Spark предоставляет API на разных языках программирования, включая Scala, Java, Python и R. Это делает его доступным для разработчиков с разными предпочтениями языка.
#ApacheSpark #bigdataprocessing #distributedcomputing #parallelprocessing #dataanalysis #highperformancecomputing #dataprocessing #API
🔠Что такое Spark и как он устроен ? (Часть_2)
2. Resilient Distributed Datasets (RDD): RDD представляет собой основную абстракцию данных в Spark. Он представляет нераспределенную и неизменяемую коллекцию объектов, которая может быть параллельно обработана. RDD обеспечивает устойчивость к сбоям и автоматическую восстанавливаемость.
3. API на разных языках: Spark предоставляет API на разных языках программирования, включая Scala, Java, Python и R. Это делает его доступным для разработчиков с разными предпочтениями языка.
#ApacheSpark #bigdataprocessing #distributedcomputing #parallelprocessing #dataanalysis #highperformancecomputing #dataprocessing #API
Please open Telegram to view this post
VIEW IN TELEGRAM
ВКонтакте
Хакатон Cyber Garden
05–07 декабря в Таганроге состоится девятнадцатый марафон программирования Хакатон Cyber Garden. Хакатон Cyber Garden – один из самых известных марафонов программирования на юге России. Cyber Garden – это возможность проверить свои навыки в разработке программного…
https://habr.com/ru/news/775552/ - хорошая рокировочка, дабы избавиться от неугодных людей которые мешают жить. Ситуация похожа на сцену из жизни:
- "Пап, эти нехорошие меня обижают, сделай что-нибудь..."
Классика, промышленный саботаж во всей красе. Если новость окажется правдой, то Альтман нарисовал себе такую веревку, за которую всегда будет дергать Microsoft, если им что-то не нравится и по любому чиху он будет к ним прибегать, вообщем та еще кабала, ибо деньги вложены большие и Microsoft никогда не отступит от своего и будет держаться такой мертвой хваткой за OpenAI, так как они понимают что сейчас судьбы корпорации и их будущее зависит от этих пацанов. Прозаично, да не скрою, но в общем "картина маслом".
В общем классическая схема, диктатуры, прикинуться овечкой в волчьей шкуре. Ну, а для масс он мессия )).
- "Пап, эти нехорошие меня обижают, сделай что-нибудь..."
Классика, промышленный саботаж во всей красе. Если новость окажется правдой, то Альтман нарисовал себе такую веревку, за которую всегда будет дергать Microsoft, если им что-то не нравится и по любому чиху он будет к ним прибегать, вообщем та еще кабала, ибо деньги вложены большие и Microsoft никогда не отступит от своего и будет держаться такой мертвой хваткой за OpenAI, так как они понимают что сейчас судьбы корпорации и их будущее зависит от этих пацанов. Прозаично, да не скрою, но в общем "картина маслом".
В общем классическая схема, диктатуры, прикинуться овечкой в волчьей шкуре. Ну, а для масс он мессия )).
Хабр
Альтман возвращается в OpenAI в качестве генерального директора с новым составом совета директоров без Суцкевера
22 ноября 2023 года OpenAI объявила , что Сэм Альтман вернётся в компанию в качестве генерального директора с новым составом совета директоров, включая Брета Тейлора (председатель), Ларри Саммерса и...
- Мы уже все сделали, все настроили, все сервисы завелись, данные масштабируются и сейчас мы находимся в стадии наработки багов...
- Чего, что вы там нарабатываете ????
- Упс
- ахахахахахахахахахахахахха ))))) давайте на Bug Bounty народ уже моники полируют, они во всю уже ждут ))))
Причем говорилось все так, что как будто эта дама бриллиант в телемагазине продавала ))) ну вы помните эту телегу.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁2
❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_157
🔠Что такое Spark и как он устроен ? (Часть_3)
4. Модули для различных задач: Spark предлагает модули для различных вычислительных задач, таких как Spark SQL для обработки структурированных данных с помощью SQL-подобного синтаксиса, Spark Streaming для обработки данных в реальном времени, MLlib для машинного обучения и GraphX для анализа графов.
#ApacheSpark #bigdataprocessing #distributedcomputing #parallelprocessing #dataanalysis #highperformancecomputing #dataprocessing #API
🔠Что такое Spark и как он устроен ? (Часть_3)
4. Модули для различных задач: Spark предлагает модули для различных вычислительных задач, таких как Spark SQL для обработки структурированных данных с помощью SQL-подобного синтаксиса, Spark Streaming для обработки данных в реальном времени, MLlib для машинного обучения и GraphX для анализа графов.
#ApacheSpark #bigdataprocessing #distributedcomputing #parallelprocessing #dataanalysis #highperformancecomputing #dataprocessing #API
❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_157
🔠Что такое Spark и как он устроен ? (Часть_4)
5. Оптимизация и интеграция с другими инструментами: Spark включает различные оптимизации, такие как ленивые вычисления, определение оптимального плана выполнения и кэширование промежуточных результатов. Он также интегрируется с другими инструментами, такими как Hadoop, Hive, HBase и другими, что позволяет использовать существующую инфраструктуру и инструменты.
#ApacheSpark #bigdataprocessing #distributedcomputing #parallelprocessing #dataanalysis #highperformancecomputing #dataprocessing #API
🔠Что такое Spark и как он устроен ? (Часть_4)
5. Оптимизация и интеграция с другими инструментами: Spark включает различные оптимизации, такие как ленивые вычисления, определение оптимального плана выполнения и кэширование промежуточных результатов. Он также интегрируется с другими инструментами, такими как Hadoop, Hive, HBase и другими, что позволяет использовать существующую инфраструктуру и инструменты.
#ApacheSpark #bigdataprocessing #distributedcomputing #parallelprocessing #dataanalysis #highperformancecomputing #dataprocessing #API
❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_158
🔠Какие есть аналоги Spark ?
1. Hadoop MapReduce: Это фреймворк для обработки больших объемов данных, основанный на модели MapReduce. Он предоставляет распределенную обработку данных на кластере и является основным компонентом Apache Hadoop.
2. Apache Flink: Это распределенная система обработки потоковых данных и пакетных данных. Flink предлагает высокую производительность, низкую задержку и обработку данных в реальном времени. Он также обладает гибким API для различных операций над данными.
#ApacheSpark #bigdataprocessing #distributedcomputing #parallelprocessing #dataanalysis #highperformancecomputing #dataprocessing #API
🔠Какие есть аналоги Spark ?
1. Hadoop MapReduce: Это фреймворк для обработки больших объемов данных, основанный на модели MapReduce. Он предоставляет распределенную обработку данных на кластере и является основным компонентом Apache Hadoop.
2. Apache Flink: Это распределенная система обработки потоковых данных и пакетных данных. Flink предлагает высокую производительность, низкую задержку и обработку данных в реальном времени. Он также обладает гибким API для различных операций над данными.
#ApacheSpark #bigdataprocessing #distributedcomputing #parallelprocessing #dataanalysis #highperformancecomputing #dataprocessing #API
❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_158
🔠Какие есть аналоги Spark ? (Часть_2)
3. Apache Storm: Это фреймворк для обработки потоковых данных в реальном времени. Storm предоставляет возможность обрабатывать высокоскоростные потоки данных в режиме реального времени с гарантированными характеристиками надежности.
4. Databricks: Это облачная платформа для анализа данных, основанная на Apache Spark. Databricks предлагает среду для разработки, выполнения и мониторинга Spark-приложений, а также инструменты для визуализации и совместной работы с данными.
#ApacheSpark #bigdataprocessing #distributedcomputing #parallelprocessing #dataanalysis #highperformancecomputing #dataprocessing #API
🔠Какие есть аналоги Spark ? (Часть_2)
3. Apache Storm: Это фреймворк для обработки потоковых данных в реальном времени. Storm предоставляет возможность обрабатывать высокоскоростные потоки данных в режиме реального времени с гарантированными характеристиками надежности.
4. Databricks: Это облачная платформа для анализа данных, основанная на Apache Spark. Databricks предлагает среду для разработки, выполнения и мониторинга Spark-приложений, а также инструменты для визуализации и совместной работы с данными.
#ApacheSpark #bigdataprocessing #distributedcomputing #parallelprocessing #dataanalysis #highperformancecomputing #dataprocessing #API
Please open Telegram to view this post
VIEW IN TELEGRAM
Tech | Business | Economy
Six Signs You Might Need a Data Analytics Solution for Your Company
Data analytics solutions have become indispensable tools for companies across various industries, enabling them to extract valuable...
#1 Ориентация аналитики на стимулирование роста бизнеса
#2 Данные займут центральное место
#3 Растущая зависимость от данных, генерируемых машинами
Что примечательно, усиливается зависимость от синтетических данных в целом, то есть данных сгенереных машинами.
Please open Telegram to view this post
VIEW IN TELEGRAM
Financial Express
Top 3 trends in data and analytics for 2023
Advanced data modeling helps implement data mesh architectures
❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_158
🔠Какие есть аналоги Spark ? (Часть_3)
5. Google Cloud Dataflow: Это управляемый сервис для обработки потоковых и пакетных данных в облаке Google Cloud Platform. Dataflow предоставляет гибкость в выборе модели программирования, поддерживая как модель MapReduce, так и модель обработки потоков данных.
#ApacheSpark #bigdataprocessing #distributedcomputing #parallelprocessing #dataanalysis #highperformancecomputing #dataprocessing #API
🔠Какие есть аналоги Spark ? (Часть_3)
5. Google Cloud Dataflow: Это управляемый сервис для обработки потоковых и пакетных данных в облаке Google Cloud Platform. Dataflow предоставляет гибкость в выборе модели программирования, поддерживая как модель MapReduce, так и модель обработки потоков данных.
#ApacheSpark #bigdataprocessing #distributedcomputing #parallelprocessing #dataanalysis #highperformancecomputing #dataprocessing #API
❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_159
🔠 Apache Storm - что это и как он устроен ? (Часть_1)
Apache Storm - это распределенный и масштабируемый фреймворк для обработки потоковых данных в реальном времени. Он предоставляет возможность обрабатывать высокоскоростные потоки данных с низкой задержкой и гарантированными характеристиками надежности.
#ApacheSpark #bigdataprocessing #distributedcomputing #parallelprocessing #dataanalysis #highperformancecomputing #dataprocessing #API
🔠 Apache Storm - что это и как он устроен ? (Часть_1)
Apache Storm - это распределенный и масштабируемый фреймворк для обработки потоковых данных в реальном времени. Он предоставляет возможность обрабатывать высокоскоростные потоки данных с низкой задержкой и гарантированными характеристиками надежности.
#ApacheSpark #bigdataprocessing #distributedcomputing #parallelprocessing #dataanalysis #highperformancecomputing #dataprocessing #API
❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_160
🔠 Apache Storm - что это и как он устроен ? (Часть_2)
Некоторые ключевые особенности Apache Storm:
1. Модель обработки данных: Storm базируется на модели потоковых данных (streaming data model), где данные обрабатываются по мере их поступления в систему. Он обеспечивает непрерывную и независимую обработку данных, что позволяет анализировать и реагировать на данные в реальном времени.
#ApacheSpark #bigdataprocessing #distributedcomputing #parallelprocessing #dataanalysis #highperformancecomputing #dataprocessing #API
🔠 Apache Storm - что это и как он устроен ? (Часть_2)
Некоторые ключевые особенности Apache Storm:
1. Модель обработки данных: Storm базируется на модели потоковых данных (streaming data model), где данные обрабатываются по мере их поступления в систему. Он обеспечивает непрерывную и независимую обработку данных, что позволяет анализировать и реагировать на данные в реальном времени.
#ApacheSpark #bigdataprocessing #distributedcomputing #parallelprocessing #dataanalysis #highperformancecomputing #dataprocessing #API
❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_160
🔠 Apache Storm - что это и как он устроен ? (Часть_3)
2. Распределенная обработка: Storm может быть развернут на кластере из множества узлов, что позволяет обрабатывать данные параллельно и масштабировать систему для обработки больших объемов данных и высоких нагрузок.
3. Гарантированная обработка данных: Storm обеспечивает гарантированную обработку данных, что означает, что данные не будут потеряны и обработаны хотя бы один раз. Он использует механизмы переупорядочивания и повторной обработки (replay) для обеспечения надежности обработки данных.
#ApacheSpark #bigdataprocessing #distributedcomputing #parallelprocessing #dataanalysis #highperformancecomputing #dataprocessing #API
🔠 Apache Storm - что это и как он устроен ? (Часть_3)
2. Распределенная обработка: Storm может быть развернут на кластере из множества узлов, что позволяет обрабатывать данные параллельно и масштабировать систему для обработки больших объемов данных и высоких нагрузок.
3. Гарантированная обработка данных: Storm обеспечивает гарантированную обработку данных, что означает, что данные не будут потеряны и обработаны хотя бы один раз. Он использует механизмы переупорядочивания и повторной обработки (replay) для обеспечения надежности обработки данных.
#ApacheSpark #bigdataprocessing #distributedcomputing #parallelprocessing #dataanalysis #highperformancecomputing #dataprocessing #API
❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_160
🔠 Apache Storm - что это и как он устроен ? (Часть_3)
4. Масштабируемость и отказоустойчивость: Storm обладает встроенными механизмами для обнаружения сбоев и автоматического восстановления. Он может автоматически переназначать задачи (tasks) на другие узлы в случае сбоя, обеспечивая непрерывную работу системы.
5. Расширяемость и гибкость: Storm предоставляет гибкое API и возможность разработки пользовательских компонентов для обработки данных. Он также интегрируется с другими инструментами и системами, такими как Apache Hadoop, Apache Kafka и другими.
#ApacheSpark #bigdataprocessing #distributedcomputing #parallelprocessing #dataanalysis #highperformancecomputing #dataprocessing #API
🔠 Apache Storm - что это и как он устроен ? (Часть_3)
4. Масштабируемость и отказоустойчивость: Storm обладает встроенными механизмами для обнаружения сбоев и автоматического восстановления. Он может автоматически переназначать задачи (tasks) на другие узлы в случае сбоя, обеспечивая непрерывную работу системы.
5. Расширяемость и гибкость: Storm предоставляет гибкое API и возможность разработки пользовательских компонентов для обработки данных. Он также интегрируется с другими инструментами и системами, такими как Apache Hadoop, Apache Kafka и другими.
#ApacheSpark #bigdataprocessing #distributedcomputing #parallelprocessing #dataanalysis #highperformancecomputing #dataprocessing #API
❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_161
🔠 Как проверить нормальность набора данных или признака? (Часть_1)
✔️Ответ: W-тест Шапиро-Уилка:
1. Рассчитывается выборочное среднее и ковариационная матрица выборки;
2. Затем вычисляются статистики заказа (например, i-е наименьшее число в выборке) и ожидаемые значения из статистики заказа, выбранные из стандартного нормального распределения;
3. Наконец, вычисляется W-статистика, которая сравнивается с критическим значением, полученным через моделирование Монте-Карло;
4. Если W-статистика значима, то гипотеза о нормальном распределении данных отвергается, то есть данные, не следуют нормальному распределению;
https://boosty.to/denoise_lab/donate - фишки кода, полезные фичи или просто если вы хотите поддержать наш канал.
#DataAnalysis #NormalityTest #SampleMean #CovarianceMatrix #OrderStatistics #StandardNormalDistribution #WStatistic #MonteCarloSimulation
🔠 Как проверить нормальность набора данных или признака? (Часть_1)
✔️Ответ: W-тест Шапиро-Уилка:
1. Рассчитывается выборочное среднее и ковариационная матрица выборки;
2. Затем вычисляются статистики заказа (например, i-е наименьшее число в выборке) и ожидаемые значения из статистики заказа, выбранные из стандартного нормального распределения;
3. Наконец, вычисляется W-статистика, которая сравнивается с критическим значением, полученным через моделирование Монте-Карло;
4. Если W-статистика значима, то гипотеза о нормальном распределении данных отвергается, то есть данные, не следуют нормальному распределению;
https://boosty.to/denoise_lab/donate - фишки кода, полезные фичи или просто если вы хотите поддержать наш канал.
#DataAnalysis #NormalityTest #SampleMean #CovarianceMatrix #OrderStatistics #StandardNormalDistribution #WStatistic #MonteCarloSimulation
❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_161
🔠 Как проверить нормальность набора данных или признака? (Часть_2)
✔️Ответ: Тест Мартинеса-Иглевича:
1. Вычисляются квантили выборки;
2. Эти квантили сравниваются с квантилями стандартного нормального распределения;
3. Расстояние между квантилями выборки и стандартного нормального распределения вычисляется для каждого квантиля;
4. Если все расстояния меньше некоторого критического значения, то гипотеза о нормальном распределении данных принимается.
https://boosty.to/denoise_lab/donate - фишки кода, полезные фичи или просто если вы хотите поддержать наш канал.
#DataAnalysis #NormalityTest #SampleMean #CovarianceMatrix #OrderStatistics #StandardNormalDistribution #WStatistic #MonteCarloSimulation
🔠 Как проверить нормальность набора данных или признака? (Часть_2)
✔️Ответ: Тест Мартинеса-Иглевича:
1. Вычисляются квантили выборки;
2. Эти квантили сравниваются с квантилями стандартного нормального распределения;
3. Расстояние между квантилями выборки и стандартного нормального распределения вычисляется для каждого квантиля;
4. Если все расстояния меньше некоторого критического значения, то гипотеза о нормальном распределении данных принимается.
https://boosty.to/denoise_lab/donate - фишки кода, полезные фичи или просто если вы хотите поддержать наш канал.
#DataAnalysis #NormalityTest #SampleMean #CovarianceMatrix #OrderStatistics #StandardNormalDistribution #WStatistic #MonteCarloSimulation
P.S. Пить вредно!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2🎉1
❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_161
🔠 Как проверить нормальность набора данных или признака? (Часть_3)
✔️Ответ: Тест Д'Агостино
1. Вычисляются эксцесс и асимметрия выборки и эти значения сравниваются с ожидаемыми значениями для нормального распределения;
2. Расстояние между вычисленными и ожидаемыми значениями вычисляется для каждого из них;
3. Если оба расстояния меньше некоторого критического значения, то гипотеза о нормальном распределении данных принимается.
https://boosty.to/denoise_lab/donate - фишки кода, полезные фичи или просто если вы хотите поддержать наш канал.
#DataAnalysis #NormalityTest #SampleMean #CovarianceMatrix #OrderStatistics #StandardNormalDistribution #WStatistic #MonteCarloSimulation
🔠 Как проверить нормальность набора данных или признака? (Часть_3)
✔️Ответ: Тест Д'Агостино
1. Вычисляются эксцесс и асимметрия выборки и эти значения сравниваются с ожидаемыми значениями для нормального распределения;
2. Расстояние между вычисленными и ожидаемыми значениями вычисляется для каждого из них;
3. Если оба расстояния меньше некоторого критического значения, то гипотеза о нормальном распределении данных принимается.
https://boosty.to/denoise_lab/donate - фишки кода, полезные фичи или просто если вы хотите поддержать наш канал.
#DataAnalysis #NormalityTest #SampleMean #CovarianceMatrix #OrderStatistics #StandardNormalDistribution #WStatistic #MonteCarloSimulation