DenoiseLAB
486 subscribers
1.33K photos
159 videos
3 files
1.57K links
Блог DenoiseLAB (машинное обучение, аналитика)

Информация в канале служит только для ознакомления и не является призывом к действию. Не нарушайте законы РФ и других стран. Мы не несем отвественность за ваши действия или бездействия.
Download Telegram
100 Вопросов по Машинному обучению (Machine Learning) - Вопрос_88

🔠Q_89: Что такое glove ?

✔️Ответ:

Global Vectors for Word Representation (GloVe) - это метод представления слов в виде векторов в компьютерных моделях. Он позволяет представить семантические и синтаксические отношения между словами в числовой форме. Эти векторы могут быть использованы для обработки естественного языка, анализа текстов и других задач.

#work #datalake #algorithms #math #ml #dl #tree #learning #machine #devops #coding #apache #glove
100 Вопросов по Машинному обучению (Machine Learning) - Вопрос_90

🔠Q_90: Что такое hbase ?

✔️Ответ:

HBase (Hadoop Database) - это распределенная система хранения данных, которая работает на основе Apache Hadoop. Она предоставляет возможность хранить и обрабатывать большие объемы структурированных данных в реальном времени. HBase базируется на модели ключ-значение и построена на основе Hadoop Distributed File System (HDFS). Она предоставляет высокую отказоустойчивость, масштабируемость и производительность при обработке больших данных. HBase широко используется в области аналитики, поиска и хранения данных в реальном времени для различных приложений.

#work #datalake #algorithms #math #ml #dl #tree #learning #machine #devops #coding #apache #glove
⚠️100 CEH (Certificated Ethical Hacker) - Вопрос_68

🔠Q68: Что такое маска подсети ?

✔️Ответ

Маска подсети - это числовое значение, которое определяет, какая часть IP-адреса сети относится к сетевой части, а какая к хосту. Она состоит из последовательности битов, где значение 1 указывает на сетевую часть, а значение 0 - на часть, отведенную для хоста. Маска подсети используется для разделения IP-адресов на сети и подсети, позволяя устройствам в сети определить, являются ли они частью одной сети или нет.

🔥🔥🔥Отказ от ответственности: Материалы публикуем в канале несут лишь информационный характер, редакция канала не несет ответственности за ваши возможные действия и последующие за ними последствия. Мы также не призываем вас нарушать закон.

#apfs #system #os #penetration #server #rc6 #rc5 #qa #analysis #proxy #mask #net
⚠️100 CEH (Certificated Ethical Hacker) - Вопрос_69

🔠Q69: Что такое 127.0.0.1 и localhost?

✔️Ответ

127.0.0.1 и localhost оба относятся к локальному адресу в компьютерных сетях. Этот адрес используется для обращения к собственному компьютеру, что обеспечивает возможность тестирования или взаимодействия с локальными серверами и сервисами, не выходя в Интернет. 127.0.0.1 - это IP-адрес loopback, который всегда указывает на текущий компьютер. "localhost" является понятным именем домена, которое также упирается в 127.0.0.1. При обращении к 127.0.0.1 или localhost через веб-браузер вы обычно просматриваете содержимое локального веб-сервера на вашем компьютере.

🔥🔥🔥Отказ от ответственности: Материалы публикуем в канале несут лишь информационный характер, редакция канала не несет ответственности за ваши возможные действия и последующие за ними последствия. Мы также не призываем вас нарушать закон.

#apfs #system #os #penetration #server #rc6 #rc5 #qa #analysis #proxy #mask #net
100 Вопросов по Машинному обучению (Machine Learning) - Вопрос_91

🔠Q_91: Что такое HDInsight ?

✔️Ответ:

HDInsight - это облачная платформа анализа больших данных, предоставляемая компанией Microsoft. Она позволяет организациям обрабатывать и анализировать огромные объемы данных с использованием инструментов и технологий с открытым исходным кодом, таких как Hadoop, Spark, Hive, HBase и другие. HDInsight обеспечивает масштабируемость, надежность и гибкость для работы с данными и решениями анализа Big Data.

#work #datalake #algorithms #math #ml #dl #tree #learning #machine #devops #coding #apache #glove
⚠️100 CEH (Certificated Ethical Hacker) - Вопрос_70

🔠Q70: В чем разница между RDP и KVM? ?

✔️Ответ

Протокол RDP или протокол удаленного рабочего стола является основным методом, с помощью которого можно осуществлять удаленный доступ к системам Windows для устранения неполадок, и является программным методом.
KVM или Keyboard Video and Mouse, с другой стороны, обеспечивают быстрое переключение между различными системами, но с использованием одной и той же клавиатуры, монитора и мыши. KVM обычно представляет собой аппаратно-управляемую систему с распределительной коробкой, размещенной между пользователем и соответствующими системами.

🔥🔥🔥Отказ от ответственности: Материалы публикуем в канале несут лишь информационный характер, редакция канала не несет ответственности за ваши возможные действия и последующие за ними последствия. Мы также не призываем вас нарушать закон.

#apfs #system #os #penetration #server #rc6 #rc5 #qa #analysis #proxy #mask #net
⚠️100 CEH (Certificated Ethical Hacker) - Вопрос_71

🔠Q71: Что такое проброс портов?

✔️Ответ

Использование таблицы переадресации портов в самом маршрутизаторе или другом устройстве управления соединениями может позволить автоматически перенаправлять определенный трафик в конкретный пункт назначения.
Если в вашей сети работает веб-сервер и вы хотите, чтобы доступ к нему был предоставлен извне, вы должны настроить переадресацию портов на порт 80 на рассматриваемом сервере. Это будет означать, что любой, кто введет ваш IP-адрес в веб-браузер, будет немедленно подключен к веб-сайту сервера.

🔥🔥🔥Отказ от ответственности: Материалы публикуем в канале несут лишь информационный характер, редакция канала не несет ответственности за ваши возможные действия и последующие за ними последствия. Мы также не призываем вас нарушать закон.

#apfs #system #os #penetration #server #rc6 #rc5 #qa #analysis #proxy #mask #net
100 Вопросов по Машинному обучению (Machine Learning) - Вопрос_92

🔠Q_92: Как устроен Apache Hive ? (Часть_1)

✔️Ответ:

Внутренне Hive состоит из следующих компонентов:

1. Hive Query Language (HQL): HQL - это SQL-подобный язык запросов, который позволяет пользователям писать запросы для анализа и обработки данных. HQL компилируется в MapReduce-задачи, которые выполняются в рамках Hadoop кластера.

2. Metastore: Metastore - это регистр метаданных, который хранит информацию о схемах данных, таблицах, столбцах и других объектах Hive. Metastore может использовать различные базы данных, такие как Apache Derby, MySQL, PostgreSQL и другие.

#work #datalake #algorithms #math #ml #dl #tree #learning #machine #devops #coding #apache #glove
100 Вопросов по Машинному обучению (Machine Learning) - Вопрос_92

🔠Q_92: Как устроен Apache Hive ? (Часть_2)

✔️Ответ:

3. Query Compiler: Query Compiler - это компонент, ответственный за компиляцию HQL запросов в MapReduce-задачи. Query Compiler анализирует запросы, оптимизирует их выполнение и создает соответствующие задачи для распределенного выполнения.

4. Execution Engine: Execution Engine - это компонент, который выполняет компилированные MapReduce-задачи на Hadoop кластере. Execution Engine доставляет данные из источников данных, выполняет запросы и сохраняет результаты в соответствующих местах хранения.

5. Driver: Driver - это компонент, который принимает запросы HQL и координирует выполнение всех вышеперечисленных компонентов. Driver обрабатывает пользовательские запросы, управляет взаимодействием с Metastore, вызывает Query Compiler и запускает Execution Engine для выполнения запросов.

#work #datalake #algorithms #math #ml #dl #tree #learning #machine #devops #coding #apache #glove
⚠️100 CEH (Certificated Ethical Hacker) - Вопрос_73

🔠Q73: Что это значит, когда вы получаете ошибку NTFS Error: 5? ?

✔️Ответ

Ошибка NTFS error: 5 означает, что произошла проблема с доступом к файловой системе NTFS на вашем компьютере. Возможная причина этой ошибки может быть связана с повреждением файловой системы, некорректной конфигурацией или некорректными разрешениями доступа к файлам и папкам.

🔥🔥🔥Отказ от ответственности: Материалы публикуем в канале несут лишь информационный характер, редакция канала не несет ответственности за ваши возможные действия и последующие за ними последствия. Мы также не призываем вас нарушать закон.

#apfs #system #os #penetration #server #rc6 #rc5 #qa #analysis #proxy #mask #net
⚠️100 CEH (Certificated Ethical Hacker) - Вопрос_72

🔠Q72: Что такое SNMP ?

✔️Ответ

SNMP (Simple Network Management Protocol) - это простой протокол управления сетью, который используется для мониторинга и управления сетевыми устройствами. Он позволяет собирать информацию о состоянии устройств, такую как загрузка процессора, использование памяти, трафик на интерфейсах и прочее, и передавать ее на управляющую систему. Также SNMP позволяет удаленно управлять устройствами, изменять их настройки или выполнять определенные действия. SNMP состоит из менеджера (управляющая система) и агентов (сетевые устройства, поддерживающие протокол).

🔥🔥🔥Отказ от ответственности: Материалы публикуем в канале несут лишь информационный характер, редакция канала не несет ответственности за ваши возможные действия и последующие за ними последствия. Мы также не призываем вас нарушать закон.

#apfs #system #os #penetration #server #rc6 #rc5 #qa #analysis #proxy #mask #net
100 Вопросов по Машинному обучению (Machine Learning) - Вопрос_93

🔠Q_93: Что такое HortonWorks ?

✔️Ответ:

Hortonworks Data Platform (HDP) - полноценное решение для хранения, обработки и анализа данных.

HDP основана на открытых стандартах и технологиях, таких как Apache Hadoop, Apache Hive, Apache HBase, Apache Spark и др. Эта платформа предоставляет большие возможности для обработки и анализа данных, включая сбор, хранение и обработку больших объемов структурированных и неструктурированных данных. HDP также обеспечивает высокую производительность и масштабируемость, позволяя работать с данными в реальном времени.

Hortonworks также предлагает различные инструменты и сервисы для управления и мониторинга данных. Это включает в себя Hortonworks DataPlane Service (DPS), который предоставляет централизованное управление данными, а также Hortonworks SmartSense, который предоставляет аналитические средства для мониторинга и оптимизации использования платформы.
100 Вопросов по Машинному обучению (Machine Learning) - Вопрос_94

🔠Q_94: Какова состав и архитектура HortonWorks ? (Часть_1)

✔️Ответ:

1. Apache Hadoop: Это основа Hortonworks, предоставляющая хранение и обработку больших объемов данных с использованием распределенных вычислений.

2. Apache Hive: Фреймворк для обработки и анализа данных, который позволяет использовать SQL-подобный язык запросов для доступа к данным, сохраненным в Hadoop.

#work #datalake #algorithms #math #ml #dl #tree #learning #machine #bigdata #coding #apache
100 Вопросов по Машинному обучению (Machine Learning) - Вопрос_94

🔠Q_94: Какова состав и архитектура HortonWorks ? (Часть_2)

✔️Ответ:

3. Apache Pig: Удобный язык программирования для обработки и анализа данных. Pig использует свой собственный язык скриптования и выполнение на Hadoop.

4. Apache HBase: Распределенная, масштабируемая база данных, построенная поверх Apache Hadoop. HBase обеспечивает быстрый доступ к большим объемам структурированных данных.

5. Apache Spark: Мощный фреймворк для обработки больших данных, который может работать на вершине Hadoop. Spark предоставляет высокую производительность, поддержку для различных типов задач и языков программирования.

#work #datalake #algorithms #math #ml #dl #tree #learning #machine #bigdata #coding #apache #hortonworks
100 Вопросов по Машинному обучению (Machine Learning) - Вопрос_94

🔠Q_94: Какова состав и архитектура HortonWorks ? (Часть_3)

✔️Ответ:

6. Apache Ambari: Инструмент для управления и мониторинга кластеров Hadoop. Ambari предоставляет графический интерфейс пользователя для управления и настройки различных компонентов Hadoop.

7. Apache Knox: Прокси-сервер, который обеспечивает безопасность и аутентификацию для удаленного доступа к кластерам Hadoop.

8. Apache Atlas: Инструмент для управления метаданными и поиска в больших объемах данных. Позволяет искать данные на основе их характеристик, отношений и связей.

#work #datalake #algorithms #math #ml #dl #tree #learning #machine #bigdata #coding #apache #hortonworks
https://taplink.cc/denoiselab - запили норм визитку со всеми контактами и кейсами, мне прям нравится
100 Вопросов по Машинному обучению (Machine Learning) - Вопрос_95

🔠Q_95: Какие службы управляют потоками в HortonWorks ? (Часть_3)

✔️Ответ:

1. Apache Kafka: распределенная платформа для потокового обработки и передачи сообщений. HDP включает Apache Kafka в качестве основной службы управления потоками данных.

2. Apache NiFi: служба потоковой обработки данных, которая позволяет легко контролировать и передвигать данные между различными источниками и назначениями. NiFi может использоваться для сбора, агрегации и маршрутизации потоков данных в реальном времени.

#work #datalake #algorithms #math #ml #dl #tree #learning #machine #bigdata #coding #apache #hortonworks
Список полезностей ML/SC №1

Нашел вот такой нехитрый поисковик по ключевым словам в телеге.

👍Ссылка: https://telegcrack.com/ru/

В целом работает неплохо. Можно всегда быть в курсе самых последних новостей по интересующей вас тематике. Поддерживается опция поиска в "заголовках", и "точное совпадение". По ключевым словам искать самое то, очень полезная в целом тулза, минималистичный дизайн, ничего лишнего.

#work #seo #search #telega #info
100 Вопросов по Машинному обучению (Machine Learning) - Вопрос_95

🔠Q_95: Какие службы управляют потоками в HortonWorks ? (Часть_2)

✔️Ответ:

3. Apache Storm: масштабируемая и распределенная система обработки потоков данных в реальном времени. Storm позволяет анализировать, обрабатывать и обновлять потоки данных на ходу.

4. Apache Flink: распределенная система обработки потоков данных и аналитики в реальном времени. Flink предлагает высокую пропускную способность, низкую задержку и точность гарантии обработки данных.

5. Apache Spark Streaming: позволяет проводить потоковую обработку данных с использованием машинного обучения, графовых алгоритмов и SQL-запросов.

#work #datalake #algorithms #math #ml #dl #tree #learning #machine #bigdata #coding #apache #hortonworks
100 Вопросов по Машинному обучению (Machine Learning) - Вопрос_96

🔠Q_96: Что такое Cloudera Impala ?

✔️Ответ:

Cloudera Impala - это интерактивная аналитическая база данных с открытым исходным кодом, которая предоставляет мощную и быструю аналитику для обработки больших объемов данных в реальном времени.

Impala была разработана компанией Cloudera и предоставляет SQL-подобный интерфейс для чтения, записи и аналитической обработки данных, хранящихся в Apache Hadoop.

Она позволяет пользователям выполнять сложные запросы и анализировать данные в режиме реального времени без необходимости перемещать данные из Hadoop в другие системы для обработки.

Написана на С++, и распространяется по лицензии Apache 2.0. Это MPP-движок, распределенная СУБД и база данных стека SQL-on-Hadoop.

#work #datalake #algorithms #math #ml #dl #tree #learning #machine #bigdata #coding #apache #impala