DenoiseLAB
486 subscribers
1.33K photos
159 videos
3 files
1.57K links
Блог DenoiseLAB (машинное обучение, аналитика)

Информация в канале служит только для ознакомления и не является призывом к действию. Не нарушайте законы РФ и других стран. Мы не несем отвественность за ваши действия или бездействия.
Download Telegram
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_196

🔠 Можно ли создавать несколько кластерных индексов в одной таблице ? (Часть_3)

Частичное индексирование (Partial Indexing): PostgreSQL поддерживает частичное индексирование, которое позволяет создавать индексы только для подмножества данных в таблице. Это может быть полезно, если вам требуется оптимизировать выполнение запросов только для определенного диапазона значений или условий.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage

👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
👍2
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_196

🔠 Можно ли создавать несколько кластерных индексов в одной таблице ? (Часть_4)

Горизонтальное разделение данных (Horizontal Partitioning): Вместо создания разделенных кластерных индексов можно разделить данные на отдельные таблицы или схемы в зависимости от некоторого критерия, такого как временной период, регион или другие атрибуты. Затем можно создать кластерные индексы на каждой отдельной таблице или схеме для оптимизации запросов в пределах каждого раздела.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage

👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_196

🔠 Можно ли создавать несколько кластерных индексов в одной таблице ? (Часть_5)

Горизонтальное и вертикальное масштабирование (Sharding): Если вам требуется масштабирование базы данных на несколько узлов, можно использовать горизонтальное разделение данных (sharding), при котором данные разбиваются на несколько физических узлов. В этом случае каждый узел может иметь свою собственную копию таблицы с кластерным индексом.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage

👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_197

🔠 Как устроен декодер Transformers ? (Часть_1)

Декодер в архитектуре Transformers используется в задачах генерации текста, машинного перевода и других подобных задачах. Он выполняет обратную операцию по сравнению с энкодером и помогает генерировать последовательности на основе закодированного контекста.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage

👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_197

🔠 Как устроен декодер Transformers ? (Часть_2)

Декодер в Transformers состоит из нескольких блоков декодирования, которые могут быть идентичными или схожими с блоками кодирования в энкодере. Каждый блок декодирования обычно состоит из нескольких слоев самовнимания (self-attention) и позиционно-сетевой передачи (feed-forward).

Слои самовнимания позволяют декодеру фокусироваться на различных частях входной последовательности, а слои позиционно-сетевой передачи позволяют модели агрегировать информацию и генерировать последовательность на выходе.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage

👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_197

🔠 Как устроен декодер Transformers ? (Часть_3)

В отличие от энкодера, декодер также использует дополнительное самовнимание, называемое "маскированным самовниманием" (masked self-attention). Маскированное самовнимание гарантирует, что модель не имеет доступа к будущим токенам во время генерации и может использовать только текущие и предыдущие токены для прогнозирования следующего.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage

👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_197

🔠 Как устроен декодер Transformers ? (Часть_4)

В процессе генерации декодер применяет блоки декодирования последовательно к входной последовательности с маскированным самовниманием, чтобы генерировать выходную последовательность.

Обычно декодер также использует эмбеддинги токенов на входе и включает механизм внимания (attention), который помогает модели сконцентрироваться на важных частях контекста при генерации каждого токена.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage

👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_197

🔠 Как устроен декодер Transformers ? (Часть_5)

Кроме того, в декодере может быть добавлен механизм генерации (generation mechanism), такой как softmax или beam search, для выбора следующего токена на основе вероятностей, предсказанных моделью.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage

👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_198

🔠 Что такое TransformerXL ? (Часть_1)

TransformerXL (или Transformer-XL) - это модификация архитектуры Transformer, предложенная в 2019 году разработчиками из OpenAI. TransformerXL был разработан для решения проблемы ограниченной длины контекста, с которой сталкиваются стандартные модели Transformer при обработке длинных последовательностей.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_198

🔠 Что такое TransformerXL ? (Часть_2)

В стандартной архитектуре Transformer, как правило, используется фиксированный размер контекста, который ограничивает способность модели учитывать более длинные зависимости в данных. TransformerXL вводит два новых механизма для расширения контекста и улучшения моделирования длинных последовательностей:

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage