DenoiseLAB
486 subscribers
1.33K photos
159 videos
3 files
1.57K links
Блог DenoiseLAB (машинное обучение, аналитика)

Информация в канале служит только для ознакомления и не является призывом к действию. Не нарушайте законы РФ и других стран. Мы не несем отвественность за ваши действия или бездействия.
Download Telegram
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_198

🔠 Что такое TransformerXL ? (Часть_1)

TransformerXL (или Transformer-XL) - это модификация архитектуры Transformer, предложенная в 2019 году разработчиками из OpenAI. TransformerXL был разработан для решения проблемы ограниченной длины контекста, с которой сталкиваются стандартные модели Transformer при обработке длинных последовательностей.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_198

🔠 Что такое TransformerXL ? (Часть_2)

В стандартной архитектуре Transformer, как правило, используется фиксированный размер контекста, который ограничивает способность модели учитывать более длинные зависимости в данных. TransformerXL вводит два новых механизма для расширения контекста и улучшения моделирования длинных последовательностей:

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_198

🔠 Что такое TransformerXL ? (Часть_3)

Механизм относительного внимания (Relative Attention): В стандартном внимании Transformer используется абсолютная позиционная кодировка для определения расстояния между токенами. Однако в TransformerXL используется относительная позиционная кодировка, которая позволяет модели учитывать относительные расстояния между токенами, а не только абсолютные. Это позволяет модели обрабатывать более длинные контексты, не сталкиваясь с ограничениями фиксированного размера.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_198

🔠 Что такое TransformerXL ? (Часть_4)

Механизм памяти (Memory Mechanism): Вместо того, чтобы использовать только текущий контекст для предсказания следующего токена, TransformerXL сохраняет скрытое состояние модели на каждом шаге и использует его в качестве дополнительной памяти, которая может быть доступна для будущих шагов. Это позволяет модели учитывать дальние зависимости и обрабатывать длинные последовательности.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_199

🔠 Что такое XLNet ?

XLNet - это модель языкового представления, представленная в 2019 году командой Google Research. Она основана на архитектуре Transformer и предназначена для решения задачи обучения без учителя, такой как языковое моделирование.

Основная идея XLNet состоит в том, чтобы учитывать все возможные перестановки токенов во входной последовательности при обучении модели. В отличие от моделей, таких как GPT (Generative Pre-trained Transformer), которые используют авторегрессионный подход и предсказывают следующий токен в последовательности, XLNet применяет перестановку токенов и моделирует вероятность каждой перестановки.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_199

🔠 Что такое XLNet ? (Часть_2)

Вот основные особенности XLNet:

Перестановка токенов: Вместо прогнозирования следующего токена в последовательности, XLNet моделирует вероятность для всех возможных перестановок входных токенов. Это позволяет модели учитывать контекст из всех токенов в последовательности, а не только из предшествующих токенов.

Метод маскирования: XLNet использует метод маскирования, похожий на BERT (Bidirectional Encoder Representations from Transformers), чтобы модель не имела информации о будущих токенах при обучении и предсказывала каждый токен только на основе доступных контекстных токенов.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_199

🔠 Что такое XLNet ? (Часть_3)

Вот основные особенности XLNet:

Интеграция сегментных и позиционных векторов: В XLNet используются сегментные и позиционные векторы, аналогично другим моделям Transformer, чтобы модель могла различать различные сегменты входных данных и учитывать их позицию в последовательности.

Многошаговая обучающая процедура: XLNet использует многошаговую процедуру обучения, включающую прямое и обратное моделирование перестановок токенов, чтобы модель могла захватывать как локальные, так и глобальные зависимости в данных.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_200

🔠Что такое BART ?

BART (Bidirectional and Auto-regressive Transformer) - это модель глубокого обучения, представленная в 2019 году командой Facebook AI Research. Она основана на архитектуре Transformer и используется для решения задач обработки естественного языка, включая машинный перевод, суммаризацию текста и генерацию текста.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_200

🔠Что такое BART ? (Часть_2)

Основная идея BART состоит в комбинировании двух методов: авторегрессионного моделирования и обратного перевода. BART обучается предсказывать целевую последовательность текста, используя авторегрессионный подход, где модель генерирует следующий токен на основе предыдущих токенов. Однако, в отличие от других авторегрессионных моделей, BART также использует обратное моделирование, где модель пытается восстановить исходный текст из зашумленной версии.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_200

🔠Что такое BART ? (Часть_3)

Вот основные особенности BART:

Авторегрессионное моделирование: BART использует авторегрессионный подход, где модель генерирует последовательность текста, предсказывая каждый следующий токен на основе предыдущих.

Обратное моделирование: BART также использует обратное моделирование, где модель пытается восстановить исходный текст из зашумленной версии. Это помогает модели обучаться качественно представлять исходную информацию и улучшает ее способность к генерации текста.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
https://arxiv.org/pdf/2402.03780.pdf - тут по работе разбирал статьи и наткнулся вот на такую, все кто занимается NLP и смежными задачами советую ознакомиться.
https://arxiv.org/pdf/2309.11052.pdf - неплохая статья про выявление фейковых новостей, как это реализовано на практике.

Еще одна история, то же по данной теме: https://arxiv.org/ftp/arxiv/papers/2306/2306.00018.pdf
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_200

🔠Что такое BART ? (Часть_4)

Вот основные особенности BART:

Pre-training и Fine-tuning: BART проходит две стадии обучения. Сначала модель предварительно обучается на большом неразмеченном тексте, а затем дообучается на задачах, специфичных для конкретной задачи, таких как машинный перевод или суммаризация.

Многоязычная поддержка: BART может быть обучен на нескольких языках и использоваться для задач машинного перевода между различными языковыми парами.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_200

🔠Что такое BART ? (Часть_5)

BART демонстрирует хорошие результаты в задачах машинного перевода, генерации текста и суммаризации. Его комбинация авторегрессионного и обратного моделирования позволяет модели генерировать качественный и связный текст с учетом контекста и заданных условий.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
👍2
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_201

🔠Что такое mBART ? (Часть_1)

mBART (multilingual BART) - это многоязычная версия модели BART (Bidirectional and Auto-regressive Transformer). Она была представлена в 2020 году командой Facebook AI Research и предназначена для решения задач машинного перевода между различными языками.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_201

🔠Что такое mBART ? (Часть_2)

Основная цель mBART состоит в том, чтобы создать единую модель, способную обрабатывать несколько языков, без необходимости обучать отдельные модели для каждого языка. mBART обучается на параллельных корпусах текста, содержащих переводы между различными языковыми парами.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_201

🔠Что такое mBART ? (Часть_3)

Вот основные особенности mBART:

Многоязычная обработка: mBART обучается на нескольких языках и может использоваться для машинного перевода между различными языковыми парами. Она позволяет обрабатывать тексты на разных языках с использованием единой модели.

Общий словарь: mBART использует общий словарь, который содержит токены из всех поддерживаемых языков. Это позволяет модели обрабатывать тексты на разных языках с использованием одних и тех же внутренних представлений.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_201

🔠Что такое mBART ? (Часть_4)

Вот основные особенности mBART:

Языковая кодировка: mBART использует специальные токены для указания языка и направления перевода. Это помогает модели правильно интерпретировать входные и выходные последовательности текста и выполнять переводы между разными языками.

Fine-tuning: Подобно BART, mBART может быть дообучена на задачах, специфичных для конкретной задачи, таких как машинный перевод или суммаризация.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_202

🔠Что такое deBERTa ? (Часть_1)

DeBERTa (Deep Bidirectional Transformers for Language Understanding) - это модель глубокого обучения, основанная на трансформерах, которая предназначена для решения задач обработки естественного языка (NLP). DeBERTa является эволюционным улучшением модели BERT (Bidirectional Encoder Representations from Transformers) и включает в себя ряд улучшений.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration