DenoiseLAB
486 subscribers
1.33K photos
159 videos
3 files
1.57K links
Блог DenoiseLAB (машинное обучение, аналитика)

Информация в канале служит только для ознакомления и не является призывом к действию. Не нарушайте законы РФ и других стран. Мы не несем отвественность за ваши действия или бездействия.
Download Telegram
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_201

🔠Что такое mBART ? (Часть_4)

Вот основные особенности mBART:

Языковая кодировка: mBART использует специальные токены для указания языка и направления перевода. Это помогает модели правильно интерпретировать входные и выходные последовательности текста и выполнять переводы между разными языками.

Fine-tuning: Подобно BART, mBART может быть дообучена на задачах, специфичных для конкретной задачи, таких как машинный перевод или суммаризация.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_202

🔠Что такое deBERTa ? (Часть_1)

DeBERTa (Deep Bidirectional Transformers for Language Understanding) - это модель глубокого обучения, основанная на трансформерах, которая предназначена для решения задач обработки естественного языка (NLP). DeBERTa является эволюционным улучшением модели BERT (Bidirectional Encoder Representations from Transformers) и включает в себя ряд улучшений.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_202

🔠Что такое deBERTa ? (Часть_2)

Одним из ключевых улучшений DeBERTa является различная обработка маскированных (замаскированных) токенов. В модели BERT маскированные токены обрабатываются одинаковым образом, что может приводить к потере информации. В DeBERTa используется динамическое выравнивание внимания для маскированных токенов, что позволяет модели лучше улавливать зависимости и контекст в предложениях.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_202

🔠Что такое deBERTa ? (Часть_3)

DeBERTa также вводит новую архитектуру для моделирования отношений между токенами, называемую "реляционным моделированием". Это позволяет модели более эффективно улавливать зависимости и взаимодействия между токенами в предложениях.

Основная идея DeBERTa состоит в улучшении способности модели понимать и моделировать глубокие зависимости и контекстуальные взаимосвязи в тексте. Это позволяет модели достигать лучших результатов в различных задачах NLP, таких как классификация текста, извлечение информации, вопросно-ответные системы и многие другие.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_203

🔠Что такое Turing_-NLG ? (Часть_1)

Turing-NLG (Turing Natural Language Generation) - это система генерации естественного языка, разработанная компанией OpenAI. Она названа в честь английского математика и логика Алана Тьюринга.

Turing-NLG основана на архитектуре GPT (Generative Pre-trained Transformer) и является одной из версий модели GPT, разработанных OpenAI. Она обучена на огромном объеме текстовых данных и способна генерировать качественные тексты в различных стилях и жанрах.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_203

🔠Что такое Turing_-NLG ? (Часть_2)

Одно из главных преимуществ Turing-NLG заключается в его способности к контролируемой генерации текста. С помощью подхода, называемого "промпт-инжиниринг" (prompt engineering), пользователи могут задавать системе конкретные инструкции или контекст, чтобы получать желаемые результаты. Например, можно попросить систему продолжить предложение, ответить на вопрос, описать изображение и т.д.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_204

🔠Что такое ALBERT (A Lite BERT) ? (Часть_1)

ALBERT является уменьшенной версией BERT, которая использует параметризацию параллельного масштабирования и параллельного обучения для уменьшения количества параметров и вычислительной сложности.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_204

🔠Что такое ALBERT (A Lite BERT) ? (Часть_2)

Она использует два ключевых принципа для уменьшения количества параметров и вычислительной сложности:

- Факторизация параметризации эмбеддингов: В ALBERT матрица эмбеддингов разделяется между векторами входного слоя с относительно небольшой размерностью (например, 128), в то время как вектора скрытого слоя используют большие размерности (768, как в случае с BERT'ом, и больше). Это позволяет существенно уменьшить количество параметров проекционного блока, снижая при этом количество параметров на 80%.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_205

🔠Что такое SpanBERT ? (Часть_1)

SpanBERT — это предварительно обученный метод, разработанный для лучшего представления и предсказания интервалов текста. В отличие от BERT, который маскирует случайные токены, SpanBERT маскирует случайные непрерывные интервалы (spans) текста. Кроме того, в SpanBERT используется новый подход к обучению границ интервалов (Span-Boundary Objective, SBO), чтобы модель училась предсказывать весь маскированный интервал, используя только контекст, в котором он появляется.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
This media is not supported in your browser
VIEW IN TELEGRAM
🥵🥵🥵Когда у тебя "лютый" дедлайн, но в целом все идет по плану )))
Please open Telegram to view this post
VIEW IN TELEGRAM
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_205

🔠Что такое SpanBERT ? (Часть_2)

SpanBERT был разработан для улучшения предварительного обучения, так как многие задачи обработки естественного языка (NLP) требуют логического вывода о отношениях между двумя или более интервалами текста.

Например, в задачах извлечения ответов на вопросы (extractive question answering) определение того, что "Denver Broncos" является типом "NFL team", критически важно для ответа на вопрос "Какой NFL команде выиграл Супербоул 50?"

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_205

🔠Что такое SpanBERT ? (Часть_3)

SpanBERT показал значительные улучшения в задачах выбора интервалов, таких как ответы на вопросы и разрешение кореференций, и достиг новых результатов в этих задачах. Например, с теми же данными обучения и размером модели, как у BERT-large, SpanBERT получил 94,6% F1 на SQuAD 1.1 и 88,7% F1 на SQuAD 2.0 соответственно.

Также SpanBERT достиг нового лучшего результата на задаче разрешения кореференций OntoNotes (79,6% F1) и показал хорошую производительность на бенчмарке TACRED для извлечения отношений

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#DeepLearning #NeuralNetworks #NaturalLanguageProcessing #SequenceModeling #ModelArchitecture #LongRangeDependencies #TextGeneration
WAQI - мировой индекс качества воздуха. Мониторится в режиме реального времени.

https://waqi.info/
🅰️🅰️Часто по работе приходится сталкиваться с генерацией "липовых" почтовых ящиков для не самых нужных функций. Вот собрал список вам, может тоже окажется полезным.

Jaz mail
InstAddr
Erine.email
Maildrop
Mailsac
Anonbox
Inboxes
Mailcatch
Mailpro
Tempmail
Emailfake
Tempr.email
Email Generator
Yopmail
One Off
Moakt
33Mail
10-минутная почта
Emaildrop
FakeMail
Tempinbox
TemporaryMail
Mailinator
Dispostable
GuerrillaMail
Email On Deck
Crazy Mailing
Mohmal
Trash-mail
Please open Telegram to view this post
VIEW IN TELEGRAM
🔤Последнее время читаю вот эту книжку, в целом написано неплохо, но больше напоминает, чью-то диссертацию с кучей отсылок и рассуждений на разные темы. В целом есть много хороших рецептов по работе с моделями и настройке гиперпарамметров.

🔤К чему это все, сейчас начинаю пополнять бусты и выкладывать готовый код, так как его накопилось уже просто уйма, там и готовые модели и анализ, так что открываем серию "готовый код в прод". Следите за обновлениями, и начинаем постить на регулярной основе.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1