[Перевод] Transformer в картинках
#Машинноеобучение #NLP #transformer #трансформер #selfattention #внутреннеевнимание IV
https://habr.com/ru/post/486358/
#Машинноеобучение #NLP #transformer #трансформер #selfattention #внутреннеевнимание IV
https://habr.com/ru/post/486358/
t.me
Transformer в картинках
В прошлой статье мы рассматривали механизм внимания (attention) – чрезвычайно распространенный метод в современных моделях глубокого обучения, позволяющий улучши...
[Перевод] Трансформеры как графовые нейронные сети
#DataMining #Машинноеобучение #deeplearning #naturallanguageprocessing #graphneuralnetworks #transformer #обработкаестественногоязыка IV
https://habr.com/ru/post/491576/
#DataMining #Машинноеобучение #deeplearning #naturallanguageprocessing #graphneuralnetworks #transformer #обработкаестественногоязыка IV
https://habr.com/ru/post/491576/
t.me
Трансформеры как графовые нейронные сети
TL;DR: перевод поста Chaitanya Joshi "Transformers are Graph Neural Networks": схемы, формулы, идеи, важные ссылки. Публикуется с любезного разрешения автора.Дру...
[Перевод] Reformer — Эффективный Трансформер
#Машинноеобучение #NLP #Reformer #Transformer IV
https://habr.com/ru/post/522622/
#Машинноеобучение #NLP #Reformer #Transformer IV
https://habr.com/ru/post/522622/
t.me
Reformer — Эффективный Трансформер
Понимание последовательно организованных данных – будь то язык, музыка или видео – трудная задача, особенно в случаях, когда они сильно зависят от контекста, ко...
Краткость — сестра таланта: Как сделать Transformer/Summarizer на Trax
#Python #Машинноеобучение #Искусственныйинтеллект #NaturalLanguageProcessing #NLP #transformer #trax IV
https://habr.com/ru/post/543278/
#Python #Машинноеобучение #Искусственныйинтеллект #NaturalLanguageProcessing #NLP #transformer #trax IV
https://habr.com/ru/post/543278/
t.me
Краткость — сестра таланта: Как сделать Transformer/Summarizer на Trax
В новой курсеровской специализации «NLP» от deeplearning.ai в качестве библиотеки глубокого обучения используется Trax. В последнем курсе подробно разбирается ме...
[Перевод] Построение моделей Трансформера для больших последовательностей с помощью методов разреженного внимания
#Машинноеобучение #NLP #Transformer #SparseAttention IV
https://habr.com/ru/post/558488/
#Машинноеобучение #NLP #Transformer #SparseAttention IV
https://habr.com/ru/post/558488/
t.me
Построение моделей Трансформера для больших последовательностей с помощью методов разреженного внимания
Модели обработки естественного языка (Natural language processing, NLP) на основе архитектуры Трансформеров, такие как BERT, RoBERTa, T5 или GPT3, успешно примен...
[Перевод] Краткий обзор методик обучения визуально-языковых (мультимодальных) моделей
#Машинноеобучение #NaturalLanguageProcessing #векторизация #transformers #transformer #nlp #attention IV
https://habr.com/ru/articles/785784/
#Машинноеобучение #NaturalLanguageProcessing #векторизация #transformers #transformer #nlp #attention IV
https://habr.com/ru/articles/785784/
Хабр
Краткий обзор методик обучения визуально-языковых (мультимодальных) моделей
Мультимодальное обучение — это процесс изучения представлений разных типов данных для разных модальностей, т. е. каналов восприятия информации, внутри одной модели . У разных модальностей — разные...
Мультимодальный трансформер для content-based рекомендаций
#БлогкомпанииЦиан #Машинноеобучение #recsys #transformer #рекомендательныесистемы #трансформеры
https://habr.com/ru/companies/cian/articles/803723/
#БлогкомпанииЦиан #Машинноеобучение #recsys #transformer #рекомендательныесистемы #трансформеры
https://habr.com/ru/companies/cian/articles/803723/
Хабр
Мультимодальный трансформер для content-based рекомендаций
На первый взгляд может показаться, что ничего интересного в области RecSys не происходит и там всё давно решено: собираем взаимодействия пользователей и товаров, закидываем в какую-нибудь библиотеку,...
Attention is Not All You Need: как менялась архитектура трансформера
#Искусственныйинтеллект #NaturalLanguageProcessing #naturallanguageprocessing #transformer #machinelearning #ai #deeplearning
https://habr.com/ru/articles/804119/
#Искусственныйинтеллект #NaturalLanguageProcessing #naturallanguageprocessing #transformer #machinelearning #ai #deeplearning
https://habr.com/ru/articles/804119/
Хабр
Attention is Not All You Need: как менялась архитектура трансформера
С момента выхода оригинальной статьи про трансформер прошло уже больше 7 лет, и эта архитектура перевернула весь DL: начав с NLP она теперь применяется везде, включая генерацию картинок. Но та ли это...
Как учить большие языковые модели (теоретический туториал)
#Машинноеобучение #Искусственныйинтеллект #NaturalLanguageProcessing #llm #большиеязыковыемодели #трансформер #transformer
https://habr.com/ru/articles/809037/
#Машинноеобучение #Искусственныйинтеллект #NaturalLanguageProcessing #llm #большиеязыковыемодели #трансформер #transformer
https://habr.com/ru/articles/809037/
Хабр
Как учить большие языковые модели (теоретический туториал)
Последний год я активно работал в проектах, связанных с обучением и использованием больших языковых моделей (LLM). В какие-то темы углублялся сильнее, а какие-то изучал поверхностно для общего...