DenoiseLAB
486 subscribers
1.33K photos
159 videos
3 files
1.57K links
Блог DenoiseLAB (машинное обучение, аналитика)

Информация в канале служит только для ознакомления и не является призывом к действию. Не нарушайте законы РФ и других стран. Мы не несем отвественность за ваши действия или бездействия.
Download Telegram
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_197

🔠 Как устроен декодер Transformers ? (Часть_1)

Декодер в архитектуре Transformers используется в задачах генерации текста, машинного перевода и других подобных задачах. Он выполняет обратную операцию по сравнению с энкодером и помогает генерировать последовательности на основе закодированного контекста.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage

👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_197

🔠 Как устроен декодер Transformers ? (Часть_2)

Декодер в Transformers состоит из нескольких блоков декодирования, которые могут быть идентичными или схожими с блоками кодирования в энкодере. Каждый блок декодирования обычно состоит из нескольких слоев самовнимания (self-attention) и позиционно-сетевой передачи (feed-forward).

Слои самовнимания позволяют декодеру фокусироваться на различных частях входной последовательности, а слои позиционно-сетевой передачи позволяют модели агрегировать информацию и генерировать последовательность на выходе.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage

👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_197

🔠 Как устроен декодер Transformers ? (Часть_3)

В отличие от энкодера, декодер также использует дополнительное самовнимание, называемое "маскированным самовниманием" (masked self-attention). Маскированное самовнимание гарантирует, что модель не имеет доступа к будущим токенам во время генерации и может использовать только текущие и предыдущие токены для прогнозирования следующего.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage

👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_197

🔠 Как устроен декодер Transformers ? (Часть_4)

В процессе генерации декодер применяет блоки декодирования последовательно к входной последовательности с маскированным самовниманием, чтобы генерировать выходную последовательность.

Обычно декодер также использует эмбеддинги токенов на входе и включает механизм внимания (attention), который помогает модели сконцентрироваться на важных частях контекста при генерации каждого токена.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage

👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_197

🔠 Как устроен декодер Transformers ? (Часть_5)

Кроме того, в декодере может быть добавлен механизм генерации (generation mechanism), такой как softmax или beam search, для выбора следующего токена на основе вероятностей, предсказанных моделью.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage

👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_198

🔠 Что такое TransformerXL ? (Часть_1)

TransformerXL (или Transformer-XL) - это модификация архитектуры Transformer, предложенная в 2019 году разработчиками из OpenAI. TransformerXL был разработан для решения проблемы ограниченной длины контекста, с которой сталкиваются стандартные модели Transformer при обработке длинных последовательностей.

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_198

🔠 Что такое TransformerXL ? (Часть_2)

В стандартной архитектуре Transformer, как правило, используется фиксированный размер контекста, который ограничивает способность модели учитывать более длинные зависимости в данных. TransformerXL вводит два новых механизма для расширения контекста и улучшения моделирования длинных последовательностей:

https://boosty.to/denoise_lab/donate - поддержать наш канал.

#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
300 Вопросов по Машинному обучению (Machine Learning) - Вопрос_223

🔠 Что такое супер-полносвязные нейронные сети ? (Часть_1)

Супер-полносвязные разреженные сети (Super-Sparse Fully Connected Networks) - это концепция в области машинного обучения, которая касается методов оптимизации и уменьшения размерности нейронных сетей.

Основная идея заключается в использовании техник, таких как L0-регуляризация и dropout, для создания более эффективных и компактных моделей. Эти методы помогают уменьшить количество параметров в сети, делая ее более разреженной, что может улучшить производительность и уменьшить потребление ресурсов.

#full_connected_net #neural_network #ds #analytics #optimization
300 Вопросов по Машинному обучению (Machine Learning) - Вопрос_223

🔠 Что такое супер-полносвязные нейронные сети ? (Часть_2)

L0-регуляризация представляет собой подход, который позволяет обнулять веса нейронов, тем самым уменьшая общее количество параметров в сети. Этот метод может быть особенно полезен для уменьшения размерности модели и повышения ее эффективности. Однако, его использование требует тщательного планирования и тестирования, поскольку неправильное применение может привести к нежелательным изменениям в структуре сети.

#full_connected_net #neural_network #ds #analytics #optimization
300 Вопросов по Машинному обучению (Machine Learning) - Вопрос_223

🔠 Что такое супер-полносвязные нейронные сети ? (Часть_3)

Dropout - это еще одна техника, используемая для увеличения разреженности сети путем случайного исключения нейронов из процесса обучения. Это помогает предотвратить переобучение и улучшить обобщающую способность модели. В контексте L0-регуляризации, dropout может быть адаптирован таким образом, чтобы обнулять веса с определенной вероятностью, что добавляет дополнительный регуляризующий эффект.

#full_connected_net #neural_network #ds #analytics #optimization
🔠🔠🔠https://pikabu.ru/story/neyronka_dlya_generatsii_cadmodeley_11610681 - нейронка для генерации CAD моделей, очень будет полезна разработчика, инженерам, проектировщикам.

#tools #github #optimization
Please open Telegram to view this post
VIEW IN TELEGRAM
Prankify — ИИ-пранкер для звонков

Реально популярная платформа, с помощью которой можно позвонить на любой номер, используя голос знаменитости. Да, звучит как древний прикол из нулевых, но тут — с сильным апгрейдом в виде ИИ.

От вас требуется только ввести условия и тему разговора, а дальше нейросеть сама проведет разговор, импровизируя на ходу и держась в заданном контексте. 75 звонков в месяц — $5, без ограничений — $16.

Источник

#tools #github #optimization #funny #humor
https://github.com/autogluon/autogluon - простое и легкое обучение мл моделей. Изображения, временные ряды. Весьиа полезна, не требует много кода.

#tools #github #optimization
🔥1
🔠🔠🔠🔠🔠: Llama Recipes предоставляет набор методов для файнтюнинга Llama3 с использованием FSDP и PEFT для работы на одном/нескольких GPU.

Links: https://github.com/meta-llama/llama-recipes

*Meta - экстремисткая огранизация запрещена в РФ,

#tools #github #optimization #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️⚡️⚡️https://github.com/CyberAlbSecOP/Awesome_GPT_Super_Prompting - невероятно огромный пак по работе с промптами для LLM. Очень много полезных инструментов, методик и подходов. Если вы занимаетесь LLM, то обязательно к прочтению.

#tools #github #optimization #ml #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
2
https://github.com/leptonai/leptonai - быстрый запуск AI приложений, быстрое развертывание, быстрая адаптация, напоминает HugginnFace

#tools #github #optimization #ml #llm
👍2
🧠 Sakana AI представила ALE-Bench и ALE-Agent — инструменты для работы с задачами, требующих сложной оптимизации

В партнёрстве с AtCoder Inc. команда Sakana AI разработала ALE-Bench — открытый бенчмарк, ориентированный на NP-трудные задачи, где важно не просто написать работающий код, а находить работающие и эффективные решения.

📌 Что делает ALE-Bench особенным:
• Задачи требуют долгосрочного планирования и нестандартного подхода 
• Истинное оптимальное решение недостижимо, но текущее решение можно улучшать бесконечно 
• Подходит для оценки reasoning‑моделей и продвинутых AI‑кодеров

🤖 Вместе с бенчмарком представили и ALE-Agent — автономного агента, обученного решать такие задачи с нуля. 

В мае 2025 года он участвовал в AtCoder Heuristic Contest (AHC) — одном из самых сложных алгоритмических конкурсов — и занял 21‑е место из 1,000 участников.

Блог: https://sakana.ai/ale-bench/ 
Статья: https://arxiv.org/abs/2506.09050 
Датасет: https://huggingface.co/datasets/SakanaAI/ALE-Bench 
Код: https://github.com/SakanaAI/ALE-Bench

#ALEBench #AI #SakanaAI #Optimization #AtCoder #NPHard #AItools