❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_197
🔠 Как устроен декодер Transformers ? (Часть_1)
Декодер в архитектуре Transformers используется в задачах генерации текста, машинного перевода и других подобных задачах. Он выполняет обратную операцию по сравнению с энкодером и помогает генерировать последовательности на основе закодированного контекста.
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
🔠 Как устроен декодер Transformers ? (Часть_1)
Декодер в архитектуре Transformers используется в задачах генерации текста, машинного перевода и других подобных задачах. Он выполняет обратную операцию по сравнению с энкодером и помогает генерировать последовательности на основе закодированного контекста.
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_197
🔠 Как устроен декодер Transformers ? (Часть_2)
Декодер в Transformers состоит из нескольких блоков декодирования, которые могут быть идентичными или схожими с блоками кодирования в энкодере. Каждый блок декодирования обычно состоит из нескольких слоев самовнимания (self-attention) и позиционно-сетевой передачи (feed-forward).
Слои самовнимания позволяют декодеру фокусироваться на различных частях входной последовательности, а слои позиционно-сетевой передачи позволяют модели агрегировать информацию и генерировать последовательность на выходе.
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
🔠 Как устроен декодер Transformers ? (Часть_2)
Декодер в Transformers состоит из нескольких блоков декодирования, которые могут быть идентичными или схожими с блоками кодирования в энкодере. Каждый блок декодирования обычно состоит из нескольких слоев самовнимания (self-attention) и позиционно-сетевой передачи (feed-forward).
Слои самовнимания позволяют декодеру фокусироваться на различных частях входной последовательности, а слои позиционно-сетевой передачи позволяют модели агрегировать информацию и генерировать последовательность на выходе.
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_197
🔠 Как устроен декодер Transformers ? (Часть_3)
В отличие от энкодера, декодер также использует дополнительное самовнимание, называемое "маскированным самовниманием" (masked self-attention). Маскированное самовнимание гарантирует, что модель не имеет доступа к будущим токенам во время генерации и может использовать только текущие и предыдущие токены для прогнозирования следующего.
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
🔠 Как устроен декодер Transformers ? (Часть_3)
В отличие от энкодера, декодер также использует дополнительное самовнимание, называемое "маскированным самовниманием" (masked self-attention). Маскированное самовнимание гарантирует, что модель не имеет доступа к будущим токенам во время генерации и может использовать только текущие и предыдущие токены для прогнозирования следующего.
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_197
🔠 Как устроен декодер Transformers ? (Часть_4)
В процессе генерации декодер применяет блоки декодирования последовательно к входной последовательности с маскированным самовниманием, чтобы генерировать выходную последовательность.
Обычно декодер также использует эмбеддинги токенов на входе и включает механизм внимания (attention), который помогает модели сконцентрироваться на важных частях контекста при генерации каждого токена.
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
🔠 Как устроен декодер Transformers ? (Часть_4)
В процессе генерации декодер применяет блоки декодирования последовательно к входной последовательности с маскированным самовниманием, чтобы генерировать выходную последовательность.
Обычно декодер также использует эмбеддинги токенов на входе и включает механизм внимания (attention), который помогает модели сконцентрироваться на важных частях контекста при генерации каждого токена.
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_197
🔠 Как устроен декодер Transformers ? (Часть_5)
Кроме того, в декодере может быть добавлен механизм генерации (generation mechanism), такой как softmax или beam search, для выбора следующего токена на основе вероятностей, предсказанных моделью.
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
🔠 Как устроен декодер Transformers ? (Часть_5)
Кроме того, в декодере может быть добавлен механизм генерации (generation mechanism), такой как softmax или beam search, для выбора следующего токена на основе вероятностей, предсказанных моделью.
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_198
🔠 Что такое TransformerXL ? (Часть_1)
TransformerXL (или Transformer-XL) - это модификация архитектуры Transformer, предложенная в 2019 году разработчиками из OpenAI. TransformerXL был разработан для решения проблемы ограниченной длины контекста, с которой сталкиваются стандартные модели Transformer при обработке длинных последовательностей.
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
🔠 Что такое TransformerXL ? (Часть_1)
TransformerXL (или Transformer-XL) - это модификация архитектуры Transformer, предложенная в 2019 году разработчиками из OpenAI. TransformerXL был разработан для решения проблемы ограниченной длины контекста, с которой сталкиваются стандартные модели Transformer при обработке длинных последовательностей.
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_198
🔠 Что такое TransformerXL ? (Часть_2)
В стандартной архитектуре Transformer, как правило, используется фиксированный размер контекста, который ограничивает способность модели учитывать более длинные зависимости в данных. TransformerXL вводит два новых механизма для расширения контекста и улучшения моделирования длинных последовательностей:
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
🔠 Что такое TransformerXL ? (Часть_2)
В стандартной архитектуре Transformer, как правило, используется фиксированный размер контекста, который ограничивает способность модели учитывать более длинные зависимости в данных. TransformerXL вводит два новых механизма для расширения контекста и улучшения моделирования длинных последовательностей:
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
❓300 Вопросов по Машинному обучению (Machine Learning) - Вопрос_223
🔠 Что такое супер-полносвязные нейронные сети ? (Часть_1)
Супер-полносвязные разреженные сети (Super-Sparse Fully Connected Networks) - это концепция в области машинного обучения, которая касается методов оптимизации и уменьшения размерности нейронных сетей.
Основная идея заключается в использовании техник, таких как L0-регуляризация и dropout, для создания более эффективных и компактных моделей. Эти методы помогают уменьшить количество параметров в сети, делая ее более разреженной, что может улучшить производительность и уменьшить потребление ресурсов.
#full_connected_net #neural_network #ds #analytics #optimization
🔠 Что такое супер-полносвязные нейронные сети ? (Часть_1)
Супер-полносвязные разреженные сети (Super-Sparse Fully Connected Networks) - это концепция в области машинного обучения, которая касается методов оптимизации и уменьшения размерности нейронных сетей.
Основная идея заключается в использовании техник, таких как L0-регуляризация и dropout, для создания более эффективных и компактных моделей. Эти методы помогают уменьшить количество параметров в сети, делая ее более разреженной, что может улучшить производительность и уменьшить потребление ресурсов.
#full_connected_net #neural_network #ds #analytics #optimization
❓300 Вопросов по Машинному обучению (Machine Learning) - Вопрос_223
🔠 Что такое супер-полносвязные нейронные сети ? (Часть_2)
L0-регуляризация представляет собой подход, который позволяет обнулять веса нейронов, тем самым уменьшая общее количество параметров в сети. Этот метод может быть особенно полезен для уменьшения размерности модели и повышения ее эффективности. Однако, его использование требует тщательного планирования и тестирования, поскольку неправильное применение может привести к нежелательным изменениям в структуре сети.
#full_connected_net #neural_network #ds #analytics #optimization
🔠 Что такое супер-полносвязные нейронные сети ? (Часть_2)
L0-регуляризация представляет собой подход, который позволяет обнулять веса нейронов, тем самым уменьшая общее количество параметров в сети. Этот метод может быть особенно полезен для уменьшения размерности модели и повышения ее эффективности. Однако, его использование требует тщательного планирования и тестирования, поскольку неправильное применение может привести к нежелательным изменениям в структуре сети.
#full_connected_net #neural_network #ds #analytics #optimization
❓300 Вопросов по Машинному обучению (Machine Learning) - Вопрос_223
🔠 Что такое супер-полносвязные нейронные сети ? (Часть_3)
Dropout - это еще одна техника, используемая для увеличения разреженности сети путем случайного исключения нейронов из процесса обучения. Это помогает предотвратить переобучение и улучшить обобщающую способность модели. В контексте L0-регуляризации, dropout может быть адаптирован таким образом, чтобы обнулять веса с определенной вероятностью, что добавляет дополнительный регуляризующий эффект.
#full_connected_net #neural_network #ds #analytics #optimization
🔠 Что такое супер-полносвязные нейронные сети ? (Часть_3)
Dropout - это еще одна техника, используемая для увеличения разреженности сети путем случайного исключения нейронов из процесса обучения. Это помогает предотвратить переобучение и улучшить обобщающую способность модели. В контексте L0-регуляризации, dropout может быть адаптирован таким образом, чтобы обнулять веса с определенной вероятностью, что добавляет дополнительный регуляризующий эффект.
#full_connected_net #neural_network #ds #analytics #optimization
#tools #github #optimization
Please open Telegram to view this post
VIEW IN TELEGRAM
Пикабу
Нейронка для генерации CAD-моделей
Пост пикабушника AgeOfIT в сообществе Искусственный интеллект
Prankify — ИИ-пранкер для звонков
Реально популярная платформа, с помощью которой можно позвонить на любой номер, используя голос знаменитости. Да, звучит как древний прикол из нулевых, но тут — с сильным апгрейдом в виде ИИ.
От вас требуется только ввести условия и тему разговора, а дальше нейросеть сама проведет разговор, импровизируя на ходу и держась в заданном контексте. 75 звонков в месяц — $5, без ограничений — $16.
Источник
#tools #github #optimization #funny #humor
Реально популярная платформа, с помощью которой можно позвонить на любой номер, используя голос знаменитости. Да, звучит как древний прикол из нулевых, но тут — с сильным апгрейдом в виде ИИ.
От вас требуется только ввести условия и тему разговора, а дальше нейросеть сама проведет разговор, импровизируя на ходу и держась в заданном контексте. 75 звонков в месяц — $5, без ограничений — $16.
Источник
#tools #github #optimization #funny #humor
GitHub
GitHub - autogluon/autogluon: Fast and Accurate ML in 3 Lines of Code
Fast and Accurate ML in 3 Lines of Code. Contribute to autogluon/autogluon development by creating an account on GitHub.
https://www.kubeflow.org/docs/components/pipelines/ - удобный оркестратор для ML задач под Kubernents
#tools #github #optimization #ml #kubernets
#tools #github #optimization #ml #kubernets
Kubeflow
Kubeflow Pipelines
Documentation for Kubeflow Pipelines.
https://github.com/autogluon/autogluon - простое и легкое обучение мл моделей. Изображения, временные ряды. Весьиа полезна, не требует много кода.
#tools #github #optimization
#tools #github #optimization
GitHub
GitHub - autogluon/autogluon: Fast and Accurate ML in 3 Lines of Code
Fast and Accurate ML in 3 Lines of Code. Contribute to autogluon/autogluon development by creating an account on GitHub.
🔥1
Links: https://github.com/meta-llama/llama-recipes
*Meta - экстремисткая огранизация запрещена в РФ,
#tools #github #optimization #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - meta-llama/llama-cookbook: Welcome to the Llama Cookbook! This is your go to guide for Building with Llama: Getting started…
Welcome to the Llama Cookbook! This is your go to guide for Building with Llama: Getting started with Inference, Fine-Tuning, RAG. We also show you how to solve end to end problems using Llama mode...
#tools #github #optimization #ml #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - CyberAlbSecOP/Awesome_GPT_Super_Prompting: ChatGPT Jailbreaks, GPT Assistants Prompt Leaks, GPTs Prompt Injection, LLM…
ChatGPT Jailbreaks, GPT Assistants Prompt Leaks, GPTs Prompt Injection, LLM Prompt Security, Super Prompts, Prompt Hack, Prompt Security, Ai Prompt Engineering, Adversarial Machine Learning. - Cybe...
❤2
https://github.com/leptonai/leptonai - быстрый запуск AI приложений, быстрое развертывание, быстрая адаптация, напоминает HugginnFace
#tools #github #optimization #ml #llm
#tools #github #optimization #ml #llm
GitHub
GitHub - leptonai/leptonai: A Pythonic framework to simplify AI service building
A Pythonic framework to simplify AI service building - leptonai/leptonai
👍2
https://github.com/kyegomez/BitNet - масштабирование 1-битных трансформеров на LLM.
#tools #github #optimization #ml #llm
#tools #github #optimization #ml #llm
GitHub
GitHub - kyegomez/BitNet: Implementation of "BitNet: Scaling 1-bit Transformers for Large Language Models" in pytorch
Implementation of "BitNet: Scaling 1-bit Transformers for Large Language Models" in pytorch - kyegomez/BitNet
https://github.com/pyro-ppl/numpyro - библиотека для вероятностного программирования.
#tools #github #optimization #ml #llm
#tools #github #optimization #ml #llm
GitHub
GitHub - pyro-ppl/numpyro: Probabilistic programming with NumPy powered by JAX for autograd and JIT compilation to GPU/TPU/CPU.
Probabilistic programming with NumPy powered by JAX for autograd and JIT compilation to GPU/TPU/CPU. - pyro-ppl/numpyro
🧠 Sakana AI представила ALE-Bench и ALE-Agent — инструменты для работы с задачами, требующих сложной оптимизации
В партнёрстве с AtCoder Inc. команда Sakana AI разработала ALE-Bench — открытый бенчмарк, ориентированный на NP-трудные задачи, где важно не просто написать работающий код, а находить работающие и эффективные решения.
📌 Что делает ALE-Bench особенным:
• Задачи требуют долгосрочного планирования и нестандартного подхода
• Истинное оптимальное решение недостижимо, но текущее решение можно улучшать бесконечно
• Подходит для оценки reasoning‑моделей и продвинутых AI‑кодеров
🤖 Вместе с бенчмарком представили и ALE-Agent — автономного агента, обученного решать такие задачи с нуля.
В мае 2025 года он участвовал в AtCoder Heuristic Contest (AHC) — одном из самых сложных алгоритмических конкурсов — и занял 21‑е место из 1,000 участников.
• Блог: https://sakana.ai/ale-bench/
• Статья: https://arxiv.org/abs/2506.09050
• Датасет: https://huggingface.co/datasets/SakanaAI/ALE-Bench
• Код: https://github.com/SakanaAI/ALE-Bench
#ALEBench #AI #SakanaAI #Optimization #AtCoder #NPHard #AItools
В партнёрстве с AtCoder Inc. команда Sakana AI разработала ALE-Bench — открытый бенчмарк, ориентированный на NP-трудные задачи, где важно не просто написать работающий код, а находить работающие и эффективные решения.
📌 Что делает ALE-Bench особенным:
• Задачи требуют долгосрочного планирования и нестандартного подхода
• Истинное оптимальное решение недостижимо, но текущее решение можно улучшать бесконечно
• Подходит для оценки reasoning‑моделей и продвинутых AI‑кодеров
🤖 Вместе с бенчмарком представили и ALE-Agent — автономного агента, обученного решать такие задачи с нуля.
В мае 2025 года он участвовал в AtCoder Heuristic Contest (AHC) — одном из самых сложных алгоритмических конкурсов — и занял 21‑е место из 1,000 участников.
• Блог: https://sakana.ai/ale-bench/
• Статья: https://arxiv.org/abs/2506.09050
• Датасет: https://huggingface.co/datasets/SakanaAI/ALE-Bench
• Код: https://github.com/SakanaAI/ALE-Bench
#ALEBench #AI #SakanaAI #Optimization #AtCoder #NPHard #AItools
sakana.ai
Sakana AI
Towards Automating Long-Horizon Algorithm Engineering for Hard Optimization Problems