🚀 Интересуетесь нейросетями и хотите понять, как эволюция архитектур RNN и Transformer влияет на NLP?🚀
На открытом уроке «От RNN до Transformers: скорость, память, контекст» 19 августа в 20:00 МСК мы разберём, как работают рекуррентные нейросети (RNN), их ограничения и почему современные NLP-системы всё чаще переходят к трансформерам. Мы сравним эти архитектуры по ключевым параметрам: скорости, памяти, контексту и масштабируемости.
Урок даст вам чёткое представление о том, как меняются подходы в обработке текста, а также объяснит, почему трансформеры становятся основой современных NLP-систем.
📚 Посетите вебинар и получите скидку на большое обучение «NLP / Natural Language Processing»: https://otus.pw/SgzT/?erid=2W5zFKA3Jit
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
На открытом уроке «От RNN до Transformers: скорость, память, контекст» 19 августа в 20:00 МСК мы разберём, как работают рекуррентные нейросети (RNN), их ограничения и почему современные NLP-системы всё чаще переходят к трансформерам. Мы сравним эти архитектуры по ключевым параметрам: скорости, памяти, контексту и масштабируемости.
Урок даст вам чёткое представление о том, как меняются подходы в обработке текста, а также объяснит, почему трансформеры становятся основой современных NLP-систем.
📚 Посетите вебинар и получите скидку на большое обучение «NLP / Natural Language Processing»: https://otus.pw/SgzT/?erid=2W5zFKA3Jit
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
❤4
1) Будьте предельно ТОЧНЫ и не давайте противоречий — иначе модель запутается.
2) Подбирайте правильный уровень рассуждений (reasoning effort): простое → низкий, сложное → высокий.
3) Структурируйте промпты XML-подобным синтаксисом. GPT-5 лучше держит контекст в таких блоках:
<code_editing_rules>
<guiding_principles>
- Every component should be modular and reusable
</guiding_principles>
<frontend_stack_defaults>
- Styling: TailwindCSS
</frontend_stack_defaults>
</code_editing_rules>
4) Избегайте ультра-жёстких требований. Фразы «будь ПРЕДЕЛЬНО тщателен» → тонна лишнего текста.
5) Давайте ИИ пространство для планирования и саморефлексии. Например, при создании приложений с нуля:
<self_reflection>
- Think of a rubric first
- Deeply analyze each part
- Use rubric to iterate best solution
</self_reflection>
6) Контролируйте «синдром отличника». GPT-5 сам любит усложнять. Чтобы держать в узде:
<persistence>
- Don’t ask human for confirmation
- Make best assumption
- Document it after acting
</persistence>
📌 Полный PDF со всеми деталями — тут
🚀 Генератор/оптимизатор промптов для GPT-5 — тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍4🤔1💩1
👿 26 августа Яндекс проведёт в Санкт-Петербурге Data Dojo: мероприятие для сообщества ML-экспертов
Будем обсуждать востребованные направления машинного обучения, разбирать реальные задачи из соревнований и общаться с руководителями команд, чтобы узнать больше о карьере ML’щика в Яндексе.
Николай Савушкин, руководитель команды рекомендательных технологий в Поиске, расскажет, как устроена персонализация и как работают большие генеративные модели в рекомендательных системах Яндекса. А Алексей Колесов, руководитель команды NLP, поделится, каких успехов за последнее время добилась команда R&D в Яндексе, и какие вызовы стоят перед ними в ближайший год.
Вечером — дискуссия с секретным гостем, а после — afterparty с музыкой и напитками.
Если хотите участвовать, то нужно заполнить анкету до 20 августа.
🪷 В додзё не приходят случайно. Набирайтесь мудрости в сильнейшем ML-комьюнити.
Будем обсуждать востребованные направления машинного обучения, разбирать реальные задачи из соревнований и общаться с руководителями команд, чтобы узнать больше о карьере ML’щика в Яндексе.
Николай Савушкин, руководитель команды рекомендательных технологий в Поиске, расскажет, как устроена персонализация и как работают большие генеративные модели в рекомендательных системах Яндекса. А Алексей Колесов, руководитель команды NLP, поделится, каких успехов за последнее время добилась команда R&D в Яндексе, и какие вызовы стоят перед ними в ближайший год.
Вечером — дискуссия с секретным гостем, а после — afterparty с музыкой и напитками.
Если хотите участвовать, то нужно заполнить анкету до 20 августа.
🪷 В додзё не приходят случайно. Набирайтесь мудрости в сильнейшем ML-комьюнити.
❤7👍2🔥2
пост - 📉 MIT: 95% компаний, вкладывающих в generative AI, пока не получают ощутимых результатов 😯
📊 Основные данные исследования:
- 150 интервью с топ-менеджерами
- 350 сотрудников в опросе
- 300 публичных кейсов внедрения
⚠️ Проблема — “разрыв обучения”:
Индивидуально чат-боты кажутся магией, но в бизнесе они не адаптируются к данным, правилам и процессам компании.
Результат: хрупкие воркфлоу, шумные ответы и отсутствие влияния на P&L.
💸 Бюджеты распределены неверно:
- Более 50% средств уходит на маркетинг и продажи
- Но реальные эффекты — в бэк-офисе: отказ от аутсорса, сокращение агентств, оптимизация процессов
✅ Где работают внедрения:
- Покупка решений у нишевых вендоров и партнёрство → ~67% успеха
- Внутренние разработки → лишь ~33%
- В финансовом секторе ситуация ещё хуже из-за рисков и регуляций
👥 Влияние на сотрудников:
- Компании не закрывают часть позиций в саппорте и админке (особенно аутсорс)
- Shadow AI используется повсюду, но из-за “скрытого” применения трудно замерить реальную продуктивность и прибыль
👉 Подробности: fortune.com/2025/08/18/mit-report-95-percent-generative-ai-pilots-at-companies-failing-cfo/
📊 Основные данные исследования:
- 150 интервью с топ-менеджерами
- 350 сотрудников в опросе
- 300 публичных кейсов внедрения
⚠️ Проблема — “разрыв обучения”:
Индивидуально чат-боты кажутся магией, но в бизнесе они не адаптируются к данным, правилам и процессам компании.
Результат: хрупкие воркфлоу, шумные ответы и отсутствие влияния на P&L.
💸 Бюджеты распределены неверно:
- Более 50% средств уходит на маркетинг и продажи
- Но реальные эффекты — в бэк-офисе: отказ от аутсорса, сокращение агентств, оптимизация процессов
✅ Где работают внедрения:
- Покупка решений у нишевых вендоров и партнёрство → ~67% успеха
- Внутренние разработки → лишь ~33%
- В финансовом секторе ситуация ещё хуже из-за рисков и регуляций
👥 Влияние на сотрудников:
- Компании не закрывают часть позиций в саппорте и админке (особенно аутсорс)
- Shadow AI используется повсюду, но из-за “скрытого” применения трудно замерить реальную продуктивность и прибыль
👉 Подробности: fortune.com/2025/08/18/mit-report-95-percent-generative-ai-pilots-at-companies-failing-cfo/
🤔3❤2😁2🔥1
Forwarded from Machinelearning
Ландшафт архитектур LLM превратился в настоящий зоопарк. Почти каждую неделю появляются новые методы, обещающие меньший расход памяти и более быстрый инференс. Разобраться в этом становится все сложнее.
Большая группа исследователей выпустила подробный обзор Speed Always Wins, чтобы систематизировать все ключевые инновации в области эффективных архитектур для LLM.
Это не просто очередная статья, а попытка упорядочить и структурировать актуальные подходы, которые решают главную проблему классического трансформера - его квадратичную вычислительную сложность.
Обзор описывает 7 основных направлений.
Здесь авторы разбирают все подходы, которые так или иначе сводят сложность самовнимания к линейной. В эту категорию попадают 3 большие ветви: линейное внимание; линейные RNN, вроде и, конечно, модели на основе пространства состояний (SSM).
Разреженное моделирование последовательностей основано на простом принципе: не каждый токен должен общаться с каждым. Здесь выделяются статические подходы (как в Longformer), где паттерны внимания заданы заранее, и динамические, где они определяются на лету в зависимости от контента.
Методика, которая уже стала мейнстримом. В МоЕ разреженность применяется не в механизме внимания, а в FFN-слоях, где для каждого токена активируется лишь небольшая часть экспертов, что позволяет наращивать число параметров без пропорционального роста вычислений.
В нем речь идет не об изменении асимптотической сложности, а об ее аппаратной оптимизации. Флагман - FlashAttention.
Есть детальный разбор, как за счет оптимизации обращений к памяти GPU удается кардинально ускорить вычисления, не прибегая к аппроксимациям. Сюда же относятся и групповые механизмы внимания: GQA и MQA.
Это, пожалуй, самый горячий тренд. Его идея в том, чтобы стратегически комбинировать быстрые слои с линейной сложностью и медленные, но мощные слои с полным вниманием.
В обзоре выделяют два типа гибридизации: межслойную, как в Jamba, где разные типы слоев чередуются, и внутрислойную, где в одном слое разные головы могут использовать разные механизмы внимания.
Это неавторегрессионные модели, которые генерируют текст, постепенно восстанавливая его из шума. Их главная фишка в параллельном декодировании, что дает ощутимое ускорение инференса.
В конце обзора есть анализ применения всех этих архитектур в разных модальностях - CV и аудио.
Так что, если хотите быстро разобраться в базовых методах, которые будут двигать дизайн LLM в ближайшее время,
@ai_machinelearning_big_data
#AI #ML #LLM #Architectures
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍1🔥1
🧪 Новый бенчмарк показывает, как LLM-агенты ломаются на реальных задачах
- Лучший результат — лишь 43,72% успеха у GPT-5.
- Использован Model Context Protocol (MCP) — стандарт, позволяющий ИИ подключаться к приложениям, получать данные и выполнять действия.
- Проверка шла на реальных серверах: 6 доменов, 11 сервисов, 231 задача (карты, GitHub, финансы, 3D-дизайн, браузер, веб-поиск).
- Оценка не через модель-судью, а через запуск:
- формат (структура ответа),
- статический чек (фиксированные факты),
- динамический чек (актуальные данные).
⚠️ Что выяснилось:
- Формат агенты соблюдают, но проваливаются по содержанию → слабые места: рассуждение и поиск данных.
- Долгие диалоги раздувают контекст, многошаговые сценарии рушатся.
- Часто неверно используют инструменты (например, вызывают API акций с одинаковой датой начала и конца).
- Подключение лишних сервисов даёт шум и снижает точность.
- Даже «enterprise-агенты» не обгоняют простую схему ReAct.
🔎 Вывод: интеграция LLM-агентов с реальными системами пока очень хрупкая.
MCP-Universe предлагает прозрачный способ измерять эти сбои и улучшать качество работы.
📄 Статья: https://arxiv.org/abs/2508.14704
- Лучший результат — лишь 43,72% успеха у GPT-5.
- Использован Model Context Protocol (MCP) — стандарт, позволяющий ИИ подключаться к приложениям, получать данные и выполнять действия.
- Проверка шла на реальных серверах: 6 доменов, 11 сервисов, 231 задача (карты, GitHub, финансы, 3D-дизайн, браузер, веб-поиск).
- Оценка не через модель-судью, а через запуск:
- формат (структура ответа),
- статический чек (фиксированные факты),
- динамический чек (актуальные данные).
⚠️ Что выяснилось:
- Формат агенты соблюдают, но проваливаются по содержанию → слабые места: рассуждение и поиск данных.
- Долгие диалоги раздувают контекст, многошаговые сценарии рушатся.
- Часто неверно используют инструменты (например, вызывают API акций с одинаковой датой начала и конца).
- Подключение лишних сервисов даёт шум и снижает точность.
- Даже «enterprise-агенты» не обгоняют простую схему ReAct.
🔎 Вывод: интеграция LLM-агентов с реальными системами пока очень хрупкая.
MCP-Universe предлагает прозрачный способ измерять эти сбои и улучшать качество работы.
📄 Статья: https://arxiv.org/abs/2508.14704
❤5👍3🔥3
Forwarded from Анализ данных (Data analysis)
📖 Вечернее чтение
Команда из DeepMind подготовила отличный материал о том, что нужно знать о работе с GPU.
- Разбор архитектуры NVIDIA GPU: SM, Tensor Cores, кеши, HBM.
- Сравнение GPU и TPU: гибкость против специализированной мощности.
- Как устроены GPU-кластеры и коллективные коммуникации.
- Roofline-анализ масштабирования LLM: data, tensor, expert, pipeline parallelism.
🔥 Если вы работаете с масштабированием моделей - мастрид.
👉 https://jax-ml.github.io/scaling-book/gpus/
@data_analysis_ml
Команда из DeepMind подготовила отличный материал о том, что нужно знать о работе с GPU.
- Разбор архитектуры NVIDIA GPU: SM, Tensor Cores, кеши, HBM.
- Сравнение GPU и TPU: гибкость против специализированной мощности.
- Как устроены GPU-кластеры и коллективные коммуникации.
- Roofline-анализ масштабирования LLM: data, tensor, expert, pipeline parallelism.
🔥 Если вы работаете с масштабированием моделей - мастрид.
👉 https://jax-ml.github.io/scaling-book/gpus/
@data_analysis_ml
❤4👍4🔥2