Подбора для тех, кто хочет стать сертифицированным архитектором Claude
Полезные ресурсы для подготовки в одном месте 👇
• Запись на сертификацию: https://anthropic.skilljar.com/claude-certified-architect-foundations-access-request
• Обучение (13 бесплатных курсов):
https://anthropic.skilljar.com
• Cookbook (примеры и практики):
https://github.com/anthropics/anthropic-cookbook
• Гайд к экзамену:
https://share.google/0eqIbebzRMUt8KTc8
• Практические вопросы:
http://claudecertifications.com
• Документация MCP:
http://modelcontextprotocol.io
API документация:
http://docs.anthropic.com
Полезный playbook:
https://drive.google.com/file/d/1luC0rnrET4tDYtS7xe5jUxMDZA-4qNf-/view
🐍 полезные ресурсы 🚀Max
@machinelearning_interview
Полезные ресурсы для подготовки в одном месте 👇
• Запись на сертификацию: https://anthropic.skilljar.com/claude-certified-architect-foundations-access-request
• Обучение (13 бесплатных курсов):
https://anthropic.skilljar.com
• Cookbook (примеры и практики):
https://github.com/anthropics/anthropic-cookbook
• Гайд к экзамену:
https://share.google/0eqIbebzRMUt8KTc8
• Практические вопросы:
http://claudecertifications.com
• Документация MCP:
http://modelcontextprotocol.io
API документация:
http://docs.anthropic.com
Полезный playbook:
https://drive.google.com/file/d/1luC0rnrET4tDYtS7xe5jUxMDZA-4qNf-/view
🐍 полезные ресурсы 🚀Max
@machinelearning_interview
❤9🔥9😁4👍3
Media is too big
VIEW IN TELEGRAM
Zhilin Yang (один из авторов архитектуры Transformer-XL) на GTC представил концепцию Attention Residuals
Главная идея внимания - это не запоминать всё подряд, а выбирать, что действительно важно.
Многие читали работу Attention Is All You Need (2017) - именно она привнесла в модели механизм "человеческого" внимания. С этого момента модели перестали просто механически обрабатывать весь текст. Вместо этого они начали различать, что важнее, а что нет, и сохранять более значимую информацию.
Недавно Китайцы из Kimi пошли дальше и применили внимание к временной оси, а затем "повернули" его в глубину модели.
Теперь внимание работает не только по времени, но и через слои модели - по мере передачи информации.
Это даёт более умный способ обработки:
модель не просто читает и передаёт данные дальше, а осмысленно отслеживает важное на каждом этапе вычислений.
https://x.com/Kimi_Moonshot/status/2037010118957817988
🐍 полезные ресурсы 🚀Max
@machinelearning_interview
Главная идея внимания - это не запоминать всё подряд, а выбирать, что действительно важно.
Многие читали работу Attention Is All You Need (2017) - именно она привнесла в модели механизм "человеческого" внимания. С этого момента модели перестали просто механически обрабатывать весь текст. Вместо этого они начали различать, что важнее, а что нет, и сохранять более значимую информацию.
Недавно Китайцы из Kimi пошли дальше и применили внимание к временной оси, а затем "повернули" его в глубину модели.
Теперь внимание работает не только по времени, но и через слои модели - по мере передачи информации.
Это даёт более умный способ обработки:
модель не просто читает и передаёт данные дальше, а осмысленно отслеживает важное на каждом этапе вычислений.
https://x.com/Kimi_Moonshot/status/2037010118957817988
🐍 полезные ресурсы 🚀Max
@machinelearning_interview
👍14❤2🔥2
Forwarded from AI VK Hub
Рекомендательные системы — один из ключевых механизмов, на которых держатся современные продукты. Они помогают пользователям находить контент, товары и сервисы, а бизнесу — повышать вовлеченность и качество пользовательского опыта. Вместе с Владимиром Байкаловым, ведущим исследователем AI VK, разбираем главные тренды в рекомендациях и последние значимые работы.
🔗 Список статей
#aivk #recsys
Масштабирование🟣 Действия говорят громче слов: последовательные преобразователи с триллионом параметров для генеративных рекомендаций🟣 Масштабирование трансформеров для рекомендательных систем до одного миллиарда параметров🟣 LLaTTE: законы масштабирования для многоэтапного моделирования последовательностей в крупномасштабных рекламных рекомендательных системах
Lifelong Recommendations🟣 TransAct V2: моделирование последовательностей действий пользователя на протяжении всей жизни в рекомендациях Pinterest🟣 TWIN V2: расширение моделирования ультра‑длинных последовательностей поведения пользователя для улучшения CTR‑предсказания в Kuaishou🟣 LONGER: повышение эффективности моделирования длинных последовательностей в промышленных рекомендательных системах🟣 Укрощение ультра-длинных последовательностей пользовательского поведения в генеративных рекомендациях на уровне сессий
Generative Retrieval🟣 Память трансформера как дифференцируемый поисковый индекс🟣 Рекомендательные системы с генеративным поиском🟣 Sparse Meets Dense: унифицированные генеративные рекомендации с каскадными разреженно-плотными представлениями
Semantic IDs🟣 Повышение стабильности эмбеддингов в рекомендательных системах с помощью Semantic ID🟣 ActionPiece: контекстная токенизация последовательностей действий для генеративных рекомендаций🟣 Обучаемая токенизация объектов для генеративных рекомендаций🟣 Semantic ID переменной длины для рекомендательных систем
End to End Рекомендации🟣 OneRec: объединение retrieval и ranking в генеративной рекомендательной модели с итеративным выравниванием предпочтений🟣 OxygenREC: генеративный фреймворк, следующий инструкциям, для рекомендаций в электронной коммерции🟣 EGA: унифицированный end-to-end генеративный фреймворк для промышленных рекламных систем
LLMxRecSys🟣 PLUM: адаптация предварительно обученных языковых моделей для генеративных рекомендаций промышленного масштаба🟣 OneRec‑Think: рассуждение в тексте для генеративной рекомендации🟣 ReaSeq: использование мировых знаний через рассуждение для последовательного моделирования
#aivk #recsys
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣5👍2💘2
🔥 Бесплатные курсы по нейросетям от NVIDIA
NVIDIA открыла доступ к обучению, которое обычно стоит около $90.
Внутри - практические знания по самым востребованным направлениям:
• работа с компьютерным зрением и видео
• создание AI-приложений
• основы генеративных моделей
• робототехника и автономные системы
• ускорение вычислений на GPU
Формат - короткие практические курсы без воды.
После завершения — электронный сертификат от NVIDIA.
Если хотите прокачаться в AI с реальными инструментами индустрии — отличная возможность.
🟡 Начать учиться
NVIDIA открыла доступ к обучению, которое обычно стоит около $90.
Внутри - практические знания по самым востребованным направлениям:
• работа с компьютерным зрением и видео
• создание AI-приложений
• основы генеративных моделей
• робототехника и автономные системы
• ускорение вычислений на GPU
Формат - короткие практические курсы без воды.
После завершения — электронный сертификат от NVIDIA.
Если хотите прокачаться в AI с реальными инструментами индустрии — отличная возможность.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥5❤3
На Stepik вышел курс: Vibecoding — Claude Code, Codex, Cursor и coding agents в 2026.
Хотите работать с Claude Code, Codex и Cursor так, чтобы coding agents действительно тащили заметную часть разработки: фичи, отладку, тесты, рефакторинг, MVP и многошаговые задачи? Этот курс — про современный vibecoding workflow и agentic development в 2026.
В программе:
— Claude Code, Codex, Cursor
— agent mode и многошаговые задачи
— работа с кодовой базой
— subagents, hooks, skills
— MCP и внешние инструменты
— ревью кода, изменения и контроль качества
Подойдёт всем, кто регулярно работает с кодом: разработчикам, ML-инженерам, дата-сайентистам, аналитикам, automation-специалистам и техническим фаундерам.
Скидка 40% действует 48 часов.
Пройти курс на Stepik
Реклама: Ип Малышкин А.А.
ИНН: 402571325199, Erid: 2Vtzqx9FNbf
Хотите работать с Claude Code, Codex и Cursor так, чтобы coding agents действительно тащили заметную часть разработки: фичи, отладку, тесты, рефакторинг, MVP и многошаговые задачи? Этот курс — про современный vibecoding workflow и agentic development в 2026.
В программе:
— Claude Code, Codex, Cursor
— agent mode и многошаговые задачи
— работа с кодовой базой
— subagents, hooks, skills
— MCP и внешние инструменты
— ревью кода, изменения и контроль качества
Подойдёт всем, кто регулярно работает с кодом: разработчикам, ML-инженерам, дата-сайентистам, аналитикам, automation-специалистам и техническим фаундерам.
Скидка 40% действует 48 часов.
Пройти курс на Stepik
Реклама: Ип Малышкин А.А.
ИНН: 402571325199, Erid: 2Vtzqx9FNbf
🥴5❤3👍3😱2😁1
WSJ: AI не снижает нагрузку на работе - она становится ещё интенсивнее
Новое исследование показало неожиданный эффект внедрения AI-инструментов в компаниях.
Учёные проанализировали работу 164 000 сотрудников и обнаружили, что люди не используют сэкономленное время для отдыха - они просто берут на себя больше задач.
Что изменилось после внедрения AI:
- время на email и мессенджеры выросло более чем на 100%
- использование бизнес-софта увеличилось на 94%
- время для глубокой концентрации и сложного мышления сократилось на 9%
Причина проста.
Когда задачи начинают выполняться быстрее с помощью AI, сотрудники и менеджеры начинают расширять объём работы.
AI-агенты часто даже предлагают дополнительные шаги, которые изначально не входили в проект.
В результате люди:
- берут на себя более широкий круг задач
- работают дольше
- переключаются между задачами чаще
Интересно, что исследование показало оптимальную точку использования AI.
Только 3% пользователей используют AI примерно 7–10% рабочего времени - именно в этом диапазоне достигается лучший баланс между продуктивностью и перегрузкой.
#AI #FutureOfWork #Productivity
wsj.com/tech/ai/ai-isnt-lightening-workloads-its-making-them-more-intense-e417dd2c?mod=e2tw
Новое исследование показало неожиданный эффект внедрения AI-инструментов в компаниях.
Учёные проанализировали работу 164 000 сотрудников и обнаружили, что люди не используют сэкономленное время для отдыха - они просто берут на себя больше задач.
Что изменилось после внедрения AI:
- время на email и мессенджеры выросло более чем на 100%
- использование бизнес-софта увеличилось на 94%
- время для глубокой концентрации и сложного мышления сократилось на 9%
Причина проста.
Когда задачи начинают выполняться быстрее с помощью AI, сотрудники и менеджеры начинают расширять объём работы.
AI-агенты часто даже предлагают дополнительные шаги, которые изначально не входили в проект.
В результате люди:
- берут на себя более широкий круг задач
- работают дольше
- переключаются между задачами чаще
Интересно, что исследование показало оптимальную точку использования AI.
Только 3% пользователей используют AI примерно 7–10% рабочего времени - именно в этом диапазоне достигается лучший баланс между продуктивностью и перегрузкой.
#AI #FutureOfWork #Productivity
wsj.com/tech/ai/ai-isnt-lightening-workloads-its-making-them-more-intense-e417dd2c?mod=e2tw
❤12👍4🤣2🔥1🙈1
⚡️ Приватные шаги мышления Claude.
Кто-то задал Claude вопрос про Иран.
Во время ответа его расширенное «мышление» наткнулось на новости об ударах по Ирану и тон сразу изменился.
Он читает первый результат поиска и как будто думает:
«Ого…»
Это выглядит не как сгенерированный ответ, а как реальный внутренний поток мыслей, застигнутый врасплох.
Затем он отдельно ищет информацию об авиаударах, чтобы подтвердить -
и в «внутреннем монологе» буквально появляется:
«Holy shit».
Это уже не просто ответ модели - это момент, когда ИИ сталкивается с новостью в реальном времени.
reddit.com/r/ClaudeAI/comments/1ribnke/claudes_extended_thinking_found_out_about_iran_in/
Кто-то задал Claude вопрос про Иран.
Во время ответа его расширенное «мышление» наткнулось на новости об ударах по Ирану и тон сразу изменился.
Он читает первый результат поиска и как будто думает:
«Ого…»
Это выглядит не как сгенерированный ответ, а как реальный внутренний поток мыслей, застигнутый врасплох.
Затем он отдельно ищет информацию об авиаударах, чтобы подтвердить -
и в «внутреннем монологе» буквально появляется:
«Holy shit».
Это уже не просто ответ модели - это момент, когда ИИ сталкивается с новостью в реальном времени.
reddit.com/r/ClaudeAI/comments/1ribnke/claudes_extended_thinking_found_out_about_iran_in/
💊11🐳6🔥4❤2👍2😱1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Из-за ошибки в CMS в открытый доступ попали около 3000 внутренних документов Anthropic. Главной утечкой стала информация о разработке новой модели, которая в черновиках упоминается как Mythos и Capybara. Представители компании подтвердили тестирование продукта.
Mythos или Capybara представляет собой новый класс моделей, стоящий на ступень выше актуальной флагманской Opus. Разработчики заявляют о качественном скачке в логике, написании кода и кибербезопасности - результаты тестов значительно превосходят показатели Opus 4.6.
В документах говорится, что возможности модели по поиску уязвимостей могут представлять угрозу. Из-за этого релиз будет крайне осторожным: сначала API откроют узкой группе раннего доступа. Другой преградой для релиза стала высокая стоимость инференса - Anthropic пытается оптимизировать архитектуру, чтобы сделать использование модели рентабельным.
fortune.com
Обновление ориентировано в первую очередь на корпоративные IT-команды, которые смогут упаковывать рабочие процессы, интеграции и настройки MCP-серверов в версионируемые пакеты. Из коробки Codex поддерживает работу с Slack, Figma, Notion и Gmail.
Через эти плагины Codex может брать на себя задачи по планированию, сбору информации и координации, которые предшествуют разработке и управлять последующими процессами.
Новая функция уже доступна в приложении Codex, CLI и расширениях для IDE. В будущем OpenAI планирует запустить официальный каталог плагинов и добавить платформу для их публикации.
OpenAI Developers в сети Х
Федеральный суд США вынес предварительное постановление, запрещающее Министерству обороны разрывать связи с разработчиком чат-бота Claude. Судья встала на сторону стартапа, расценив действия властей как незаконную месть за корпоративную позицию, а не как защиту национальной безопасности.
Суд также отверг аргументы правительства о риске саботажа со стороны Anthropic. Юристы стартапа доказали техническую невозможность подобных сценариев: после развертывания модели на стороне заказчика компания лишается доступа к ней и не может удаленно отключить нейросеть, изменить ее код или отследить, как именно военные ее применяют.
Вступление судебного приказа в силу отложено на семь дней, чтобы дать правительству время на апелляцию. Представитель Минобороны назвал вердикт «позором», сославшись на фактические ошибки суда.
bloomberg.com
Google добавила в Gemini возможность легкого перехода с конкурирующих ИИ-платформ. Теперь можно перенести предпочтения, сохраненный контекст и полную историю чатов из ChatGPT и Claude.
Механика миграции работает двумя способами. Для переноса персональных настроек используется промпт: его нужно скопировать в старый ИИ-ассистент для генерации сводки, а затем вставить ответ в Gemini. Историю диалогов предлагается загружать архивом истории в формате ZIP объемом до 5 ГБ. Это позволит продолжить старые беседы уже в интерфейсе Google.
В рамках обновления раздел Past Chats также переименован в Memory.
blog.google
Вслед за релизом инструмента Video Studio на базе Seedance 2.0, CapCut открыла доступ к функциям генерации для новых регионов. Теперь обновление доступно пользователям из Европы, Канады, Австралии, Новой Зеландии и Южной Кореи.
Опробовать возможности модели можно в бесплатном пробном периоде на всех платформах сервиса, включая мобильное приложение, десктопный клиент и веб-версию.
Для пользователей сервиса также опубликовано руководство по работе с новыми ИИ-инструментами редактора.
СupCut в сети Х
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤3
Это войдёт в историю: как основатель GitLab использовал ИИ в борьбе с раком
У Сида Сийбранди, основателя GitLab, диагностировали редкую форму рака. Стандартные протоколы лечения не давали результата, и в какой-то момент врачи сказали: больше ничего нельзя сделать.
Сид не принял это как приговор. Он собрал команду экспертов, погрузился в медицинскую литературу и начал самостоятельно разбираться в вариантах терапии. В этом процессе одним из главных инструментов стал ChatGPT.
Что именно делал ИИ в этой истории? Не ставил диагнозы и не назначал лечение - это по-прежнему задача врачей.
Но он помог в разы ускорить работу с огромным массивом научных данных: быстро находить релевантные исследования среди тысяч публикаций, структурировать медицинскую информацию о состоянии здоровья, формулировать правильные вопросы для специалистов и сравнивать разные подходы к лечению.
Сейчас рак Сида в ремиссии ♥
@machinelearning_interview
У Сида Сийбранди, основателя GitLab, диагностировали редкую форму рака. Стандартные протоколы лечения не давали результата, и в какой-то момент врачи сказали: больше ничего нельзя сделать.
Сид не принял это как приговор. Он собрал команду экспертов, погрузился в медицинскую литературу и начал самостоятельно разбираться в вариантах терапии. В этом процессе одним из главных инструментов стал ChatGPT.
Что именно делал ИИ в этой истории? Не ставил диагнозы и не назначал лечение - это по-прежнему задача врачей.
Но он помог в разы ускорить работу с огромным массивом научных данных: быстро находить релевантные исследования среди тысяч публикаций, структурировать медицинскую информацию о состоянии здоровья, формулировать правильные вопросы для специалистов и сравнивать разные подходы к лечению.
Сейчас рак Сида в ремиссии ♥
@machinelearning_interview
🎉36❤22👍3🤣3
LongCat-AudioDiT - новая SOTA диффузионная TTS-модель от Meituan.
Модель генерирует речт напрямую в латентном пространстве аудиоволн (waveform latent space), без авторегрессии → меньше накапливаемых ошибок.
Ключевое:
Архитектура: Wav-VAE + Diffusion
Размеры: 1B и 3.5B параметров
Языки: китайский + английский
SOTA по клонированию голоса (SIM: 0.818 / 0.797 на Seed-ZH / Seed-Hard)
Алгоритм APG вместо CFG — лучшее качество и естественность звука
Решена проблема несоответствия обучения и инференса в диффузионных TTS
Неочевидный вывод: лучший VAE ≠ лучший TTS
📄 Tech Report: https://github.com/meituan-longcat/LongCat-AudioDiT/blob/main/LongCat-AudioDiT.pdf
🐙 GitHub: https://github.com/meituan-longcat/LongCat-AudioDiT
🤗 Hugging Face: https://huggingface.co/meituan-longcat/LongCat-AudioDiT-3.5B
Модель генерирует речт напрямую в латентном пространстве аудиоволн (waveform latent space), без авторегрессии → меньше накапливаемых ошибок.
Ключевое:
Архитектура: Wav-VAE + Diffusion
Размеры: 1B и 3.5B параметров
Языки: китайский + английский
SOTA по клонированию голоса (SIM: 0.818 / 0.797 на Seed-ZH / Seed-Hard)
Алгоритм APG вместо CFG — лучшее качество и естественность звука
Решена проблема несоответствия обучения и инференса в диффузионных TTS
Неочевидный вывод: лучший VAE ≠ лучший TTS
📄 Tech Report: https://github.com/meituan-longcat/LongCat-AudioDiT/blob/main/LongCat-AudioDiT.pdf
🐙 GitHub: https://github.com/meituan-longcat/LongCat-AudioDiT
🤗 Hugging Face: https://huggingface.co/meituan-longcat/LongCat-AudioDiT-3.5B
👍7❤5🔥1