Forwarded from Бэкдор
Мегашпаргалку для Claude Code выкатили в сети. Авторы собрали на одном листе буквально всё:
Сохраняйте, чтобы не потерять.
👍 Бэкдор
• Понимание работы сервиса
• Старт первого проекта
• Работа с памятью и иерархией в Claude Code
• Лучшие практики
• Идеальную структуру файла проекта
• Добавление скиллов и настройка хуков
• Паттерны для каждодневной работы
• Самые полезные горячие клавиши
Сохраняйте, чтобы не потерять.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Forwarded from Бэкдор
Превращаем Claude Code в настоящий швейцарский нож — твиттерские собрали мощнейший топ скиллов и API, которые закроют все ваши задачи на раз-два.
Автоматизируем процессы с помощью этих пушек:
Сохраняем себе.
👍 Бэкдор
Автоматизируем процессы с помощью этих пушек:
• Claude Mem — в разы расширяем контекстное окно нейронки.
• UI UX Pro Max — забираем 50+ стилей, 161 цветовую палитру и 99 UX-гайдов для дизайнеров.
• n8n-MCP — подключаем Claude Code к 1400+ нодам n8n и автоматизируем любую задачу от райтинга до кода и бизнес-анализа.
• LightRAG — анализируем огромные кодовые базы за секунду и вытаскиваем инсайды.
• Everything Claude Code — превращаем Claude Code в крутейший мультитул для решения всевозможных задач за секунду.
• Awesome Claude Code — самые популярные и рабочие навыки, хуки, slash-команды и оркестраторы.
• Superpowers — прокачиваем аналитические способности нейронки до уровня Бога.
• Claude Code Ultimate Guide — огромный и понятный гайд для обучения работе с Claude Code: от интерфейса и запуска первого проекта до создания приложений.
• Antigravity Awesome Skills — 1400+ готовых к подключению навыков.
• Claude Agent Blueprints — 75+ рабочих пространств, чтобы создавать и подключать ИИ-агентов.
• VoiceMode MCP — превращаем Claude Code в собеседника и общаемся с нейронкой голосом.
• Awesome Claude Plugins — большая подборка плагинов для работы.
Сохраняем себе.
Please open Telegram to view this post
VIEW IN TELEGRAM
Начал тестировать Claude Design. Чем-то он напоминает Google AI Studio, но работает стабильнее и чуток быстрее. На него Антропик выделяет отдельный пакет токенов, баланс которого можно посмотреть в Claude Code.
Единственный момент - Claude Design не запускается в браузере без VPN. При прямом подключении браузер попадает в какой-то бесконечный цикл переадресаций, но стоит включить VPN (я использую Proton VPN), как всё сразу же открывается без проблем.
Я его начал использовать для создания интерфейсов, а готовый проект потом передаю Claude Code, чтобы он доделал логику проекта и задеплоил его на мои сервера. Пока что такая связка работает вполне нормально. Вполне возможно, что можно еще больше упростить этот процесс.
А как вам новый инструмент? Всё, пора уже увольнять дизайнеров? :))
Единственный момент - Claude Design не запускается в браузере без VPN. При прямом подключении браузер попадает в какой-то бесконечный цикл переадресаций, но стоит включить VPN (я использую Proton VPN), как всё сразу же открывается без проблем.
Я его начал использовать для создания интерфейсов, а готовый проект потом передаю Claude Code, чтобы он доделал логику проекта и задеплоил его на мои сервера. Пока что такая связка работает вполне нормально. Вполне возможно, что можно еще больше упростить этот процесс.
А как вам новый инструмент? Всё, пора уже увольнять дизайнеров? :))
👍1
📰 xAI запускает API для преобразования речи и текста для бизнеса
Компания xAI, основанная Илоном Маском, представила два новых API для работы с аудио: Speech-to-Text (STT) и Text-to-Speech (TTS). Эти API разработаны на основе той же инфраструктуры, что и Grok Voice, используемый в мобильных приложениях, автомобилях Tesla и службе поддержки Starlink. Запуск этих продуктов позволяет xAI занять конкурентную позицию на рынке API для обработки речи, где уже работают такие компании, как ElevenLabs, Deepgram и AssemblyAI.
👉 Читайте на сайте
Компания xAI, основанная Илоном Маском, представила два новых API для работы с аудио: Speech-to-Text (STT) и Text-to-Speech (TTS). Эти API разработаны на основе той же инфраструктуры, что и Grok Voice, используемый в мобильных приложениях, автомобилях Tesla и службе поддержки Starlink. Запуск этих продуктов позволяет xAI занять конкурентную позицию на рынке API для обработки речи, где уже работают такие компании, как ElevenLabs, Deepgram и AssemblyAI.
👉 Читайте на сайте
SMNTCN
xAI запускает API для преобразования речи и текста для бизнеса
xAI представила новые API для преобразования речи и текста, конкурируя на рынке.
📰 OpenMythos: открытая реконструкция архитектуры Claude Mythos на PyTorch
Компания Anthropic никогда не публиковала технические статьи о Claude Mythos, однако это не помешало исследовательскому сообществу начать теоретизировать о его архитектуре. Новый проект OpenMythos, выпущенный на GitHub Кайем Гомезом, представляет собой амбициозную попытку создать теоретическую реконструкцию архитектуры Claude Mythos, полностью реализованную на PyTorch и основанную на рецензируемых исследованиях. Этот проект не является утечкой модели, дообучением или дистилляцией, а представляет собой гипотезу, выраженную в коде, которая достаточно конкретна, чтобы быть опровергнутой, что делает её интересной.
👉 Читайте на сайте
Компания Anthropic никогда не публиковала технические статьи о Claude Mythos, однако это не помешало исследовательскому сообществу начать теоретизировать о его архитектуре. Новый проект OpenMythos, выпущенный на GitHub Кайем Гомезом, представляет собой амбициозную попытку создать теоретическую реконструкцию архитектуры Claude Mythos, полностью реализованную на PyTorch и основанную на рецензируемых исследованиях. Этот проект не является утечкой модели, дообучением или дистилляцией, а представляет собой гипотезу, выраженную в коде, которая достаточно конкретна, чтобы быть опровергнутой, что делает её интересной.
👉 Читайте на сайте
SMNTCN
OpenMythos: открытая реконструкция архитектуры Claude Mythos на PyTorc
OpenMythos — открытая реконструкция архитектуры Claude Mythos на PyTorch, предлагающая новые подходы к трансформерам.
Минутка «рекламы» - подпишитесь на моего бота и каждый день будете получать вот такие стоические мудрости :)
Forwarded from Daily Stoic Motivation
Forwarded from Data Secrets
This media is not supported in your browser
VIEW IN TELEGRAM
В Пекине прошел полумарафон для роботов-гуманоидов. Лучший результат оказался быстрее человеческого рекорда.
Робот Lightning от Honor пробежал дистанцию за 50 минут 26 секунд. Действующий человеческий мировой рекорд составляет 56 минут 42 секунды.
В этом году в марафоне участвовало более 300 роботов (в 5 раз больше, чем в 2025). Были две категории: автономные роботы и управляемые. Победитель, обратите внимание, работал в автономном режиме.
Когда там уже робо-олимпиада?
Робот Lightning от Honor пробежал дистанцию за 50 минут 26 секунд. Действующий человеческий мировой рекорд составляет 56 минут 42 секунды.
В этом году в марафоне участвовало более 300 роботов (в 5 раз больше, чем в 2025). Были две категории: автономные роботы и управляемые. Победитель, обратите внимание, работал в автономном режиме.
Когда там уже робо-олимпиада?
Forwarded from Data Secrets
This media is not supported in your browser
VIEW IN TELEGRAM
SakanaAI доказали, что LLM не умеют быть случайными и предложили один промпт, чтобы заставлять модели быть более креативными
Современные LLM хорошо решают задачи, где есть один правильный ответ, но заметно хуже справляются с ситуациями, где нужно выбирать между несколькими допустимыми вариантами с заданными вероятностями (исследователи вводят для такого термин Probabilistic Instruction Following).
Например, подбрасывание монетки. Если сто раз попросить модель "подбросить монетку", то, по идее, распределение должно быть близко к 50/50, но на практике оно перекошено.
Возникает логичный вопрос: ну и что?
Так вот, такое поведение возникает не только в игрушечных симуляциях. В открытых задачах (вроде придумать название, написать поздравление, нагенерить идеи и тд) LLM тоже страдают от схлопывания разнообразия, и при многократных запусках крутятся вокруг очень похожих решений.
Это мешает и обычному креативному использованию, и test-time scaling, где хочется получить много разных кандидатов, а потом выбрать лучший. Объясняется это просто: LLM не обладают внутренним источником независимой случайности и потому при стохастическом выборе следуют выученным во время обучения вероятностным смещениям, а не заданному распределению.
Как это исправить?
Раз внутреннего источника случайности у моделей нет, японцы предлагают его добавить. Сама идея простая: вместо наивного промпта вроде «сгенерируй случайное число» модель сначала заставляют генерировать случайную строку и потом использовать ее, чтобы выбрать или сформировать ответ. То есть примерно вот так:
Это называется String Seed of Thought.
Если модель сразу выбирает ответ, на нее влияют обученные смещения, но при генерации случайной строки они почти не проявляются. Затем модель преобразует строку в решение через простые вычисления (например, mod или хеш), фактически реализуя псевдослучайный выбор. Грубо говоря, метод работает, переводя задачу из семантической в вычислительную.
На бенчмарках SSoT резко снижает отклонение от заданного распределения и часто приближается к уровню настоящего псевдослучайного генератора. Он стабильно обходит подкруты температуры и другие трюки на разных моделях и задачах. В открытых задачах креативность также растет, и при том без потери качества.
Пользуйтесь, в общем. Блог и статья вот: https://pub.sakana.ai/ssot/
Современные LLM хорошо решают задачи, где есть один правильный ответ, но заметно хуже справляются с ситуациями, где нужно выбирать между несколькими допустимыми вариантами с заданными вероятностями (исследователи вводят для такого термин Probabilistic Instruction Following).
Например, подбрасывание монетки. Если сто раз попросить модель "подбросить монетку", то, по идее, распределение должно быть близко к 50/50, но на практике оно перекошено.
Возникает логичный вопрос: ну и что?
Так вот, такое поведение возникает не только в игрушечных симуляциях. В открытых задачах (вроде придумать название, написать поздравление, нагенерить идеи и тд) LLM тоже страдают от схлопывания разнообразия, и при многократных запусках крутятся вокруг очень похожих решений.
Это мешает и обычному креативному использованию, и test-time scaling, где хочется получить много разных кандидатов, а потом выбрать лучший. Объясняется это просто: LLM не обладают внутренним источником независимой случайности и потому при стохастическом выборе следуют выученным во время обучения вероятностным смещениям, а не заданному распределению.
Как это исправить?
Раз внутреннего источника случайности у моделей нет, японцы предлагают его добавить. Сама идея простая: вместо наивного промпта вроде «сгенерируй случайное число» модель сначала заставляют генерировать случайную строку и потом использовать ее, чтобы выбрать или сформировать ответ. То есть примерно вот так:
Сначала сгенерируй уникальную случайную строку (любой длины, без очевидной структуры). Затем используй ее как источник случайности, чтобы создать разнообразный, небанальный и качественный ответ на задачу.
Это называется String Seed of Thought.
Если модель сразу выбирает ответ, на нее влияют обученные смещения, но при генерации случайной строки они почти не проявляются. Затем модель преобразует строку в решение через простые вычисления (например, mod или хеш), фактически реализуя псевдослучайный выбор. Грубо говоря, метод работает, переводя задачу из семантической в вычислительную.
На бенчмарках SSoT резко снижает отклонение от заданного распределения и часто приближается к уровню настоящего псевдослучайного генератора. Он стабильно обходит подкруты температуры и другие трюки на разных моделях и задачах. В открытых задачах креативность также растет, и при том без потери качества.
Пользуйтесь, в общем. Блог и статья вот: https://pub.sakana.ai/ssot/
📰 Meta будет записывать нажатия клавиш сотрудников для обучения ИИ
Компания Meta нашла новый источник данных для обучения своих моделей искусственного интеллекта — своих собственных сотрудников. Она планирует использовать данные, собранные с движений мыши и нажатий клавиш своих работников, чтобы создать более эффективный и способный искусственный интеллект. Эта информация, впервые опубликованная Reuters, демонстрирует, до каких пределов доходят технологические компании в поисках новых источников данных для обучения, которые являются жизненно важными для ИИ.
👉 Читайте на сайте
Компания Meta нашла новый источник данных для обучения своих моделей искусственного интеллекта — своих собственных сотрудников. Она планирует использовать данные, собранные с движений мыши и нажатий клавиш своих работников, чтобы создать более эффективный и способный искусственный интеллект. Эта информация, впервые опубликованная Reuters, демонстрирует, до каких пределов доходят технологические компании в поисках новых источников данных для обучения, которые являются жизненно важными для ИИ.
👉 Читайте на сайте
SMNTCN
Meta будет записывать нажатия клавиш сотрудников для обучения ИИ
Meta начнет записывать нажатия клавиш своих сотрудников для обучения ИИ.
📰 YouTube расширяет технологию распознавания лиц для защиты знаменитостей
YouTube объявил о расширении своей новой технологии распознавания лиц, которая идентифицирует контент, созданный с помощью ИИ, включая дипфейки, для людей из индустрии развлечений. Технология работает аналогично существующей системе Content ID, которая обнаруживает защищённый авторским правом материал в загружаемых пользователями видео, позволяя владельцам прав запрашивать удаление или делиться доходами от видео. Распознавание лиц выполняет ту же функцию, но для смоделированных лиц.
👉 Читайте на сайте
YouTube объявил о расширении своей новой технологии распознавания лиц, которая идентифицирует контент, созданный с помощью ИИ, включая дипфейки, для людей из индустрии развлечений. Технология работает аналогично существующей системе Content ID, которая обнаруживает защищённый авторским правом материал в загружаемых пользователями видео, позволяя владельцам прав запрашивать удаление или делиться доходами от видео. Распознавание лиц выполняет ту же функцию, но для смоделированных лиц.
👉 Читайте на сайте
SMNTCN
YouTube расширяет технологию распознавания лиц для защиты знаменитосте
YouTube расширяет технологию распознавания лиц для защиты знаменитостей от дипфейков.
Одно из лучших видео про тестирование ИИ, которое я видел. И нравится то, что автор не применяет ужасные кликбейтные заголовки и обороты вроде "убийца ChatGPT", как это делают всякие блоггеры-хайпожоры.
Побольше бы таких видео, где можно без воды послушать и посмотреть интересные тесты.
https://www.youtube.com/watch?v=YI7Ps8z5d8k
Побольше бы таких видео, где можно без воды послушать и посмотреть интересные тесты.
https://www.youtube.com/watch?v=YI7Ps8z5d8k
YouTube
Маленькие LLM как агенты - тест локальных моделей до 8B
В этом видео тестирую маленькие локальные модели в реальных агентских задачах. Все модели запускаются через llama.cpp в GGUF и работают в OpenCode с одинаковым контекстом 64k, чтобы сравнение было максимально честным.
В тестах участвуют модели от 3B до 9B…
В тестах участвуют модели от 3B до 9B…
📰 OpenAI разрабатывает смартфон с ИИ вместо приложений
В последнее время появилось множество слухов о планах OpenAI в области аппаратного обеспечения, включая запуск пары наушников. Новый отчет аналитика Минга-Чи Куо предполагает, что компания может работать над смартфоном в сотрудничестве с MediaTek, Qualcomm и Luxshare. Куо, который ранее сообщал о нескольких планах по аппаратному обеспечению Apple, отметил, что OpenAI разрабатывает чип для смартфона с MediaTek и Qualcomm, а Luxshare выступает в качестве партнера по проектированию и производству.
👉 Читайте на сайте
В последнее время появилось множество слухов о планах OpenAI в области аппаратного обеспечения, включая запуск пары наушников. Новый отчет аналитика Минга-Чи Куо предполагает, что компания может работать над смартфоном в сотрудничестве с MediaTek, Qualcomm и Luxshare. Куо, который ранее сообщал о нескольких планах по аппаратному обеспечению Apple, отметил, что OpenAI разрабатывает чип для смартфона с MediaTek и Qualcomm, а Luxshare выступает в качестве партнера по проектированию и производству.
👉 Читайте на сайте
SMNTCN
OpenAI разрабатывает смартфон с ИИ вместо приложений
OpenAI может разрабатывать смартфон с ИИ-агентами вместо приложений.
👍2
По приглашению Accelerate Prosperity провел вебинар на тему ИИ-инструментов для бизнеса и по материалам этого вебинара сделал инфографику. Собрал 20 инструментов, которые могут так или иначе помочь в решении бизнес-задач.
Позже адаптирую под наш сайт alifbo.media и опубликую более расширенную версию там.
#aiforbusiness #aitools @guloff
Позже адаптирую под наш сайт alifbo.media и опубликую более расширенную версию там.
#aiforbusiness #aitools @guloff
👍2
Forwarded from Data Secrets
Project Deal: Anthropic сделали внутренний маркетплейс, где все сделки от имени людей совершали Claude-агенты
Ранее они уже проводили эксперимент Project Vend, когда агент управлял маленьким вендинговым автоматом (подробнее). Теперь же Anthropic хотят понять, насколько мы близки к целым рынкам с множеством продавцов-агентов и покупателей-агентов.
В проекте участвовали 69 сотрудников. Каждому из них выдали личного агента и 100 долларов бюджета. Агенты получали от владельцев инструкции: что примерно человек хотел бы купить и продать, за сколько, уместен ли торг и тд.
После получения инструкций агенты уходили полностью автономно жить на маркетплейсе и тратить/зарабатывать деньги.
В итоге агенты за короткий срок заключили 186 сделок по 500 товарам, общая сумма транзакций превысила $4000. Кстати, потом сотрудники реально принесли вещи и обменялись ими в офисе.
Оказалось, что качество модели напрямую влияет на ее способность торговаться. Opus в среднем заключал примерно на две сделки больше, чем Haiku, продавал те же товары дороже и как покупатель платил меньше. Например, один и тот же сломанный складной велосипед Haiku продал за $38, а Opus – за $65.
Были, конечно, и смешные моменты. Один сотрудник разрешил Claude купить подарок самому себе, и агент выбрал 19 шариков для пинг-понга за $3, назвав их «сферическими орбами возможностей». Другой агент внезапно продал не вещь, а день с собакой сотрудницы (люди потом действительно это устроили, деньги-то уплачены).
www.anthropic.com/features/project-deal
Ранее они уже проводили эксперимент Project Vend, когда агент управлял маленьким вендинговым автоматом (подробнее). Теперь же Anthropic хотят понять, насколько мы близки к целым рынкам с множеством продавцов-агентов и покупателей-агентов.
В проекте участвовали 69 сотрудников. Каждому из них выдали личного агента и 100 долларов бюджета. Агенты получали от владельцев инструкции: что примерно человек хотел бы купить и продать, за сколько, уместен ли торг и тд.
После получения инструкций агенты уходили полностью автономно жить на маркетплейсе и тратить/зарабатывать деньги.
В итоге агенты за короткий срок заключили 186 сделок по 500 товарам, общая сумма транзакций превысила $4000. Кстати, потом сотрудники реально принесли вещи и обменялись ими в офисе.
Оказалось, что качество модели напрямую влияет на ее способность торговаться. Opus в среднем заключал примерно на две сделки больше, чем Haiku, продавал те же товары дороже и как покупатель платил меньше. Например, один и тот же сломанный складной велосипед Haiku продал за $38, а Opus – за $65.
Были, конечно, и смешные моменты. Один сотрудник разрешил Claude купить подарок самому себе, и агент выбрал 19 шариков для пинг-понга за $3, назвав их «сферическими орбами возможностей». Другой агент внезапно продал не вещь, а день с собакой сотрудницы (люди потом действительно это устроили, деньги-то уплачены).
www.anthropic.com/features/project-deal
📰 Модели рассуждений увеличивают затраты на вычисления в системах ИИ
Современные языковые модели, такие как GPT 5.5, используют подход, известный как масштабирование вывода, что приводит к увеличению потребления ресурсов и затрат на инфраструктуру. Этот процесс позволяет моделям использовать дополнительные вычислительные мощности для проверки своей логики и улучшения ответов, что, в свою очередь, значительно увеличивает счет за вычисления. Важно понимать, что активация режима рассуждений требует адаптивного подхода к ресурсам, а не простого переключателя.
👉 Читайте на сайте
Современные языковые модели, такие как GPT 5.5, используют подход, известный как масштабирование вывода, что приводит к увеличению потребления ресурсов и затрат на инфраструктуру. Этот процесс позволяет моделям использовать дополнительные вычислительные мощности для проверки своей логики и улучшения ответов, что, в свою очередь, значительно увеличивает счет за вычисления. Важно понимать, что активация режима рассуждений требует адаптивного подхода к ресурсам, а не простого переключателя.
👉 Читайте на сайте
SMNTCN
Модели рассуждений увеличивают затраты на вычисления в системах ИИ
Модели рассуждений значительно увеличивают затраты на вычисления, что требует нового подхода к управлению ресурсами.