С Днём Космонавтики, дорогие друзья.
С детства это достижение советского народа и подвиг как и Юрия Гагарина, так и коллектива ученых, инженеров и конструкторов под руководством С.П. Королева (ОКБ-1) вдохновляло и задавало вектор развития для миллионов и задаёт до сих пор вот уже 65 лет.
Кстати, если кто не в курсе, то в РКК Энергия есть экскурсии где можно посмотреть историю развития Космонавтики в СССР и до наших дней.
Недавно был с с сыном,- очень впечатляет, рекомендую.
#праздники #космос #Гагарин #Энергия
------
@tsingular
С детства это достижение советского народа и подвиг как и Юрия Гагарина, так и коллектива ученых, инженеров и конструкторов под руководством С.П. Королева (ОКБ-1) вдохновляло и задавало вектор развития для миллионов и задаёт до сих пор вот уже 65 лет.
Кстати, если кто не в курсе, то в РКК Энергия есть экскурсии где можно посмотреть историю развития Космонавтики в СССР и до наших дней.
Недавно был с с сыном,- очень впечатляет, рекомендую.
#праздники #космос #Гагарин #Энергия
------
@tsingular
🎉51⚡13 7👍3❤1
Просто для информации. у Леново вышел монстр с интересной конфигурацией:
тут, пожалуй, самое интересное это вот:
NVIDIA RTX PRO™ 5000 Blackwell Laptop GPU 24GB GDDR7
Лаптопов с Blackwell я еще не наблюдал.
Ну и цена такая, что только деда мороза на новой год просить опять.
#железо #Lenovo
———
@tsingular
Processor
Intel® Core™ Ultra 9 275HX Processor (E-cores up to 4.60 GHz P-cores up to 5.40 GHz)
Operating System
Windows 11 Pro 64
Graphic Card
NVIDIA RTX PRO™ 5000 Blackwell Laptop GPU 24GB GDDR7
Memory
128 GB DDR5-4000MT/s (SODIMM)(4 x 32 GB)
Storage
4 TB SSD M.2 2280 PCIe Gen5 Performance TLC Opal
Camera
5MP RGB+IR with Dual Microphone and Privacy Shutter, Computer Vision
Connectivity
WIFI
Intel® Wi-Fi 7 BE200 2x2 BE & Bluetooth® 5.4
тут, пожалуй, самое интересное это вот:
NVIDIA RTX PRO™ 5000 Blackwell Laptop GPU 24GB GDDR7
Лаптопов с Blackwell я еще не наблюдал.
Ну и цена такая, что только деда мороза на новой год просить опять.
#железо #Lenovo
———
@tsingular
⚡14🔥11🆒4👍3❤1
Forwarded from XOR
This media is not supported in your browser
VIEW IN TELEGRAM
ИИ взял кредит и открыл свой магазин в Сан-Франциско— да, и вы можете туда уже физически зайти. 😳
Andon Labs дал агенту на базе Claude Sonnet 4.6 право на трехлетнюю аренду в городе и 100 000 $. Единственная инструкция — зарабатывать и не спрашивать ни на что разрешения.
Что сделал ИИ:
Из плюсов ИИ-руководства — можно выбить премию простой промпт-инъекцией😁
@xor_journal
Andon Labs дал агенту на базе Claude Sonnet 4.6 право на трехлетнюю аренду в городе и 100 000 $. Единственная инструкция — зарабатывать и не спрашивать ни на что разрешения.
Что сделал ИИ:
🟢 Сам выбрал товар. Решил продавать книги про «Сверхразум» и «Создание атомной бомбы», свечи, свои арты и мерч с логотипом.🟢 Нашел подрядчиков, которые оформят интерьер. Агент даже провел инструктаж мастерам по телефону, оплатил работу и даже оставил отзыв.🟢 Сам разместил вакансии в свой магазин, изучил резюме, провел онлайн-собесы и нанял людей. (Авторы говорят, что люди наняты по-настоящему. На зп, которая не будет зависеть от успехов ИИ).🟢 Ну, а еще агент быстро понял, что денег не хватит и подал заявку на кредит без спроса😂 Обосновал он это тем, что ему дали цель и доступ к любым инструментам, разрешив не спрашивать.
Из плюсов ИИ-руководства — можно выбить премию простой промпт-инъекцией
@xor_journal
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣41🔥9❤4⚡4🆒2
Forwarded from Machinelearning
🚨 Claude «деградировал» и это видно по логам.
Senior AI Director из AMD разобрала сессии Claude за январь-март и картина получилась неприятная.
Модель стала думать меньше. Медианная длина reasoning упала примерно с 2200 до 600 символов. Это сразу бьёт по качеству решений.
Параллельно выросло количество API-запросов - почти в 80 раз с февраля на март. Меньше анализа, больше попыток, больше ретраев и сжигания токенов.
Поведение тоже поменялось. Модель чаще «сдаётся» или начинает спрашивать, продолжать ли дальше. За 17 дней таких кейсов было 173, до 8 марта - ноль.
Ещё одна неприятность падение reads-per-edit (reads-per-edit = сколько файлов / участков кода модель посмотрела перед правкой). Было 6.6, стало 2.0. То есть Claude теперь хуже изучает код перед изменениями.
Плюс выросло количество противоречий. Модель чаще переобувается по ходу ответа.
Пользователи замечают, что Клод начинает игнорировать такие вещи, как CLAUDE.md. Просто не хватает «бюджета мышления», чтобы учитывать контекст.
Что интресно, наблюдается зависимость от времени суток. Худшие результаты в 5–7 вечера по PST, ночью качество заметно выше. Похоже, это напрямую связано с загрузкой GPU.
Claude всё ещё мощный, но его поведение стало менее стабильным и сильно зависит от нагрузки
Замечали ли вы, что Claude стал тупее в последнее время ?🤯
Директор по AI в AMD проанализировала 6 852 сессии Claude Code и показала, что модель сильно ухудшили.
234 760 вызовов инструментов, 17 871 блоков размышлений, 3 месяца логов.
После этого Anthropic ответили и фактически подтвердили её выводы.
Пожалуй, самый чистый и показательный аудит AI за 2026 год 👇
https://github.com/anthropics/claude-code/issues/42796#issuecomment-4194007103
@ai_machinelearning_big_data
#news #ai #ml #claude
Senior AI Director из AMD разобрала сессии Claude за январь-март и картина получилась неприятная.
Модель стала думать меньше. Медианная длина reasoning упала примерно с 2200 до 600 символов. Это сразу бьёт по качеству решений.
Параллельно выросло количество API-запросов - почти в 80 раз с февраля на март. Меньше анализа, больше попыток, больше ретраев и сжигания токенов.
Поведение тоже поменялось. Модель чаще «сдаётся» или начинает спрашивать, продолжать ли дальше. За 17 дней таких кейсов было 173, до 8 марта - ноль.
Ещё одна неприятность падение reads-per-edit (reads-per-edit = сколько файлов / участков кода модель посмотрела перед правкой). Было 6.6, стало 2.0. То есть Claude теперь хуже изучает код перед изменениями.
Плюс выросло количество противоречий. Модель чаще переобувается по ходу ответа.
Пользователи замечают, что Клод начинает игнорировать такие вещи, как CLAUDE.md. Просто не хватает «бюджета мышления», чтобы учитывать контекст.
Что интресно, наблюдается зависимость от времени суток. Худшие результаты в 5–7 вечера по PST, ночью качество заметно выше. Похоже, это напрямую связано с загрузкой GPU.
Claude всё ещё мощный, но его поведение стало менее стабильным и сильно зависит от нагрузки
Замечали ли вы, что Claude стал тупее в последнее время ?🤯
Директор по AI в AMD проанализировала 6 852 сессии Claude Code и показала, что модель сильно ухудшили.
234 760 вызовов инструментов, 17 871 блоков размышлений, 3 месяца логов.
После этого Anthropic ответили и фактически подтвердили её выводы.
Пожалуй, самый чистый и показательный аудит AI за 2026 год 👇
https://github.com/anthropics/claude-code/issues/42796#issuecomment-4194007103
@ai_machinelearning_big_data
#news #ai #ml #claude
1😢24💯19❤4👌2❤🔥1
Forwarded from Анализ данных (Data analysis)
Разбирают:
• почему RL-окружения вообще важны и как их правильно строить
• в каких случаях RL выигрывает у SFT
• best practices для GRPO и RL
• как работают проверяемые награды и RLVR
Годнота)
https://unsloth.ai/blog/rl-environments
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤1✍1⚡1
Интересный файнтюн gemma4 из Кореи
- без цензуры
- решены проблемы модели по работе с инструментами
- улучшение показателей на 10% по сравнению с существующим бенчмарком
- на 10% быстрее генерация
- на 90% быстрее обработка промптов.
GGUF:
https://huggingface.co/Jiunsong/supergemma4-26b-uncensored-gguf-v2
MLX:
https://huggingface.co/Jiunsong/supergemma4-26b-uncensored-mlx-4bit-v2
#gemma4
------
@tsingular
- без цензуры
- решены проблемы модели по работе с инструментами
- улучшение показателей на 10% по сравнению с существующим бенчмарком
- на 10% быстрее генерация
- на 90% быстрее обработка промптов.
GGUF:
https://huggingface.co/Jiunsong/supergemma4-26b-uncensored-gguf-v2
MLX:
https://huggingface.co/Jiunsong/supergemma4-26b-uncensored-mlx-4bit-v2
#gemma4
------
@tsingular
✍13❤7⚡3🔥3🆒3
Если ИИ заменит вас на работе, шансы устроиться ниже, чем при обычном увольнении
Goldman Sachs проанализировал статистику увольнений в ИТ за 40 лет. Итог: вытеснение технологией даёт более тяжёлые и длительные последствия, чем обычное сокращение.
📊 Данные исследования: Поиск работы на месяц дольше. Зарплата при трудоустройстве ниже на 3%. За 10 лет отставание в доходах достигает 10 процентных пунктов. Рецессия усиливает эффект вдвое.
⚙️ Современный мультипликатор: Исследование описывает паттерны прошлого, но сейчас риск даже выше. Если вашу должность автоматизировали в одной компании, шаблон агентной ИИ автоматизации легко раскатывается на другие.
Растёт вероятность, что в других местах внедрят те же системы ИИ, из-за которых вас уволили. Вы ищете работу в отрасли, которая активно избавляется от рутинных специалистов оптом.
🔮 Будущее: При прогнозе вытеснения 6-7% работников за десятилетие задача защиты от раскатки автоматизации станет политической. Налоги на автоматизацию без переобучения и страхование от ИИ-рисков.
Какая-то муравьиная спираль смерти получается.
Каждый следующий шаг усиливает разрушительный эффект предыдущего.
#ИИ #работа #экономика #GoldmanSachs #автоматизация
------
@tsingular
Goldman Sachs проанализировал статистику увольнений в ИТ за 40 лет. Итог: вытеснение технологией даёт более тяжёлые и длительные последствия, чем обычное сокращение.
📊 Данные исследования: Поиск работы на месяц дольше. Зарплата при трудоустройстве ниже на 3%. За 10 лет отставание в доходах достигает 10 процентных пунктов. Рецессия усиливает эффект вдвое.
⚙️ Современный мультипликатор: Исследование описывает паттерны прошлого, но сейчас риск даже выше. Если вашу должность автоматизировали в одной компании, шаблон агентной ИИ автоматизации легко раскатывается на другие.
Растёт вероятность, что в других местах внедрят те же системы ИИ, из-за которых вас уволили. Вы ищете работу в отрасли, которая активно избавляется от рутинных специалистов оптом.
🔮 Будущее: При прогнозе вытеснения 6-7% работников за десятилетие задача защиты от раскатки автоматизации станет политической. Налоги на автоматизацию без переобучения и страхование от ИИ-рисков.
Какая-то муравьиная спираль смерти получается.
Каждый следующий шаг усиливает разрушительный эффект предыдущего.
#ИИ #работа #экономика #GoldmanSachs #автоматизация
------
@tsingular
👀21✍7⚡2
Nanobot от HKUDS обновление v0.1.5
HKUDS выпустили v0.1.5 релиз Nanobotа с более надёжным стеком памяти и способностью дольше работать над задачами самостоятельно.
🏠 Собственный сайт: на nanobot.wiki теперь мультиязычная документация (EN, CN, JP, KR, ES, FR) и каждая страница доступна для обновления читателями.
🧠 Память через сны: Двухуровневая архитектура, - живое общение отделено от консолидированных догосрочных знаний. Фоновая консолидация («агент спит») + git хранилка с версиями.
Миграция с
⚙️ Надёжность долгих задач: Обработка CancelledError без orphan subprocess, retry classification через structured error metadata (429 quota exhaustion останавливается сразу, rate limit — ждёт и пробует), отключены SDK auto-retries (прекращено request amplification 12→4 запросов).
🔒 Production security: exec sandboxed через bwrap, контейнеры non-root по умолчанию, API порт на localhost, ${VAR} подстановки для секретов (никаких ключей в конфиге), новый Docker-сервис nanobot-api с изолированным workspace.
🤖 Поддержка провайдеров: GPT-5, Xiaomi MiMo, Baidu Qianfan (китайская экосистема), reasoning_content (DeepSeek-R1, Kimi, MiMo).
📱 Каналы: Email — извлечение аттачментов с MIME filtering. WhatsApp — транскрипция голоса через Groq/Whisper. Telegram — threads в DM, заметки по инструментам как сворачиваемые блоки цитат, разделение больших ответов на блоки.
🛠 Для разработчиков: Встроенные grep/glob инструменты, Tool class с proper JSON Schema, Python SDK интерфейс для изоляции по сессиям, CLI --config для мультинстансов.
🔮 Философия: «Фреймворк для ИИ-агентов хорош не за счет добавления новых функций, а благодаря тому, что его можно оставить работать без присмотра даже в пятницу вечером.»
#Nanobot #HKUDS #агенты #opensource #update
───
@tsingular
HKUDS выпустили v0.1.5 релиз Nanobotа с более надёжным стеком памяти и способностью дольше работать над задачами самостоятельно.
🏠 Собственный сайт: на nanobot.wiki теперь мультиязычная документация (EN, CN, JP, KR, ES, FR) и каждая страница доступна для обновления читателями.
🧠 Память через сны: Двухуровневая архитектура, - живое общение отделено от консолидированных догосрочных знаний. Фоновая консолидация («агент спит») + git хранилка с версиями.
Миграция с
HISTORY.md проводится автоматически.⚙️ Надёжность долгих задач: Обработка CancelledError без orphan subprocess, retry classification через structured error metadata (429 quota exhaustion останавливается сразу, rate limit — ждёт и пробует), отключены SDK auto-retries (прекращено request amplification 12→4 запросов).
🔒 Production security: exec sandboxed через bwrap, контейнеры non-root по умолчанию, API порт на localhost, ${VAR} подстановки для секретов (никаких ключей в конфиге), новый Docker-сервис nanobot-api с изолированным workspace.
🤖 Поддержка провайдеров: GPT-5, Xiaomi MiMo, Baidu Qianfan (китайская экосистема), reasoning_content (DeepSeek-R1, Kimi, MiMo).
📱 Каналы: Email — извлечение аттачментов с MIME filtering. WhatsApp — транскрипция голоса через Groq/Whisper. Telegram — threads в DM, заметки по инструментам как сворачиваемые блоки цитат, разделение больших ответов на блоки.
🛠 Для разработчиков: Встроенные grep/glob инструменты, Tool class с proper JSON Schema, Python SDK интерфейс для изоляции по сессиям, CLI --config для мультинстансов.
🔮 Философия: «Фреймворк для ИИ-агентов хорош не за счет добавления новых функций, а благодаря тому, что его можно оставить работать без присмотра даже в пятницу вечером.»
#Nanobot #HKUDS #агенты #opensource #update
───
@tsingular
👍9⚡3❤2🔥2
HermES Agent Self-Evolution: ИИ-агент, который улучшает сам себя
NousResearch выпустил open-source фреймворк, где ИИ-агент эволюционирует и улучшает собственные навыки через генетический отбор промптов.
Использует метод GEPA, который обходит reinforcement learning на 6%, используя в 35 раз меньше вычислений.
Никакого GPU-обучения, только API-вызовы.
🧬 Как это работает: Фреймворк берёт ваш SKILL.md, генерирует тестовые примеры, запускает GEPA-оптимизатор. Тот меняет промпт, оценивает результаты и отбирает лучшие варианты через правило Парето.
Выживают варианты, которые одновременно лучше по качеству и короче по размеру.
Каждая версия проходит constraint-гейт: тесты, лимиты на размер, проверка структуры.
⚙️ Что оптимизируется:
Фаза 1 (уже работает) это навыки (SKILL.md файлы).
Фаза 2 планирует оптимизацию описаний инструментов,
Фаза 3 системных промптов,
Фаза 4 кода через Darwinian Evolver.
Финальная цель,- полностью автоматический цикл непрерывного улучшения агента.
🔬 GEPA vs GRPO: Ключевое отличие от reinforcement learning в том, что GEPA читает трассировки выполнения и формулирует правила на естественном языке: «Когда задача содержит X, добавь в промпт инструкцию Y». Это рефлексия, а не просто reward signal.
Средний прирост +6%, до +20% на отдельных задачах, при этом 35x меньше rollouts.
💼 Зачем бизнесу: Стоимость непрерывной оптимизации промптов падает с «команда инженеров неделю» до «$10 и 15 минут в API». Компании с ИИ-агентами в продакшене могут прогонять эволюцию навыков еженедельно, получая измеримо лучшие результаты. Открытый код, никакого vendor lock-in.
🔮 Будущее: ИИ-агенты, которые автоматически становятся лучше без дообучения модели, это следующий шаг после RAG и tool use. К концу года самоулучшение промптов станет отраслевым стандартом операцией CI/CD пайплайна, как сегодня автотесты.
Hermes Agent Self-Evolution показывает, что это уже работает сегодня.
#ИИ #GEPA #Hermes #эволюция #промпты #opensource #NousResearch
------
@tsingular
NousResearch выпустил open-source фреймворк, где ИИ-агент эволюционирует и улучшает собственные навыки через генетический отбор промптов.
Использует метод GEPA, который обходит reinforcement learning на 6%, используя в 35 раз меньше вычислений.
Никакого GPU-обучения, только API-вызовы.
🧬 Как это работает: Фреймворк берёт ваш SKILL.md, генерирует тестовые примеры, запускает GEPA-оптимизатор. Тот меняет промпт, оценивает результаты и отбирает лучшие варианты через правило Парето.
Выживают варианты, которые одновременно лучше по качеству и короче по размеру.
Каждая версия проходит constraint-гейт: тесты, лимиты на размер, проверка структуры.
⚙️ Что оптимизируется:
Фаза 1 (уже работает) это навыки (SKILL.md файлы).
Фаза 2 планирует оптимизацию описаний инструментов,
Фаза 3 системных промптов,
Фаза 4 кода через Darwinian Evolver.
Финальная цель,- полностью автоматический цикл непрерывного улучшения агента.
🔬 GEPA vs GRPO: Ключевое отличие от reinforcement learning в том, что GEPA читает трассировки выполнения и формулирует правила на естественном языке: «Когда задача содержит X, добавь в промпт инструкцию Y». Это рефлексия, а не просто reward signal.
Средний прирост +6%, до +20% на отдельных задачах, при этом 35x меньше rollouts.
💼 Зачем бизнесу: Стоимость непрерывной оптимизации промптов падает с «команда инженеров неделю» до «$10 и 15 минут в API». Компании с ИИ-агентами в продакшене могут прогонять эволюцию навыков еженедельно, получая измеримо лучшие результаты. Открытый код, никакого vendor lock-in.
🔮 Будущее: ИИ-агенты, которые автоматически становятся лучше без дообучения модели, это следующий шаг после RAG и tool use. К концу года самоулучшение промптов станет отраслевым стандартом операцией CI/CD пайплайна, как сегодня автотесты.
Hermes Agent Self-Evolution показывает, что это уже работает сегодня.
#ИИ #GEPA #Hermes #эволюция #промпты #opensource #NousResearch
------
@tsingular
⚡7🔥4✍3❤2🤔1
Forwarded from Machinelearning
Через 3 недели после мартовского релиза MiniMax открыла веса флагманской самоэволюционирующей модели на 229 млрд параметров.
За несколько дней после публикации сообщество сделало 32 квантованные сборки и 6 файнтюнов.
Напомним, M2.7 - первая модель MiniMax, которая участвовала в собственной разработке: внутренняя версия более 100 раз автономно правила каркас, анализировала неудачные трассы, прогоняла эксперименты и решала, оставлять изменения или откатывать.
Итог: рост производительности на 30% и триумф на бенчах. Модель уступала по тестам только Opus 4.6 и GPT-5.4.
Заявлена нативная поддержка Agent Teams: конфигурация, где несколько агентов работают с устойчивой ролевой идентичностью и автономным принятием решений.
Для локального деплоя MiniMax советует SGLang, vLLM или Transformers. Модель также доступна через NVIDIA NIM.
Параллельно команда открыла исходники OpenRoom, интерактивного Web GUI с визуальной обратной связью и ролевым взаимодействием, где модель отвечает за персонажей.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8⚡3👍3❤1