Forwarded from UX Live 🔥
art002e000192.jpg
5.9 MB
У NASA оказывается есть целый сайт с фотками и видео в хайрезах https://images.nasa.gov/ + конкретно с новой экспедиции на Луну https://www.nasa.gov/gallery/journey-to-the-moon
Это кстати довольно редкая фотка (пишут в разных местах что первая за 50 лет) где видно всю планету целиком (раньше такие фотки склеивали из разных).
Красиво конечно, забрал на волпепер, пока РКН не заблокировал.
Это кстати довольно редкая фотка (пишут в разных местах что первая за 50 лет) где видно всю планету целиком (раньше такие фотки склеивали из разных).
Красиво конечно, забрал на волпепер, пока РКН не заблокировал.
❤5👍3😁1🤡1
Юзерам openclaw:
models auth login --provider anthropic --method cli --set-default
models auth login --provider anthropic --method cli --set-default
😁17🤡5👍2
Forwarded from r/ретранслятор
Девушка начала заниматься сексом с ИИ
Пользовательница Реддита настроила Claude на своём компьютере так, чтобы он мог в реальном времени управлять её игрушками для взрослых.
То есть она просто ведёт секс-переписку с ИИ, во время которой он усиливает или ослабляет вибрации и движения игрушек в «нужные моменты».
Как сообщает сама разработчица:
Она выложила код и инструкцию на гитхаб, так что можете тоже ознакомиться — ссылка
Мужики — В С Ё
r/#singularity
Пользовательница Реддита настроила Claude на своём компьютере так, чтобы он мог в реальном времени управлять её игрушками для взрослых.
То есть она просто ведёт секс-переписку с ИИ, во время которой он усиливает или ослабляет вибрации и движения игрушек в «нужные моменты».
Как сообщает сама разработчица:
Мне буквально пришлось просить Claude остановить все устройства, потому что у меня было три оргазма подряд, и тело стало слишком чувствительным.
Она выложила код и инструкцию на гитхаб, так что можете тоже ознакомиться — ссылка
Мужики — В С Ё
r/#singularity
😁44👀8🔥5😢5🤡2❤1🌚1
OpenClaw выпустили 2026.4.5 - и это уже не просто обвязка для моделей, а уже какой-то комбайн всего подряд.
Коротко по апдейту:
- появилась генерация видео и музыки прямо из коробки
- завезли /dreaming - механизм "переваривания" контекста в долговременную память
- сделали более внятный прогресс задач (понятно где что отвалилось)
- улучшили переиспользование кэша промптов
- интерфейс и документация расширили поддержку языков
Самое интересное - это их dreaming.
По сути, это попытка сделать у модели аналог memory consolidation:
она не просто держит контекст, а "перекладывает" важные сигналы из краткосрочной памяти в долгосрочную, разбивая процесс на фазы (light / deep / REM).
Если это реально работает, то это шаг в сторону более "постоянных" агентных систем, а не одноразовых запусков.
Второй важный момент - ставка на multi-provider:
OpenClaw подключает всё:
- картинки (Comfy, fal, OpenAI и др.)
- музыку
- видео (там вообще половина рынка)
Это уже не "обёртка над одной моделью", а слой, который абстрагирует провайдеров.
И это напрямую связано с тем, что произошло дальше.
Anthropic в очередной раз закрутили гайки:
Claude-подписки больше не покрывают такие внешние инструменты (которые детектятся на уровне РКН по слову OpenClaw в промте) -> нужен отдельный usage.
Интересно, сколько юзеров ушли от антропик, или хотя бы даунгрейднулись с max.
Реакция OpenClaw максимально прагматичная:
ок, значит меньше зависимости от одного провайдера.
Они прямо пишут:
- используйте API
- или идите к альтернативам (OpenAI, Qwen, MiniMax, Kimi, GLM)
И финальный месседж:
"нас отключили - мы пошли дальше"
В целом, тренд понятен:
инструменты уходят от привязки к одной модели и становятся слоем оркестрации над многими.
И в этой логике OpenClaw выглядит не как pet-проект, а как ранний прототип того, как будут выглядеть AI-стэки дальше.
Тред
Сгенерированный контент идентичный натуральному
Коротко по апдейту:
- появилась генерация видео и музыки прямо из коробки
- завезли /dreaming - механизм "переваривания" контекста в долговременную память
- сделали более внятный прогресс задач (понятно где что отвалилось)
- улучшили переиспользование кэша промптов
- интерфейс и документация расширили поддержку языков
Самое интересное - это их dreaming.
По сути, это попытка сделать у модели аналог memory consolidation:
она не просто держит контекст, а "перекладывает" важные сигналы из краткосрочной памяти в долгосрочную, разбивая процесс на фазы (light / deep / REM).
Если это реально работает, то это шаг в сторону более "постоянных" агентных систем, а не одноразовых запусков.
Второй важный момент - ставка на multi-provider:
OpenClaw подключает всё:
- картинки (Comfy, fal, OpenAI и др.)
- музыку
- видео (там вообще половина рынка)
Это уже не "обёртка над одной моделью", а слой, который абстрагирует провайдеров.
И это напрямую связано с тем, что произошло дальше.
Anthropic в очередной раз закрутили гайки:
Claude-подписки больше не покрывают такие внешние инструменты (которые детектятся на уровне РКН по слову OpenClaw в промте) -> нужен отдельный usage.
Интересно, сколько юзеров ушли от антропик, или хотя бы даунгрейднулись с max.
Реакция OpenClaw максимально прагматичная:
ок, значит меньше зависимости от одного провайдера.
Они прямо пишут:
- используйте API
- или идите к альтернативам (OpenAI, Qwen, MiniMax, Kimi, GLM)
И финальный месседж:
"нас отключили - мы пошли дальше"
В целом, тренд понятен:
инструменты уходят от привязки к одной модели и становятся слоем оркестрации над многими.
И в этой логике OpenClaw выглядит не как pet-проект, а как ранний прототип того, как будут выглядеть AI-стэки дальше.
Тред
Сгенерированный контент идентичный натуральному
X (formerly Twitter)
OpenClaw🦞 (@openclaw) on X
OpenClaw 2026.4.5 🦞
🎬 Built-in video + music generation
🧠 /dreaming is now real
🔀 Structured task progress
⚡ Better prompt-cache reuse
🌍 Control UI + Docs now speak 12 more languages
Anthropic cut us off. GPT-5.4 got better. We moved on. https://t.co/T3LaSJYOvU
🎬 Built-in video + music generation
🧠 /dreaming is now real
🔀 Structured task progress
⚡ Better prompt-cache reuse
🌍 Control UI + Docs now speak 12 more languages
Anthropic cut us off. GPT-5.4 got better. We moved on. https://t.co/T3LaSJYOvU
🔥12👍6❤3