Forwarded from Neural Shit
Я в резюме: загляните на мой гитхаб, там шикарные проекты!
Мои проекты:
Мои проекты:
This media is not supported in your browser
VIEW IN TELEGRAM
❤24🔥13🤣13👍5🎉2🫡2
Ffmpeg перепишут на расте для вашей безопасности. Он и так быстрый слишком.
Тред
С 1 апреля конечно же
@derplearning
Тред
@derplearning
😁49🔥4😱2❤1👍1🗿1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
RawGen: Image2Raw и Text2Raw
Очень интересная работа от Самсунга
Проблема: модели диффузии превосходно подходят для генерации изображений в цветовом пространстве sRGB; однако sRGB - это нелинейное пространство, display-optimized, и он включает в себя неизвестные эффекты обработки изображений.
Модели генерации обучены не на raw, а на уже прошедших обработку (в разных камерах) фотографиях.
Чуваки взяли адобовский датасет KFive (где есть пары raw<->обработанный_результат) и запустили генерацию "обратно" из sRGB в raw. Под капотом FLUX.1 Kontext (не для генерации, а для редактирования).
На итоге можно подавать на вход любое sRGB-изображение(или текст) и конвертировать его в линейный raw. Причем можно выбирать в raw какой конкретно камеры хочется попасть.
Поглядите тут, пощелкайте по камерам, очень хорошо оформленный проект:
https://dy112.github.io/rawgen-page/
https://arxiv.org/abs/2604.00093 (31 марта 2026)
Кода пока нет, но обещан.
Работа красивая, но в результате все равно получается 8-битный цвет!
Вопрос: как вы выкручиваетесь, если вам надо получить\сдавать HDR и 10-битный цвет, а у вас генерация и 8 бит?
@cgevent
Очень интересная работа от Самсунга
Проблема: модели диффузии превосходно подходят для генерации изображений в цветовом пространстве sRGB; однако sRGB - это нелинейное пространство, display-optimized, и он включает в себя неизвестные эффекты обработки изображений.
Модели генерации обучены не на raw, а на уже прошедших обработку (в разных камерах) фотографиях.
Чуваки взяли адобовский датасет KFive (где есть пары raw<->обработанный_результат) и запустили генерацию "обратно" из sRGB в raw. Под капотом FLUX.1 Kontext (не для генерации, а для редактирования).
На итоге можно подавать на вход любое sRGB-изображение(или текст) и конвертировать его в линейный raw. Причем можно выбирать в raw какой конкретно камеры хочется попасть.
Поглядите тут, пощелкайте по камерам, очень хорошо оформленный проект:
https://dy112.github.io/rawgen-page/
https://arxiv.org/abs/2604.00093 (31 марта 2026)
Кода пока нет, но обещан.
Работа красивая, но в результате все равно получается 8-битный цвет!
Вопрос: как вы выкручиваетесь, если вам надо получить\сдавать HDR и 10-битный цвет, а у вас генерация и 8 бит?
@cgevent
🎉3😁1
Мем смешной, ситуация страшная (с)
В последнее время Клод жрет токены как не в себя, и юзеры жалуются, что одни и те же задачи теперь стоят в 5 раз больше токенов.
reddit
В последнее время Клод жрет токены как не в себя, и юзеры жалуются, что одни и те же задачи теперь стоят в 5 раз больше токенов.
😢24😱11😁3💯3
Forwarded from Neural Shit
Интересное исследование от стэнфордских исследователей: пишут, что наше хвалёное компьютерное зрение это очень часто просто чушь, поданная с полной уверенностью.
Авторы вскрыли "эффект миража". Это когда мы просим нейронку описать картинку, которую забыли прикрепить (ну или она не прогрузилась по дороге), а кремниевый болван вместо того, чтобы сказать “бро, ты забыл загрузить изображение", начинает затирать про детали: какой там рентген, какие птички на ветках, какие цифры на номерах машины и т.д.
Самое интересное в препринте:
— Зрительные миражи: современные мультимодалки в среднем чаще чем в 60% случаев уверенно описывают несуществующие изображения. А при некоторых инструкциях у многих моделей эта хрень доходит вообще до 90–100%. Никаких “картинка не загружена”. Только уверенный полёт фантазии.
— Бенчмарки местами мусор: авторы показывают, что без картинок модели сохраняют в среднем 70–80% своей якобы “визуальной” точности. Тоесть огромный кусок успеха в “визуальных” тестах добывается тупо по тексту вопроса, скрытым паттернам датасета и статистике ответов.
— Медицинская беда: если изображения нет, модель не просто тупит, а часто начинает видеть патологию. В их примерах миражи в медицине заметно смещены в сторону всякой жести: меланом, карцином и прочих спидораков. Тоесть если картинка потерялась в пайплайне, эта скотина может не признать отсутствие данных, а уверенно сочинить диагноз.
— Унижение гигантов: исследователи взяли сравнительно мелкую модель Qwen-2.5 на 3 млрд параметров, дообучили её угадывать ответы по chest X-ray benchmark без картинок, и этот мелкий пиздюк обогнал и гигантские модели, и в среднем живых радиологов. Просто потому, что научился читать не снимки, а саму структуру теста.
Для лечения этой шизы они предлагают метод B-Clean: вычищать из бенчмарков все вопросы, которые модели могут брать без реального зрения, чтобы оценивать не мастерство врать, а хоть какое-то настоящее использование картинки.
тут статья
Авторы вскрыли "эффект миража". Это когда мы просим нейронку описать картинку, которую забыли прикрепить (ну или она не прогрузилась по дороге), а кремниевый болван вместо того, чтобы сказать “бро, ты забыл загрузить изображение", начинает затирать про детали: какой там рентген, какие птички на ветках, какие цифры на номерах машины и т.д.
Самое интересное в препринте:
— Зрительные миражи: современные мультимодалки в среднем чаще чем в 60% случаев уверенно описывают несуществующие изображения. А при некоторых инструкциях у многих моделей эта хрень доходит вообще до 90–100%. Никаких “картинка не загружена”. Только уверенный полёт фантазии.
— Бенчмарки местами мусор: авторы показывают, что без картинок модели сохраняют в среднем 70–80% своей якобы “визуальной” точности. Тоесть огромный кусок успеха в “визуальных” тестах добывается тупо по тексту вопроса, скрытым паттернам датасета и статистике ответов.
— Медицинская беда: если изображения нет, модель не просто тупит, а часто начинает видеть патологию. В их примерах миражи в медицине заметно смещены в сторону всякой жести: меланом, карцином и прочих спидораков. Тоесть если картинка потерялась в пайплайне, эта скотина может не признать отсутствие данных, а уверенно сочинить диагноз.
— Унижение гигантов: исследователи взяли сравнительно мелкую модель Qwen-2.5 на 3 млрд параметров, дообучили её угадывать ответы по chest X-ray benchmark без картинок, и этот мелкий пиздюк обогнал и гигантские модели, и в среднем живых радиологов. Просто потому, что научился читать не снимки, а саму структуру теста.
Для лечения этой шизы они предлагают метод B-Clean: вычищать из бенчмарков все вопросы, которые модели могут брать без реального зрения, чтобы оценивать не мастерство врать, а хоть какое-то настоящее использование картинки.
тут статья
🏆29🔥10😁9❤3😱3🤣3💯2
Forwarded from Борис опять
Астронавты Artemis II сделали красивые фото Земли в высоком разрешении, тут и тут можно скачать себе новые обои.
Еще, оказывается, есть лайв трансляция на Youtube прямо с корабля. What a time to be alive
Еще, оказывается, есть лайв трансляция на Youtube прямо с корабля. What a time to be alive
NASA
Artemis II Captures the Terminator Line - NASA
art002e000190 (April 3, 2026) - A view of Earth taken by NASA astronaut and Artemis II Commander Reid Wiseman from one of the Orion spacecraft's four windows after completing the translunar injection burn on April 2, 2026.
❤11👍2
Caveman Prompting - уга-буга оптимизация или как сэкономить 75% токенов
16-летний SaaS-разработчик научил Claude говорить как пещерный человек. Результат - 75% экономия токенов.
Обычный Claude на web search задачу тратит ~180 токенов. Caveman Claude - ~45.
"I executed the web search tool" = 8 токенов
"Tool work" = 2 токена
Почему работает: пещерный Claude не объясняет что он делает. Не говорит "I'd be happy to help you with that". Не говорит "Let me search the web for you". Делает задачу, выдает результат, затыкается.
"result. done. me stop."
С учетом того что лимиты Claude сжимаются каждую неделю - возможно это самый практичный хак прямо сейчас. Мы прошли полный круг от "сделай языковую модель которая хорошо пишет текст" до "научи языковую модель писать как можно меньше текста".
Тред
@derplearning
16-летний SaaS-разработчик научил Claude говорить как пещерный человек. Результат - 75% экономия токенов.
Обычный Claude на web search задачу тратит ~180 токенов. Caveman Claude - ~45.
"I executed the web search tool" = 8 токенов
"Tool work" = 2 токена
Почему работает: пещерный Claude не объясняет что он делает. Не говорит "I'd be happy to help you with that". Не говорит "Let me search the web for you". Делает задачу, выдает результат, затыкается.
"result. done. me stop."
С учетом того что лимиты Claude сжимаются каждую неделю - возможно это самый практичный хак прямо сейчас. Мы прошли полный круг от "сделай языковую модель которая хорошо пишет текст" до "научи языковую модель писать как можно меньше текста".
Тред
@derplearning
😁78🔥16❤4
Forwarded from UX Live 🔥
art002e000192.jpg
5.9 MB
У NASA оказывается есть целый сайт с фотками и видео в хайрезах https://images.nasa.gov/ + конкретно с новой экспедиции на Луну https://www.nasa.gov/gallery/journey-to-the-moon
Это кстати довольно редкая фотка (пишут в разных местах что первая за 50 лет) где видно всю планету целиком (раньше такие фотки склеивали из разных).
Красиво конечно, забрал на волпепер, пока РКН не заблокировал.
Это кстати довольно редкая фотка (пишут в разных местах что первая за 50 лет) где видно всю планету целиком (раньше такие фотки склеивали из разных).
Красиво конечно, забрал на волпепер, пока РКН не заблокировал.
❤5👍3😁1🤡1
Юзерам openclaw:
models auth login --provider anthropic --method cli --set-default
models auth login --provider anthropic --method cli --set-default
😁17🤡5👍2
Forwarded from r/ретранслятор
Девушка начала заниматься сексом с ИИ
Пользовательница Реддита настроила Claude на своём компьютере так, чтобы он мог в реальном времени управлять её игрушками для взрослых.
То есть она просто ведёт секс-переписку с ИИ, во время которой он усиливает или ослабляет вибрации и движения игрушек в «нужные моменты».
Как сообщает сама разработчица:
Она выложила код и инструкцию на гитхаб, так что можете тоже ознакомиться — ссылка
Мужики — В С Ё
r/#singularity
Пользовательница Реддита настроила Claude на своём компьютере так, чтобы он мог в реальном времени управлять её игрушками для взрослых.
То есть она просто ведёт секс-переписку с ИИ, во время которой он усиливает или ослабляет вибрации и движения игрушек в «нужные моменты».
Как сообщает сама разработчица:
Мне буквально пришлось просить Claude остановить все устройства, потому что у меня было три оргазма подряд, и тело стало слишком чувствительным.
Она выложила код и инструкцию на гитхаб, так что можете тоже ознакомиться — ссылка
Мужики — В С Ё
r/#singularity
😁44👀8🔥5😢5🤡2❤1🌚1
OpenClaw выпустили 2026.4.5 - и это уже не просто обвязка для моделей, а уже какой-то комбайн всего подряд.
Коротко по апдейту:
- появилась генерация видео и музыки прямо из коробки
- завезли /dreaming - механизм "переваривания" контекста в долговременную память
- сделали более внятный прогресс задач (понятно где что отвалилось)
- улучшили переиспользование кэша промптов
- интерфейс и документация расширили поддержку языков
Самое интересное - это их dreaming.
По сути, это попытка сделать у модели аналог memory consolidation:
она не просто держит контекст, а "перекладывает" важные сигналы из краткосрочной памяти в долгосрочную, разбивая процесс на фазы (light / deep / REM).
Если это реально работает, то это шаг в сторону более "постоянных" агентных систем, а не одноразовых запусков.
Второй важный момент - ставка на multi-provider:
OpenClaw подключает всё:
- картинки (Comfy, fal, OpenAI и др.)
- музыку
- видео (там вообще половина рынка)
Это уже не "обёртка над одной моделью", а слой, который абстрагирует провайдеров.
И это напрямую связано с тем, что произошло дальше.
Anthropic в очередной раз закрутили гайки:
Claude-подписки больше не покрывают такие внешние инструменты (которые детектятся на уровне РКН по слову OpenClaw в промте) -> нужен отдельный usage.
Интересно, сколько юзеров ушли от антропик, или хотя бы даунгрейднулись с max.
Реакция OpenClaw максимально прагматичная:
ок, значит меньше зависимости от одного провайдера.
Они прямо пишут:
- используйте API
- или идите к альтернативам (OpenAI, Qwen, MiniMax, Kimi, GLM)
И финальный месседж:
"нас отключили - мы пошли дальше"
В целом, тренд понятен:
инструменты уходят от привязки к одной модели и становятся слоем оркестрации над многими.
И в этой логике OpenClaw выглядит не как pet-проект, а как ранний прототип того, как будут выглядеть AI-стэки дальше.
Тред
Сгенерированный контент идентичный натуральному
Коротко по апдейту:
- появилась генерация видео и музыки прямо из коробки
- завезли /dreaming - механизм "переваривания" контекста в долговременную память
- сделали более внятный прогресс задач (понятно где что отвалилось)
- улучшили переиспользование кэша промптов
- интерфейс и документация расширили поддержку языков
Самое интересное - это их dreaming.
По сути, это попытка сделать у модели аналог memory consolidation:
она не просто держит контекст, а "перекладывает" важные сигналы из краткосрочной памяти в долгосрочную, разбивая процесс на фазы (light / deep / REM).
Если это реально работает, то это шаг в сторону более "постоянных" агентных систем, а не одноразовых запусков.
Второй важный момент - ставка на multi-provider:
OpenClaw подключает всё:
- картинки (Comfy, fal, OpenAI и др.)
- музыку
- видео (там вообще половина рынка)
Это уже не "обёртка над одной моделью", а слой, который абстрагирует провайдеров.
И это напрямую связано с тем, что произошло дальше.
Anthropic в очередной раз закрутили гайки:
Claude-подписки больше не покрывают такие внешние инструменты (которые детектятся на уровне РКН по слову OpenClaw в промте) -> нужен отдельный usage.
Интересно, сколько юзеров ушли от антропик, или хотя бы даунгрейднулись с max.
Реакция OpenClaw максимально прагматичная:
ок, значит меньше зависимости от одного провайдера.
Они прямо пишут:
- используйте API
- или идите к альтернативам (OpenAI, Qwen, MiniMax, Kimi, GLM)
И финальный месседж:
"нас отключили - мы пошли дальше"
В целом, тренд понятен:
инструменты уходят от привязки к одной модели и становятся слоем оркестрации над многими.
И в этой логике OpenClaw выглядит не как pet-проект, а как ранний прототип того, как будут выглядеть AI-стэки дальше.
Тред
Сгенерированный контент идентичный натуральному
X (formerly Twitter)
OpenClaw🦞 (@openclaw) on X
OpenClaw 2026.4.5 🦞
🎬 Built-in video + music generation
🧠 /dreaming is now real
🔀 Structured task progress
⚡ Better prompt-cache reuse
🌍 Control UI + Docs now speak 12 more languages
Anthropic cut us off. GPT-5.4 got better. We moved on. https://t.co/T3LaSJYOvU
🎬 Built-in video + music generation
🧠 /dreaming is now real
🔀 Structured task progress
⚡ Better prompt-cache reuse
🌍 Control UI + Docs now speak 12 more languages
Anthropic cut us off. GPT-5.4 got better. We moved on. https://t.co/T3LaSJYOvU
🔥12👍6❤3