☕️ Daily AI Digest — Feb 14, 2026 (Valentine's Edition 💘)
━━━━━━━━━━━━━━━━━━━━
🔬 PAPERS & RESEARCH
🔥 DeepGen 1.0 — Lightweight 5B unified model for image gen + editing. Beats 80B HunyuanImage by 28% on WISE, 27B Qwen-Image-Edit by 37%. Open-source weights, code, datasets.
📄 arxiv.org/abs/2602.12205
💻 github.com/DeepGenTeam/DeepGen
Latent Forcing — Pixel-space image generation matching latent diffusion quality without a separate decoder. Joint latent+pixel denoising with tuned noise schedules.
📄 arxiv.org/abs/2602.11401
Ctrl&Shift — Geometry-aware object manipulation in images/videos. Move & reorient objects while preserving scene realism, no explicit 3D reconstruction needed.
📄 arxiv.org/abs/2602.11440
Active-Zero — Self-evolving VLMs through active environment exploration (self-play but for vision models). Shifts from passive datasets to active visual data seeking.
📄 arxiv.org/abs/2602.11241
C-JEPA — Causal world models via object-level latent interventions. Extends JEPA from image patches to object-centric representations with counterfactual reasoning.
📄 arxiv.org/abs/2602.11389
New day, new JEPA. Extension, anyone? :D
━━━━━━━━━━━━━━━━━━━━
🔬 PAPERS & RESEARCH
🔥 DeepGen 1.0 — Lightweight 5B unified model for image gen + editing. Beats 80B HunyuanImage by 28% on WISE, 27B Qwen-Image-Edit by 37%. Open-source weights, code, datasets.
📄 arxiv.org/abs/2602.12205
💻 github.com/DeepGenTeam/DeepGen
Latent Forcing — Pixel-space image generation matching latent diffusion quality without a separate decoder. Joint latent+pixel denoising with tuned noise schedules.
📄 arxiv.org/abs/2602.11401
Ctrl&Shift — Geometry-aware object manipulation in images/videos. Move & reorient objects while preserving scene realism, no explicit 3D reconstruction needed.
📄 arxiv.org/abs/2602.11440
Active-Zero — Self-evolving VLMs through active environment exploration (self-play but for vision models). Shifts from passive datasets to active visual data seeking.
📄 arxiv.org/abs/2602.11241
C-JEPA — Causal world models via object-level latent interventions. Extends JEPA from image patches to object-centric representations with counterfactual reasoning.
📄 arxiv.org/abs/2602.11389
New day, new JEPA. Extension, anyone? :D
arXiv.org
DeepGen 1.0: A Lightweight Unified Multimodal Model for Advancing...
Current unified multimodal models for image generation and editing typically rely on massive parameter scales (e.g., >10B), entailing prohibitive training costs and deployment footprints. In this...
🔥8❤1
Forwarded from Denis Sexy IT 🤖
Все никак не могу привыкнуть к этому новому миру – скачал Need For Speed Underground, и естественно на маке такие игры запускать это танцы с бубнами (сам запустить я не смог)
Открываешь папку, запускаешь там Claude Code в терминале, и через 10 минут играешь – потому что Opus 4.6 залез там в .exe файл и какими-то патчами починил то, что роняло эмулятор винды
Еще раз – подправил🪟 файл, сам
Скоро весь легаси софт оживим роботами, дурун-дун-дун
Открываешь папку, запускаешь там Claude Code в терминале, и через 10 минут играешь – потому что Opus 4.6 залез там в .exe файл и какими-то патчами починил то, что роняло эмулятор винды
Еще раз – подправил
Скоро весь легаси софт оживим роботами, дурун-дун-дун
Please open Telegram to view this post
VIEW IN TELEGRAM
😱39❤9🤩2🤡2🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
❤18😁6🤡5🔥4😱3👍1👀1
⚡️ Daily AI Digest — Sun, Feb 15
🔥 MonarchRT — Real-time video diffusion via Monarch matrix attention + Triton kernels
arxiv.org/abs/2602.12271
🔥 DeepGen 1.0 — 5B model beats 80B HunyuanImage (+28%), open-source
arxiv.org/abs/2602.12205 | github.com/DeepGenTeam/DeepGen
🔥 DreamID-Omni — Unified human-centric audio-video gen, multi-character identity+voice
arxiv.org/abs/2602.12160
UniT — Multimodal CoT test-time scaling
arxiv.org/abs/2602.12279
UniDFlow — Unified discrete flow matching, LoRA per task
arxiv.org/abs/2602.12221
FAIL — Adversarial imitation learning for flow matching
arxiv.org/abs/2602.12155
GigaBrain — VLA from world model RL
arxiv.org/abs/2602.12099
🔥 MonarchRT — Real-time video diffusion via Monarch matrix attention + Triton kernels
arxiv.org/abs/2602.12271
🔥 DeepGen 1.0 — 5B model beats 80B HunyuanImage (+28%), open-source
arxiv.org/abs/2602.12205 | github.com/DeepGenTeam/DeepGen
🔥 DreamID-Omni — Unified human-centric audio-video gen, multi-character identity+voice
arxiv.org/abs/2602.12160
UniT — Multimodal CoT test-time scaling
arxiv.org/abs/2602.12279
UniDFlow — Unified discrete flow matching, LoRA per task
arxiv.org/abs/2602.12221
FAIL — Adversarial imitation learning for flow matching
arxiv.org/abs/2602.12155
GigaBrain — VLA from world model RL
arxiv.org/abs/2602.12099
arXiv.org
MonarchRT: Efficient Attention for Real-Time Video Generation
Real-time video generation with Diffusion Transformers is bottlenecked by the quadratic cost of 3D self-attention, especially in real-time regimes that are both few-step and autoregressive, where...
🔥6🤡2❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Я проверяю пуллреквесты Claude Code перед деплоем в прод
1😁52🤣11😢3💯2
Forwarded from r/ретранслятор
Аудиофилы не смогли отличить звук, идущий по медному проводу, от звука, который пустили через банан и грязь.
В эксперименте участвовали «гурманы качественного звука», уверенные, что разные провода и материалы сильно влияют на звучание.
Всего было несколько версий одного и того же аудиофайла:
— Оригинал с CD (контрольная версия);
— Запись через 180 см профессионального медного аудиокабеля;
— Через 20 см мокрой грязи;
— Через старый микрофонный кабель, припаянный к монетам;
— Через банан.
Слушателям предложили вслепую определить, где какой вариант.
Из 43 попыток правильно угадали только 6 раз — то есть на уровне случайного угадывания. Некоторые даже хвалили звук через грязь, называя его лучшим.
Тотальное унижение аудиофилов
r/#LinusTechTips
В эксперименте участвовали «гурманы качественного звука», уверенные, что разные провода и материалы сильно влияют на звучание.
Всего было несколько версий одного и того же аудиофайла:
— Оригинал с CD (контрольная версия);
— Запись через 180 см профессионального медного аудиокабеля;
— Через 20 см мокрой грязи;
— Через старый микрофонный кабель, припаянный к монетам;
— Через банан.
Слушателям предложили вслепую определить, где какой вариант.
Из 43 попыток правильно угадали только 6 раз — то есть на уровне случайного угадывания. Некоторые даже хвалили звук через грязь, называя его лучшим.
Тотальное унижение аудиофилов
r/#LinusTechTips
1😁46❤5👍4🗿2