Forwarded from Neural Shit
Лол, Метачка хочет запатентовать технологию цифрового воскрешения.
Суть патента проста: нейронка жрёт для обучения все твои посты, переписки, лайки и комменты, чтобы создать твою полную цифровую копию.
В документе прямым текстом прописаны два сценария использования этого цифрового голема:
1) Когда ты просто решил отдохнуть от соцсетей (ну да, конечно).
2) Когда ты умер)
То есть, буквально сюжет той самой серии из "Черного зеркала". Ты уже давно почил, а твой аккаунт продолжает сраться в комментах, лайкать мемы и отвечать друзьям "лол, жиза".
Цукерберг решил, что смерть это не повод терять активную аудиторию. Теперь даже на том свете придется генерировать контент.
Суть патента проста: нейронка жрёт для обучения все твои посты, переписки, лайки и комменты, чтобы создать твою полную цифровую копию.
В документе прямым текстом прописаны два сценария использования этого цифрового голема:
1) Когда ты просто решил отдохнуть от соцсетей (ну да, конечно).
2) Когда ты умер)
То есть, буквально сюжет той самой серии из "Черного зеркала". Ты уже давно почил, а твой аккаунт продолжает сраться в комментах, лайкать мемы и отвечать друзьям "лол, жиза".
Цукерберг решил, что смерть это не повод терять активную аудиторию. Теперь даже на том свете придется генерировать контент.
patentscope.wipo.int
WIPO - Search International and National Patent Collections
This patent search tool allows you not only to search the PCT database of about 2 million International Applications but also the worldwide patent collections. This search facility features: flexible search syntax; automatic word stemming and relevance ranking;…
🤡8😁4🗿3🤬1
This media is not supported in your browser
VIEW IN TELEGRAM
Image Generation with a Sphere Encoder
Китайцы упоролись и запилиликруглые тензоры сферический латент.
Мапят исходные картинки на сферу, решая проблему "углов" - отсутствия значения латента, которые не мапятся обратно в исходное распределение.
Таким образом, любое значение латента можно превратить в картинку из трейн сета.
project
paper
code - soon
Китайцы упоролись и запилили
Мапят исходные картинки на сферу, решая проблему "углов" - отсутствия значения латента, которые не мапятся обратно в исходное распределение.
Таким образом, любое значение латента можно превратить в картинку из трейн сета.
project
paper
code - soon
🤩15😁7🔥5❤3🌚3
В предыдущем посте был webm видос, пришлось запилить сервис по конвертации webp -> PNG, webm -> MP4
Все локально в браузере.
Webplease
Все локально в браузере.
Webplease
1🔥17
🔬 ML PAPERS (arXiv, Feb 19)
📄 Towards a Science of AI Agent Reliability — 12 metrics for agent eval beyond success rate
→ arxiv.org/abs/2602.16666
📄 Agent Skill Framework — Can SLMs benefit from agent skills (Copilot, LangChain style)? On-prem focus
→ arxiv.org/abs/2602.16653
📄 Framework of Thoughts (FoT) — Unifies CoT/ToT/GoT with dynamic reasoning + auto-tuning
→ arxiv.org/abs/2602.16512
📄 Calibrate-Then-Act — LLM agents that reason about cost vs uncertainty tradeoffs
→ arxiv.org/abs/2602.16699
📄 MMA: Multimodal Memory Agent — Reliability scoring for retrieved memories (decay, credibility, conflict)
→ arxiv.org/abs/2602.16493
📄 Self-Supervised Semantic Bridge — Diffusion bridge for unpaired img2img translation + text-guided editing
→ arxiv.org/abs/2602.16664
📄 TeCoNeRV — Neural video compression with 20× memory reduction, +5.35dB PSNR at 720p
→ arxiv.org/abs/2602.16711
📄 ReMoRa — Long-video MLLM using compressed representations (sparse keyframes + motion)
→ arxiv.org/abs/2602.16412
📄 Towards a Science of AI Agent Reliability — 12 metrics for agent eval beyond success rate
→ arxiv.org/abs/2602.16666
📄 Agent Skill Framework — Can SLMs benefit from agent skills (Copilot, LangChain style)? On-prem focus
→ arxiv.org/abs/2602.16653
📄 Framework of Thoughts (FoT) — Unifies CoT/ToT/GoT with dynamic reasoning + auto-tuning
→ arxiv.org/abs/2602.16512
📄 Calibrate-Then-Act — LLM agents that reason about cost vs uncertainty tradeoffs
→ arxiv.org/abs/2602.16699
📄 MMA: Multimodal Memory Agent — Reliability scoring for retrieved memories (decay, credibility, conflict)
→ arxiv.org/abs/2602.16493
📄 Self-Supervised Semantic Bridge — Diffusion bridge for unpaired img2img translation + text-guided editing
→ arxiv.org/abs/2602.16664
📄 TeCoNeRV — Neural video compression with 20× memory reduction, +5.35dB PSNR at 720p
→ arxiv.org/abs/2602.16711
📄 ReMoRa — Long-video MLLM using compressed representations (sparse keyframes + motion)
→ arxiv.org/abs/2602.16412
arXiv.org
Towards a Science of AI Agent Reliability
AI agents are increasingly deployed to execute important tasks. While rising accuracy scores on standard benchmarks suggest rapid progress, many agents still continue to fail in practice. This...
❤3👍1
Forwarded from Осцилляции WaveCut (WaveCut)
Это было неизбежно: рано или поздно должны были появиться специализированные решения для инференса.
И вот, Taalas (бывшая команда из Tenstorrent) выкатили то, чего я так ждал — настоящий Direct-to-Silicon.
Ребята не стали мелочиться и буквально «запекли» модель в кремний. Никакой внешней памяти, никакого HBM, никакой сложной упаковки. Веса модели и архитектура — это и есть сам чип.
Цифры выглядят дико: 17,000 токенов в секунду на Llama 3.1 8B.
Это на порядок быстрее текущей SOTA GPU, при этом чип стоит в 20 раз дешевле в производстве и потребляет в 10 раз меньше энергии.
Самое крутое, что это не просто красивые слайды для инвесторов. Железо уже существует, и его можно «потрогать» (ссылка на демо внизу).
Конечно, это ASIC, и тут есть нюанс: чип заточен под одну конкретную модель. Но Taalas продумали этот момент — они оставили поддержку LoRA-адаптеров и изменяемого контекстного окна. То есть это не совсем уж «кирпич», гибкость для файн-тюнинга остается.
Сейчас у них готов чип с Llama 8B (HC1). Весной обещают выкатить что-то среднеразмерное с ризонингом, а к зиме грозятся показать фронтир-модель на втором поколении кремния.
У меня голова идет кругом от мыслей к чему это может привести.
Ссылки:
• Анонс
• Демо (скорость реально впечатляет)
И вот, Taalas (бывшая команда из Tenstorrent) выкатили то, чего я так ждал — настоящий Direct-to-Silicon.
Ребята не стали мелочиться и буквально «запекли» модель в кремний. Никакой внешней памяти, никакого HBM, никакой сложной упаковки. Веса модели и архитектура — это и есть сам чип.
Цифры выглядят дико: 17,000 токенов в секунду на Llama 3.1 8B.
Это на порядок быстрее текущей SOTA GPU, при этом чип стоит в 20 раз дешевле в производстве и потребляет в 10 раз меньше энергии.
Самое крутое, что это не просто красивые слайды для инвесторов. Железо уже существует, и его можно «потрогать» (ссылка на демо внизу).
Конечно, это ASIC, и тут есть нюанс: чип заточен под одну конкретную модель. Но Taalas продумали этот момент — они оставили поддержку LoRA-адаптеров и изменяемого контекстного окна. То есть это не совсем уж «кирпич», гибкость для файн-тюнинга остается.
Сейчас у них готов чип с Llama 8B (HC1). Весной обещают выкатить что-то среднеразмерное с ризонингом, а к зиме грозятся показать фронтир-модель на втором поколении кремния.
У меня голова идет кругом от мыслей к чему это может привести.
Ссылки:
• Анонс
• Демо (скорость реально впечатляет)
⚡19❤3👍2