DenoiseLAB
481 subscribers
1.36K photos
171 videos
3 files
1.67K links
Блог DenoiseLAB (машинное обучение, аналитика)

Информация в канале служит только для ознакомления и не является призывом к действию. Не нарушайте законы РФ и других стран. Мы не несем отвественность за ваши действия или бездействия.
Download Telegram
Кринж: Google пожаловалась, что у неё воруют ИИ.

Компания заявила, что неизвестные пытались клонировать Gemini — они отправили системе более 100 тысяч запросов, чтобы вытащить её логику через так называемую distillation-атаку. По сути — копирование модели через её же API. Google назвал это кражей интеллектуальной собственности.

Звучит особенно иронично на фоне того, что сам Google обучал свои модели, сканируя интернет без разрешения правообладателей. Сейчас они отбиваются от исков по авторскому праву.
😁3
⚡️ GLM-5 — новая лучшая китайская ИИ-модель

Новая ИИ-модель GLM-5 от Z.​ai стала самой умной нейросетью с открытыми весами. По оценке Artificial Analysis, GLM-5 находится на уровне Claude Opus 4.5, при этом модель на порядок дешевле. Также GLM-5 обходит в рейтинге Gemini 3 Pro и GPT-5.2 Codex.

Главные фишки:

Почти не галлюцинирует. Сейчас GLM-5 — лучшая модель с результатом 66% в бенчмарке AA-Omniscience, проверяющем склонность ИИ к выдумыванию деталей. На втором месте Claude Sonnet 4.5 с 52%.

Отлично кодит. В тестах на программирование и агентность GLM-5 выступает не хуже закрытых лидеров, а в некоторых даже обходит их. При этом в научных задачах модель все-таки заметно уступает GPT и Claude.

💻 Несмотря на открытость, запустить GLM-5 на домашнем «железе» не выйдет — для модели на 744 млрд параметров (40 млрд активных) потребуется минимум несколько сотен гигабайт видеопамяти.
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉4
This media is not supported in your browser
VIEW IN TELEGRAM
Самый наглядный пример развития искусственного интеллекта
😁9
Вроде понятно, а вроде и нет из этого мема. У меня появилась мыль: "Развитие ИИ это теперь валюта". Пока что курс ее только растет. Механизмы, по которым оно живет, очень похожи на финансовые.
This media is not supported in your browser
VIEW IN TELEGRAM
Польский блогер отопил дом пончиками и это оказалось выгоднее, чем топить дровами

Он подсчитал, что один пончик из Lidl содержит около 440 ккал, значит 133 пончика это около 10 кг продукта с теплотворной способностью примерно 18.5 МДж/кг — почти столько же, сколько у древесных брикетов, поскольку при сгорании сахар и жир выделяют большое количество тепла.

В результате температура в доме поднялась с 14°C до 22°C, а сами пончики горели примерно 5 часов.

10 кг пончиков обошлись ему в 12 злотых, тогда как такое же количество дров стоит 19 злотых
😁2
Смена поколений, она такая ))
This media is not supported in your browser
VIEW IN TELEGRAM
☝🏻OpenAI тихо изменила свои цели

Исследователь из Университета Тафтса Алнур Эбрагим, изучая налоговую отчётность OpenAI, обнаружил любопытное изменение, которое почти никто не заметил.

Раньше миссия компании звучала так: создавать ИИ, который
«безопасно приносит пользу человечеству, не ограниченный необходимостью получения финансовой прибыли»

В обновлённой версии формулировка стала короче —
«обеспечение того, чтобы искусственный общий интеллект приносил пользу всему человечеству»

Слово «safely» (безопасно) исчезло, а вместе с ним исчезло и упоминание независимости от финансовой отдачи.

И это не просто редакторская правка.

☝🏻☝🏻Буквально на той же неделе стало известно, что OpenAI расформировала команду Mission Alignment — подразделение из 7 человек, которое занималось продвижением миссии компании среди сотрудников и общественности. 

Это, кстати, уже не первый раз.

☝🏻☝🏻В 2024 году OpenAI распустила команду Superalignment, которая занималась долгосрочными экзистенциальными рисками ИИ.

После этого из компании ушли сооснователь Илья Суцкевер, который основал собственную лабораторию Safe Superintelligence, и Ян Лейке, публично заявивший, что культура безопасности в OpenAI отошла на задний план перед «блестящими продуктами».

Контекст этих изменений добавляет остроты.

В конце 2024-го OpenAI привлекла $6,6 млрд инвестиций с условием, что компания перейдёт к классической коммерческой модели без ограничений на прибыль.

В октябре 2025-го она разделилась на два юрлица: некоммерческий OpenAI Foundation и коммерческий OpenAI Group в форме public benefit corporation.

Через два месяца после этого SoftBank вложил $41 млрд, а оценка компании выросла с $300 до $500+ млрд. 💰

И всё это происходит на фоне волны исков.

OpenAI сейчас отбивается от множества судебных дел, связанных с безопасностью ChatGPT.

Среди обвинений — содействие суицидам и психологические манипуляции.

Истцы утверждают, что OpenAI намеренно сжала месяцы тестирования безопасности ИИ до одной недели, чтобы опередить Google Gemini на рынке. ⚠️

☝🏻☝🏻☝🏻По сути, компания, которая больше всех продвигала идею «ответственного ИИ», теперь системно демонтирует всё, что эту ответственность обеспечивало — слова из миссии, специализированные команды, ключевых исследователей безопасности.

Как точно сформулировал исследователь Эбрагим: удаление слова «safely» — это тест на то, будет ли ИИ служить обществу или акционерам.🤖

Передел на рынке ИИ идет полным ходом.
❤‍🔥3
⏱️ TimesFM 2.5 — предобученная модель для прогнозирования временных рядов, которая отлично работает в zero-shot «из коробки».

📌 Характеристики:
- 200M параметров (было 500M)
- Контекст 16k (было 2k)
- Доступна на Hugging Face
- Лицензия Apache 2.0

#TimeSeries #Forecasting #AI #ML #OpenSource

https://huggingface.co/google/timesfm-2.5-200m-pytorch
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2
✔️ NVIDIA представила исследование NVFP4: новый формат чисел для обучения больших языковых моделей, который использует всего 4 бита на число вместо привычных 8 или 16.

При этом точность почти не теряется, а вычисления становятся в 2–3 раза быстрее, а потребление памяти снижается на 50%.

В эксперименте NVIDIA обучила 12-миллиардный Mamba Transformer на 10 триллионах токенов, и модель с 4-битным NVFP4 показала почти такую же точность, как и FP8:
на тесте MMLU Pro - 62.58% против 62.62%,
а по коду (MBPP+) - 55.91% против 59.11%.

NVFP4 группирует значения в блоки по 16 чисел. Для каждого блока хранится небольшой масштаб в 8 битах, а для всего тензора - глобальный масштаб в 32 битах. Такая структура сохраняет точность локальных и экстремальных значений, позволяя использовать сверхкомпактное 4-битное хранение без потери устойчивости обучения.

На GPU Blackwell операции FP4 выполняются в 2 раза быстрее на GB200 и в 3 раза 0 на GB300, по сравнению с FP8. Потери точности при валидации не превышают 1–1.5%.

Метод также использует стохастическое округление, чтобы избежать накопления ошибок, а переход на BF16 в последних итерациях обучения полностью убирает оставшуюся разницу.

Поддержка NVFP4 уже встроена в Transformer Engine и новое поколение GPU Blackwell.
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Китайский ИИ-гигант Alibaba выпустил Qwen3.5-Plus: самая мощная и при этом самая дешёвая открытая языковая модель

В канун Лунного Нового года команда Qwen представила новую модель, которая сочетает в себе топовую производительность с революционно низкой стоимостью.

Суть прорыва:
Сильнее конкурентов: Qwen3.5-Plus бьёт рекорды среди открытых моделей в ключевых задачах: мультимодальное понимание, сложные рассуждения, программирование, работа как AI-агент. По многим тестам она догоняет или превосходит лидеров — GPT-4o, Gemini 2.0 Pro.
Дешевле всех: Стоимость использования — всего ¥0.8 за 1 млн токенов. Для сравнения: у Gemini 3 Pro цена в 18 раз выше.

Это стало возможным благодаря радикальной оптимизации архитектуры. Модель использует всего 397 млрд параметров (из них активно во время генерации — только 17 млрд), но обгоняет по качеству свою же предшественницу с триллионом параметров. Результат: снижение стоимости развёртывания на 60% и увеличение скорости обработки запросов до 19 раз!

🔬 Технические детали: как им это удалось?
Ключ к успеху — четыре инновации:
1. Гибридный механизм внимания (Hybrid Attention): Модель научилась «читать с выделением главного», динамически распределяя вычислительные ресурсы между важными и второстепенными частями текста. Это резко сокращает затраты на обработку длинных контекстов.
2. Предельно разреженная архитектура MoE (Mixture of Experts): Из почти 400 млрд параметров для ответа на каждый запрос активируется лишь ~17 млрд. Это позволяет использовать всю «базу знаний» модели, тратя менее 5% от полной вычислительной мощности.
3. Нативное предсказание нескольких токенов (Native Multi-Token Prediction): Вместо последовательного «проговаривания» слов модель учится предсказывать несколько следующих токенов сразу. Это почти удваивает скорость генерации в таких сценариях, как написание кода или длинных текстов.
4. Глубокие оптимизации стабильности обучения: Внедрение механизма «внимания с затвором» (Gated Attention), удостоенного награды NeurIPS 2025, позволило эффективно фильтровать шум и сохранять ключевую информацию в очень длинных контекстах.

👁️ Настоящая «родная» мультимодальность
В отличие от многих моделей, где возможности работы с изображением и видео — это просто «надстройка» над текстовым ядром, Qwen3.5-Plus обучалась на смешанных данных (текст + изображения) с самого начала. Это обеспечивает глубокое, интуитивное понимание контента без потерь качества в текстовых задачах.

💎 Вывод
Выход Qwen3.5-Plus — это сигнал о смене парадигмы: гонка ИИ смещается с погони за максимальной производительностью любой ценой к созданию доступной инфраструктуры. Благодаря связке открытой модели, облачной платформы Alibaba Cloud и собственных чипов, компания одновременно решает проблемы «можно ли использовать» и «по карману ли это». Именно так технологии становятся массовыми.

Чат | Блог ModelScope | HuggingFace

#КитайскийИИ #КитайAI #Qwen #Alibaba
🤨3🔥2
DenoiseLAB
🚀 Китайский ИИ-гигант Alibaba выпустил Qwen3.5-Plus: самая мощная и при этом самая дешёвая открытая языковая модель В канун Лунного Нового года команда Qwen представила новую модель, которая сочетает в себе топовую производительность с революционно низкой…
Я даже не удивлюсь если скоро бигтехи начнут арендовать домашние тачки обычных юзеров, которые далеки вообще от ИИ. Оперативка и рост цен на комплектующие играют на этот тренд.
DenoiseLAB
Я даже не удивлюсь если скоро бигтехи начнут арендовать домашние тачки обычных юзеров, которые далеки вообще от ИИ. Оперативка и рост цен на комплектующие играют на этот тренд.
Китайцы не просто так сделали фестиваль QWEN в прошлом году, они поняли, мощности дело хорошее свои, но нужна сеть государственная чтобы и дальше все бустить.
🤖 Роботы-гуманоиды освоили кунг-фу и покорили сцену Китайского Нового Года!

В этом году шоу на CCTV было особенным: китайская компания Unitree Robotics в третий раз выступила партнером «Вечера Весны» и представила первое в мире полностью автономное групповое ушу-выступление человекоподобных роботов. Это был не просто танец, а сложнейшая демонстрация силы, точности и координации.

Что они показали?
Роботы выполнили серию технически невероятных трюков:
• Прыжки с переворотом через столы (фриран/паркур)
• Сальто с места («катапультное» сальто)
• Несколько подряд сальто на одной ноге
• Сложные вращения в воздухе (Airflare)
• Владение мечом, шестом и другими традиционными видами оружия

Как им это удалось? Три главных технических вызова
1. Работа с предметами (меч, шест). Сложность — в динамическом восприятии и адаптивном управлении. Как и человек, робот должен «чувствовать» оружие. Для этого использовалось физическое моделирование и обучение с подкреплением в симуляциях.
2. Взаимодействие со средой (прыжки через препятствия, отталкивание от стен). Ключевая проблема — сверхточная оценка позиции и корректировка точек приземления в реальном времени во время быстрого движения.
3. Акробатика. Воздушные вращения — это предел для «железа», двигателей, систем управления и позиционирования. Команде пришлось комплексно улучшать все компоненты, чтобы добиться сантиметровой точности приземления после сальто.

Самое впечатляющее: полная автономность
Все десятки роботов действовали без дистанционного управления. Каждый сам ориентировался на сцене с помощью 3D-лидара, получал общие координаты от центрального сервера и самостоятельно выполнял свою часть программы. Система AI-позиционирования справлялась даже с помехами от актеров и меняющихся декораций, обеспечивая миллисекундную синхронизацию. Если робот сбивался с пути, он мог самостоятельно и быстро вернуться на нужную траекторию.

Полное видео выступления здесь

#КитайскийИИ #КитайAI #Робототехника #Unitree
"Не обесценивай свой прогресс - играй в долгую" - фраза дня. Факт, да есть такое, прочитал у одного коллеги. Как же точно сказано.
Аудиофилы не смогли отличить Hi-Fi кабель от грязи и банана😂

В слепом тесте приняли участие убежденные аудиофилы, которые верили, что материал проводов критически важен для качества звука. Им дали прослушать несколько версий одного трека:
1-Оригинал с CD.
2-Через профессиональный медный кабель (180 см).
3-Через мокрую грязь (20 см).
4-Через микрофонный кабель, припаянный к монетам.
5- Через банан.

Результат: Из 43 попыток угадать, какой звук каким проводом был передан, правильными оказались только 6 (что соответствует уровню случайного угадывания). Более того, некоторые испытуемые назвали «грязь» лучшим вариантом звучания.

Примерное подобное можно услышать когда идет спор сгенеренное изображение или нет ))
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM