DenoiseLAB
481 subscribers
1.36K photos
171 videos
3 files
1.67K links
Блог DenoiseLAB (машинное обучение, аналитика)

Информация в канале служит только для ознакомления и не является призывом к действию. Не нарушайте законы РФ и других стран. Мы не несем отвественность за ваши действия или бездействия.
Download Telegram
CEO нашли идеальное прикрытие для увольнений, - всё валят на ИИ

Раньше корпорации валили вину за плохие кварталы на «рыночные условия». Теперь в моде «AI-washing». Если увольняешь тысячи человек, кричи про «беспрецедентную эффективность ИИ» — и инвесторы похлопают по плечу за технологичность.

Guardian накопал фактуры, как это работает:

🛡 Маскировка провалов. Amazon с октября вышвырнул 30 000 сотрудников. Сначала пели про «трансформацию уровня интернета», а потом Энди Джесси сдал назад: увольнения — это «про культуру», а не про ИИ. Просто переборщили с наймом в пандемию.

⚓️ Политический щит. Критиковать тарифы Трампа — значит навлекать гнев Белого дома. Списать 54 000 увольнений на «алгоритмы» — безопасно и модно. Экономисты уверены: ChatGPT не мог так быстро сожрать рынок труда, это просто удобный громоотвод.

💸 Даунгрейд за те же деньги. Технологии пока не заменяют профессии целиком (Forrester прогнозирует всего 6% к 2030 году). Но ИИ позволяет нанять вместо одного дорогого сеньора двух дешевых джунов. Работа та же, косты ниже. Это не автоматизация, а обычный демпинг цены человеко-часа.

Бизнес научился продавать сокращение штата как «инвестиции в будущее». По факту — классическая чистка P&L под соусом прогресса.

#HR #увольнения
Qwen-Image-2.0: Китайский ИИ для генерации картинок, который не боится длинных текстов и сложных задач

Команда Alibaba представила новое поколение своей модели для генерации и редактирования изображений — Qwen-Image-2.0. Модель заточена на работу со сложными инструкциями на естественном языке и обещает стать мощным инструментом для креативщиков.

Ключевые возможности:
Обработка сверхдлинных промптов: Понимает инструкции длиной до 1000 токенов (примерно 700-900 слов).
Следование сложным инструкциям: Справляется с многоэтапными задачами, требующими понимания структуры, последовательности действий и стиля.
Улучшение работы с текстом: Рендерит текст в изображения, сохраняя читаемость даже в мелком шрифте и сложной композиции (хотя с поддержкой русского языка все также не очень).
Редактирование изображений: Позволяет загружать одну или несколько картинок и изменять их по текстовому описанию (смена стиля, добавление элементов, коллажи).
Высокое качество вывода: Генерирует изображения в разрешении до 2K.

📝 Технические детали
Модель демонстрирует прогресс в решении классической проблемы генеративных моделей — потери информации при рендеринге мелкого и плотного текста из-за сжатия в VAE (Variational Autoencoder). В Qwen-Image-2.0 были улучшены как компонент VAE, так и сама генеративная модель, что повысило чёткость и читаемость текста в таких сценариях, как инфографика или плакаты. Также разработчики сообщают об оптимизации размера модели для более быстрой генерации и низкого порога развёртывания.

chat.qwen.ai

#КитайскийИИ #КитайAI #Qwen #Alibaba
👍2
❗️Предустановку российского искусственного интеллекта (ИИ) на смартфоны и другую электронику планируют сделать обязательной. Правительство хочет прописать это в готовящемся законе о регулировании ИИ, сообщают «Известия». Мера призвана поддержать отечественных разработчиков.

Инициатива содержится в материалах правительства, собранных к законопроекту по регулированию ИИ. Подготовленный с учетом этих пожеланий документ Минцифры направит на согласование в правительство к концу февраля, заявил газете источник, близкий к нескольким профильным ведомствам.
👎2
💰 Оценка токенов влиятельных лиц с помощью ИИ

Проект анализирует токены социальных медиа-влиятельных лиц, предоставляя оценку их рыночной капитализации. Пользователи вводят имя или ссылку на профиль, а ИИ проводит анализ данных, включая активность и влияние, для прогнозирования стоимости криптовалюты, связанной с этим влиятельным лицом.

🚀 Основные моменты:
- Оценка токенов для любых влиятельных лиц
- Анализ влияния и активности с помощью ИИ
- Обнаружение манипуляций на рынке
- Прогнозирование рыночной капитализации криптовалюты
- Расширяемая архитектура для интеграции новых источников данных

📌 GitHub: https://github.com/Aihy/CLOV

#python
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь китайцы рекламу всякого барахла снимают так. Модель с каменным лицом стоит и иногда жестикулирует, а всё остальное делают нейроночки.

В этом есть и плюс, актером может стать каждый )))
😁3
Нейросеть пришлось отучать от мата после месяца общения с клиентами компании ЖКХ, рассказал ТАСС президент Национального объединения организаций в сфере технологий информационного моделирования Михаил Викторов.

Хм... быстро научилась )))
🤣3
Открыта регистрация на главную конференцию этой весны по технологиям ИИ и анализу данных — Data Fusion 2026! 💙

Шестая ежегодная конференция Data Fusion пройдет 8–9 апреля в Москве в инновационном кластере «Ломоносов».

60+ актуальных сессий, докладов, кейсов, дискуссий по теме анализа данных/ DS/ ML.  Среди тем – ИИ-агенты, RL, CV, NLP, Open Source, Embodied AI и робототехника, рекомендательные системы, применение ИИ в кибербезопасности, AI+ естественные науки, AgentOps и многое другое! Всю программу ищите на сайте (подавайте ваши доклады, welcome!).

Конференция объединит лидов ML-команд, DS-специалистов, молодых ученых, инженеров, аналитиков и руководителей, принимающих решения о внедрении технологий в бизнес и государственные сервисы.

Среди спикеров конференции: Суржко Денис (ВТБ), Оселедец Иван (AIRI), Райгородский Андрей (МФТИ), Бурнаев Евгений (Сколтех,AIRI), Саркисов Тигран (Х5),  Крайнов Александр (Яндекс), Зима Андрей (Ростелеком) и другие эксперты из науки и индустрии.

Все мы любим конференции не только ради знаний, но и, конечно, ради нетворкинга и новых знакомств! Живое общение в кругу коллег, друзей и единомышленников – важная часть Data Fusion!

Не пропустите, регистрируйтесь.

Информация о рекламодателе
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Кринж: Google пожаловалась, что у неё воруют ИИ.

Компания заявила, что неизвестные пытались клонировать Gemini — они отправили системе более 100 тысяч запросов, чтобы вытащить её логику через так называемую distillation-атаку. По сути — копирование модели через её же API. Google назвал это кражей интеллектуальной собственности.

Звучит особенно иронично на фоне того, что сам Google обучал свои модели, сканируя интернет без разрешения правообладателей. Сейчас они отбиваются от исков по авторскому праву.
😁3
⚡️ GLM-5 — новая лучшая китайская ИИ-модель

Новая ИИ-модель GLM-5 от Z.​ai стала самой умной нейросетью с открытыми весами. По оценке Artificial Analysis, GLM-5 находится на уровне Claude Opus 4.5, при этом модель на порядок дешевле. Также GLM-5 обходит в рейтинге Gemini 3 Pro и GPT-5.2 Codex.

Главные фишки:

Почти не галлюцинирует. Сейчас GLM-5 — лучшая модель с результатом 66% в бенчмарке AA-Omniscience, проверяющем склонность ИИ к выдумыванию деталей. На втором месте Claude Sonnet 4.5 с 52%.

Отлично кодит. В тестах на программирование и агентность GLM-5 выступает не хуже закрытых лидеров, а в некоторых даже обходит их. При этом в научных задачах модель все-таки заметно уступает GPT и Claude.

💻 Несмотря на открытость, запустить GLM-5 на домашнем «железе» не выйдет — для модели на 744 млрд параметров (40 млрд активных) потребуется минимум несколько сотен гигабайт видеопамяти.
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉4
This media is not supported in your browser
VIEW IN TELEGRAM
Самый наглядный пример развития искусственного интеллекта
😁9
Вроде понятно, а вроде и нет из этого мема. У меня появилась мыль: "Развитие ИИ это теперь валюта". Пока что курс ее только растет. Механизмы, по которым оно живет, очень похожи на финансовые.
This media is not supported in your browser
VIEW IN TELEGRAM
Польский блогер отопил дом пончиками и это оказалось выгоднее, чем топить дровами

Он подсчитал, что один пончик из Lidl содержит около 440 ккал, значит 133 пончика это около 10 кг продукта с теплотворной способностью примерно 18.5 МДж/кг — почти столько же, сколько у древесных брикетов, поскольку при сгорании сахар и жир выделяют большое количество тепла.

В результате температура в доме поднялась с 14°C до 22°C, а сами пончики горели примерно 5 часов.

10 кг пончиков обошлись ему в 12 злотых, тогда как такое же количество дров стоит 19 злотых
😁2
Смена поколений, она такая ))
This media is not supported in your browser
VIEW IN TELEGRAM
☝🏻OpenAI тихо изменила свои цели

Исследователь из Университета Тафтса Алнур Эбрагим, изучая налоговую отчётность OpenAI, обнаружил любопытное изменение, которое почти никто не заметил.

Раньше миссия компании звучала так: создавать ИИ, который
«безопасно приносит пользу человечеству, не ограниченный необходимостью получения финансовой прибыли»

В обновлённой версии формулировка стала короче —
«обеспечение того, чтобы искусственный общий интеллект приносил пользу всему человечеству»

Слово «safely» (безопасно) исчезло, а вместе с ним исчезло и упоминание независимости от финансовой отдачи.

И это не просто редакторская правка.

☝🏻☝🏻Буквально на той же неделе стало известно, что OpenAI расформировала команду Mission Alignment — подразделение из 7 человек, которое занималось продвижением миссии компании среди сотрудников и общественности. 

Это, кстати, уже не первый раз.

☝🏻☝🏻В 2024 году OpenAI распустила команду Superalignment, которая занималась долгосрочными экзистенциальными рисками ИИ.

После этого из компании ушли сооснователь Илья Суцкевер, который основал собственную лабораторию Safe Superintelligence, и Ян Лейке, публично заявивший, что культура безопасности в OpenAI отошла на задний план перед «блестящими продуктами».

Контекст этих изменений добавляет остроты.

В конце 2024-го OpenAI привлекла $6,6 млрд инвестиций с условием, что компания перейдёт к классической коммерческой модели без ограничений на прибыль.

В октябре 2025-го она разделилась на два юрлица: некоммерческий OpenAI Foundation и коммерческий OpenAI Group в форме public benefit corporation.

Через два месяца после этого SoftBank вложил $41 млрд, а оценка компании выросла с $300 до $500+ млрд. 💰

И всё это происходит на фоне волны исков.

OpenAI сейчас отбивается от множества судебных дел, связанных с безопасностью ChatGPT.

Среди обвинений — содействие суицидам и психологические манипуляции.

Истцы утверждают, что OpenAI намеренно сжала месяцы тестирования безопасности ИИ до одной недели, чтобы опередить Google Gemini на рынке. ⚠️

☝🏻☝🏻☝🏻По сути, компания, которая больше всех продвигала идею «ответственного ИИ», теперь системно демонтирует всё, что эту ответственность обеспечивало — слова из миссии, специализированные команды, ключевых исследователей безопасности.

Как точно сформулировал исследователь Эбрагим: удаление слова «safely» — это тест на то, будет ли ИИ служить обществу или акционерам.🤖

Передел на рынке ИИ идет полным ходом.
❤‍🔥3
⏱️ TimesFM 2.5 — предобученная модель для прогнозирования временных рядов, которая отлично работает в zero-shot «из коробки».

📌 Характеристики:
- 200M параметров (было 500M)
- Контекст 16k (было 2k)
- Доступна на Hugging Face
- Лицензия Apache 2.0

#TimeSeries #Forecasting #AI #ML #OpenSource

https://huggingface.co/google/timesfm-2.5-200m-pytorch
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2
✔️ NVIDIA представила исследование NVFP4: новый формат чисел для обучения больших языковых моделей, который использует всего 4 бита на число вместо привычных 8 или 16.

При этом точность почти не теряется, а вычисления становятся в 2–3 раза быстрее, а потребление памяти снижается на 50%.

В эксперименте NVIDIA обучила 12-миллиардный Mamba Transformer на 10 триллионах токенов, и модель с 4-битным NVFP4 показала почти такую же точность, как и FP8:
на тесте MMLU Pro - 62.58% против 62.62%,
а по коду (MBPP+) - 55.91% против 59.11%.

NVFP4 группирует значения в блоки по 16 чисел. Для каждого блока хранится небольшой масштаб в 8 битах, а для всего тензора - глобальный масштаб в 32 битах. Такая структура сохраняет точность локальных и экстремальных значений, позволяя использовать сверхкомпактное 4-битное хранение без потери устойчивости обучения.

На GPU Blackwell операции FP4 выполняются в 2 раза быстрее на GB200 и в 3 раза 0 на GB300, по сравнению с FP8. Потери точности при валидации не превышают 1–1.5%.

Метод также использует стохастическое округление, чтобы избежать накопления ошибок, а переход на BF16 в последних итерациях обучения полностью убирает оставшуюся разницу.

Поддержка NVFP4 уже встроена в Transformer Engine и новое поколение GPU Blackwell.
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Китайский ИИ-гигант Alibaba выпустил Qwen3.5-Plus: самая мощная и при этом самая дешёвая открытая языковая модель

В канун Лунного Нового года команда Qwen представила новую модель, которая сочетает в себе топовую производительность с революционно низкой стоимостью.

Суть прорыва:
Сильнее конкурентов: Qwen3.5-Plus бьёт рекорды среди открытых моделей в ключевых задачах: мультимодальное понимание, сложные рассуждения, программирование, работа как AI-агент. По многим тестам она догоняет или превосходит лидеров — GPT-4o, Gemini 2.0 Pro.
Дешевле всех: Стоимость использования — всего ¥0.8 за 1 млн токенов. Для сравнения: у Gemini 3 Pro цена в 18 раз выше.

Это стало возможным благодаря радикальной оптимизации архитектуры. Модель использует всего 397 млрд параметров (из них активно во время генерации — только 17 млрд), но обгоняет по качеству свою же предшественницу с триллионом параметров. Результат: снижение стоимости развёртывания на 60% и увеличение скорости обработки запросов до 19 раз!

🔬 Технические детали: как им это удалось?
Ключ к успеху — четыре инновации:
1. Гибридный механизм внимания (Hybrid Attention): Модель научилась «читать с выделением главного», динамически распределяя вычислительные ресурсы между важными и второстепенными частями текста. Это резко сокращает затраты на обработку длинных контекстов.
2. Предельно разреженная архитектура MoE (Mixture of Experts): Из почти 400 млрд параметров для ответа на каждый запрос активируется лишь ~17 млрд. Это позволяет использовать всю «базу знаний» модели, тратя менее 5% от полной вычислительной мощности.
3. Нативное предсказание нескольких токенов (Native Multi-Token Prediction): Вместо последовательного «проговаривания» слов модель учится предсказывать несколько следующих токенов сразу. Это почти удваивает скорость генерации в таких сценариях, как написание кода или длинных текстов.
4. Глубокие оптимизации стабильности обучения: Внедрение механизма «внимания с затвором» (Gated Attention), удостоенного награды NeurIPS 2025, позволило эффективно фильтровать шум и сохранять ключевую информацию в очень длинных контекстах.

👁️ Настоящая «родная» мультимодальность
В отличие от многих моделей, где возможности работы с изображением и видео — это просто «надстройка» над текстовым ядром, Qwen3.5-Plus обучалась на смешанных данных (текст + изображения) с самого начала. Это обеспечивает глубокое, интуитивное понимание контента без потерь качества в текстовых задачах.

💎 Вывод
Выход Qwen3.5-Plus — это сигнал о смене парадигмы: гонка ИИ смещается с погони за максимальной производительностью любой ценой к созданию доступной инфраструктуры. Благодаря связке открытой модели, облачной платформы Alibaba Cloud и собственных чипов, компания одновременно решает проблемы «можно ли использовать» и «по карману ли это». Именно так технологии становятся массовыми.

Чат | Блог ModelScope | HuggingFace

#КитайскийИИ #КитайAI #Qwen #Alibaba
🤨3🔥2