Машинное обучение digest
60 subscribers
1.7K photos
225 videos
939 links
Download Telegram
⚡️ Вышел FireRed-Image-Edit-1.0 - новая SOTA для редактирования изображений.

И самое интересное - это open-source и готово к локальному запуску.

Что умеет модель:

- Обгоняет закрытые решения
(лучше Nano-Banana и Seedream 4.0 на бенчмарке GEdit)
- Построена с нуля на базе Text-to-Image, а не как надстройка поверх старых моделей
- Рекорд по стилевому переносу — 4.97 / 5.0
- Аккуратно сохраняет оригинальные шрифты и текст
- Поддерживает multi-image редактирование
(например, виртуальная примерка одежды)
- Понимает промпты на английском и китайском

- Лицензия Apache 2.0
- Можно запускать локально
- Подходит для продакшена и коммерческих проектов

Модель: https://modelscope.cn/models/FireRedTeam/FireRed-Image-Edit-1.0
Демо: https://modelscope.cn/studios/FireRedTeam/FireRed-Image-Edit-1.0
GitHub: https://github.com/FireRedTeam/FireRed-Image-Edit

@pythonl
This media is not supported in your browser
VIEW IN TELEGRAM
💰 Илон Маск сделал громкое заявление:

Через 10–20 лет накопления на пенсию могут потерять смысл.


Звучит радикально, но его логика проста.

Сегодня вся финансовая система построена на одном предположении:
ресурсы ограничены, а жизнь дорогая.

Мы откладываем деньги, потому что:
- нужно платить за жильё
- еду
- медицину
- услуги
- и в старости дохода может не быть

Но Маск считает, что AI и роботизация меняют саму основу экономики.

Что происходит уже сейчас:

- Автоматизация снижает стоимость труда
- Производство становится дешевле
- Услуги заменяются алгоритмами
- Всё больше процессов работает без участия человека

Если этот тренд продолжится, то:

Стоимость производства → стремится к нулю
Стоимость жизни → резко падает

А значит, логика “копить на дорогую жизнь в будущем” перестаёт работать.

Мы можем перейти от экономики дефицита к экономике изобилия.

Где главным ограничением станет не деньги, а:
- смысл деятельности
- самореализация
- ценность идей и творчества

Самый важный вывод не в том, что «копить не нужно».

А в другом:

Мир меняется быстрее, чем наши финансовые привычки.
Модель «учись → работай 40 лет → копи → пенсия» может просто устареть.

В ближайшие 10–15 лет главный актив - это не накопления.

Это:
- навыки адаптации
- умение работать с AI
- гибкость
- способность создавать ценность в новой экономике

Потому что будущее, к которому мы готовимся по старым правилам,
может оказаться совсем другим.
⚡️ Пентагон может разорвать сотрудничество с Anthropic.

Причина - компания отказалась разрешить использование своих моделей для «любых законных целей».

Anthropic настаивает на жестких ограничениях:

- запрет на массовую внутреннюю слежку
- запрет на полностью автономное оружие без участия человека

Конфликт обострился после спорного случая использования Claude в военной операции.
Это показало более глубокую проблему.

С одной стороны - Пентагон хочет максимально свободное применение ИИ.
С другой - Anthropic придерживается строгой политики безопасности и этики.

И здесь возникает парадокс:

Высокие этические стандарты начинают мешать бизнесу.

Главный вопрос на будущее:

Сможет ли компания сохранить принципы и при этом конкурировать на рынке, где государственные контракты - это миллиарды?

https://www.axios.com/2026/02/15/claude-pentagon-anthropic-contract-maduro
⚠️ ЕС начал борьбу с «залипающими» алгоритмами соцсетей

Европейская комиссия выпустила предварительные выводы:
дизайн TikTok признан вызывающим зависимость, особенно у детей.

Проверка проходит в рамках закона Digital Services Act (DSA).

Что именно не устраивает регуляторов:

- бесконечная лента (infinite scroll)
- алгоритмы, удерживающие внимание любой ценой
- механики, усиливающие зависимое поведение

TikTok может оспорить решение.
Но если проблемы не будут устранены, штраф может составить
до 6% от глобальной годовой выручки.

И это только начало.

Регуляторы больше не борются с контентом.
Они начинают регулировать саму механику внимания.

Если бесконечный скролл и «допаминовая оптимизация» признают вредными - это может изменить дизайн всей индустрии соцсетей.

politico.eu/article/tiktok-meta-facebook-instagram-brussels-kill-infinite-scrolling/
Anthropic выложили 6 полноценных курсов по ИИ - бесплатно.

По уровню это легко заменяет обучение на десятки или даже сотни тысяч рублей.

Внутри:
- сотни уроков и практики
- интерактивные задания и квизы
- реальные кейсы работы с Claude
- сертификаты после прохождения

Если работаешь с AI, агентами или API - это база, которую сейчас проходят разработчики в топ-компаниях.

Что можно изучить:

• Работа с Claude API
https://anthropic.skilljar.com/claude-with-the-anthropic-api

• Введение в Model Context Protocol (MCP)
https://anthropic.skilljar.com/introduction-to-model-context-protocol

• Claude в Amazon Bedrock
https://anthropic.skilljar.com/claude-in-amazon-bedrock

• Claude в Google Cloud (Vertex AI)
https://anthropic.skilljar.com/claude-with-google-vertex

• Продвинутый MCP
https://anthropic.skilljar.com/model-context-protocol-advanced-topics

• Claude Code на практике
https://anthropic.skilljar.com/claude-code-in-action

Это не «обзорные лекции».
Это реальные навыки для тех, кто хочет строить AI-продукты, агентов и автоматизацию.
⚠️ ИИ вызывает новый дефицит памяти

Дата-центры для AI потребляют столько памяти, что её начинает не хватать остальной электронике.

Что происходит на рынке:

- Контрактные цены на DRAM выросли на 75% всего за месяц
- Поставщики пересматривают цены ежедневно
- Основные объёмы памяти уходят в AI-серверы

Главная причина - переход на HBM (High Bandwidth Memory).

HBM - это многослойная память (8–12 слоёв DRAM), которая работает рядом с ускорителями Nvidia и AMD и обеспечивает экстремальную пропускную способность.

Масштаб потребления:

- Один ускоритель Nvidia Blackwell — до 192 GB HBM
- Система NVL72 - 13.4 TB памяти

Прогнозы:

- Спрос на HBM вырастет на 70% в 2026 году
- Уже сейчас HBM занимает 23% производства DRAM (против 19% в 2025)

Что это значит для рынка:

Обычной памяти становится меньше для:
- смартфонов
- ПК
- автомобилей
- игровых консолей

Выигрывают производители:
Samsung, SK Hynix, Micron - рост маржи.

Проигрывают продуктовые команды и компании,
которые не могут заранее выкупить поставки.

Главный вывод:

ИИ начинает влиять не только на софт и модели.
Он уже перераспределяет физические ресурсы всей индустрии электроники.
⚡️Релиз Qwen3.5-397B-A17B

Это первый open-weight релиз в серии Qwen3.5.

Лицензия Apache 2.0.

Что интересного:

• Мультимодальная модель
Понимает текст и изображения

• Создана для AI-агентов
Оптимизирована для реальных задач: планирование, работа с инструментами, многошаговые действия.

• Новая архитектура
Hybrid Linear Attention + Sparse MoE + масштабное обучение с reinforcement learning.

• Высокая скорость
Заявлено что моделька в 8. 6- 9 раз быстрее, чем у предыдущей Qwen3-Max.

• Глобальная модель
Поддержка 201 языков и диалектов.

Модели такого уровня в открытом доступе:
- можно запускать AI у себя, без зависимости от API
- полный контроль над данными
- возможность строить собственных агентов и продукты
- снижение стоимости на масштабах

🟡GitHub: https://github.com/QwenLM/Qwen3.5
🟡Чат: https://chat.qwen.ai
🟡Hugging Face: https://huggingface.co/collections/Qwen/qwen35
🟡Блог: https://qwen.ai/blog?id=qwen3.5

@ai_machinelearning_big_data

#qwen #ai #llm #ml #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
В Китае изменили правила для PhD.

С 2025 года степень можно получить не только за диссертацию, но и за практический результат: прототип, технологию, патент или внедрённый проект. Закон Degree Law официально разрешает защиту через «практические достижения».

Исследования остаются обязательными. Но в прикладных программах теперь оценивают не только публикации, а реальный эффект - инженерный, промышленный или коммерческий.

Это отражает сдвиг в экономике знаний.

Статья модет устареть очень быстро,
рабочий продукт может создать целый рынок.

PhD В Китае становится про разработку, внедрение и патенты, а не только про публикации.


Экономика талантов переходит от модели - publish or perish
к модели - build and prove impact.

zmescience.com/science/news-science/you-can-now-get-a-phd-in-china-by-inventing-a-product-instead-of-writing-a-100-page-dissertation/
Гадание отменяется: инструмент сканирует ваше железо и говорит, какие именно LLM потянет комп без тормозов 😮

Больше не нужно гадать с квантованием или ловить вылеты по памяти — утилита сама калибрует веса под конкретный конфиг.

Внутри зашит умный скоринг для 35+ моделей, откалиброванный под Apple Silicon, NVIDIA и даже Intel Arc. Утилита учитывает пропускную способность памяти, лимиты VRAM и контекстное окно, предлагая готовые команды для запуска через Ollama.

Железо скажет спасибо 👌
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Хакеры начали атаковать пользователей Windows через фейковые CAPTCHA.

Схема простая.
На сайте появляется «проверка Cloudflare», но вместо обычных картинок пользователя просят:
- нажать Win + R
- вставить текст
- нажать Enter

В буфер обмена уже подставлена PowerShell-команда.
После запуска она скачивает и устанавливает вредонос (StealC).

Что происходит дальше:
- кража паролей из браузеров
- доступ к Outlook и почте
- выгрузка криптокошельков
- данные Steam и других сервисов
- системная информация и скриншоты

Почему это опасно
Файл не скачивается вручную.
Пользователь сам запускает вредонос — защита часто не срабатывает.

Метод называется ClickFix — и он активно распространяется, потому что выглядит как обычная проверка безопасности.

Главный вывод
Если сайт просит выполнить что-то через Win + R, PowerShell или Terminal — это почти наверняка атака.

Сегодня главный вектор взлома - не уязвимости системы, а доверие пользователя.

https://www.windowscentral.com/microsoft/windows/windows-pc-targeted-by-hackers-in-a-fake-captcha-scam

@linuxkalii
Главные новости ИИ и МЛ за сегодня!

✔️ Релиз паблик-беты Grok 4.20.

xAI начала раскатывать Grok 4.20, которую Илон Маск описал как значительный апгрейд по сравнению с 4.1. Внутри работают сразу 4 агента: Grok, Harper, Benjamin и Lucas. Вместо одиночной генерации они устраивают дебаты: агенты спорят, перепроверяют факты друг друга и выдают согласованный ответ.

По цифрам: контекст 256 тыс. токенов, полная мультимодальность (текст, фото, видео). Ризонинг оценивается в 1505–1535 пунктов ELO.

Grok 4.20 под видом анонимной модели успела проявить себя в торговом соревновании Alpha Arena, показав доходность до 35% на крипторынках. Обновление уже доступно в X и через API.
Elon Musk в сети X

✔️ Mistral AI покупает облачный стартап Koyeb.

Koyeb делал serverless-платформу для развертывания ИИ. Цель предсказуема - интегрировать технологии стартапа в экосистему Mistral. Главный трофей - технология Koyeb Sandboxes, которая создает изолированные среды для безопасного запуска ИИ-агентов.

Mistral планирует внедрить эти наработки в свои продукты и использовать опыт команды для развития платформы Mistral Compute (той самой, что работает на серверах с водяным охлаждением). В марте вся команда Koyeb из 16 инженеров переходит в штат Mistral. Цену сделки не раскрыли.
reuters.com

✔️ OpenAI добавила режим Lockdown Mode в ChatGPT.

Новая настройка безопасности, Lockdown Mode, это "кнопка паники" для корпоративных клиентов, которые боятся утечек и промпт-инъекций.

Работает жестко: при активации система отрубает потенциально опасные инструменты и блокирует внешние запросы за периметр OpenAI. Админы могут включить этот режим принудительно и настроить белые списки для проверенных приложений.

Еще в интерфейсах (ChatGPT, Atlas, Codex) появятся метки Elevated Risk, которые будут предупреждать о функциях, несущих потенциальные риски. OpenAI говорит, что полагаться на мягкие программные фильтры уже нельзя и требуются жесткие архитектурные блокировки.
openai.com

✔️ Unity обещает создание игр через текстовые команды.

CEO Unity Мэтт Бромберг определил "AI-driven authoring" как приоритетное направление развития компании на 2026 год. Компания готовит инструмент, который сможет собирать казуальные игры с нуля, используя только естественный язык.

Бета-версию Unity AI покажут на GDC в марте 2026 года. Технология будет работать нативно внутри платформы, Unity возьмет топовые внешние модели и доучит их понимать контекст движка.

В компании уверены, что такой подход даст результат лучше, чем попытки заставить универсальные LLM писать сложный игровой код. Цель - окончательная демократизация геймдева, порог входа в который, похоже, скоро исчезнет совсем.
wccftech.com

✔️ Western Digital уже распродала все объемы на 2026 год.

По словам генерального директора Ирвинга Тана, почти весь производственный пул выбрали 7 главных клиентов для своих ИИ-проектов. С тремя из них уже подписаны контракты даже на 2027 и 2028 годы..

Бизнес WD меняется на глазах: доля потребительского рынка в выручке упала до 5%. В условиях, когда дата-центры требуют все больше ресурсов для обучения и работы ИИ, производителям становится невыгодно ориентироваться на рядовых пользователей. Деньги теперь там, где нейросети.
mashable.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Microsoft Research и Salesforce проанализировали 200 000+ диалогов с ИИ и подтвердили то, о чём многие догадывались.

Все модели деградируют в длинных диалогах.

GPT-4, Claude, Gemini, Llama - без исключений.
Чем дольше разговор, тем выше вероятность:
- ошибок в фактах
- потери контекста
- противоречий самому себе
- «галлюцинаций»
-
Почему это происходит
Контекст переполняется шумом: старые сообщения, уточнения, исправления.
Модель начинает опираться на неточные или устаревшие части диалога — и качество падает.

Практический вывод
Если задача сложная — перезапускайте диалог и давайте чистый контекст.
Один новый чат часто работает лучше, чем длинная переписка.

Главный тренд
Контекстное окно растёт, но проблема не в размере.
Будущее за управлением памятью и «чистым контекстом», а не просто за миллионами токенов.

Исследование: http://arxiv.org/abs/2505.06120
Вайбкодинг снова пошел не по плану: Claude дал испанцу контроль над 7000+ роботов-пылесосов по всему миру 😱

Вайбкодер просто хотел управлять своим роботом с геймпада PS5 и для реверс-инжиниринга использовал Claude. В итоге, когда его приложение подключилось к серверам DJI — на удивление ответило 7 000 устройств из 24 стран мира. Ему были доступны камеры, микрофоны и даже планировки домов, которые устройства отправляли в облако. А ведь парень даже не хакер!

И да, пишут, что DJI хоть и заявила об устранении уязвимости и выпустила патчи — часть дыр все еще открыта.

Claude просто собирал армию 😑

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
😁1
🌲 Звучит как научная фантастика, но это уже реальность.

Учёные разработали инновационный «живой строительный материал» с цианобактериями внутри. Под воздействием солнечного света они поглощают CO₂ и одновременно укрепляют структуру.

Фактически - материал, который со временем становится прочнее, используя углекислый газ.

Более 400 дней лабораторных испытаний (Nature Communications) показали, что гидрогель на основе этого подхода способен поглощать 26 ± 7 мг CO₂ на грамм.

Механизм двойного действия:
- рост биомассы за счёт фотосинтеза
- образование карбоната кальция (CaCO₃), который минерализует и усиливает материал

Идея проста и мощна: CO₂ превращается не в проблему, а в строительный ресурс.

Представьте здания, которые со временем укрепляются и одновременно очищают атмосферу.

https://dailygalaxy.com/2026/02/scientists-create-living-self-healing-building-material-capture-carbon/
📌 Microsoft Research и Salesforce показали проблему, о которой редко говорят: диалог резко снижает надёжность LLM.

В исследовании протестировали 15 топ-моделей (GPT-4.1, Gemini 2.5 Pro, Claude 3.7 Sonnet, o3, DeepSeek R1, Llama 4) на 200 000+ симулированных разговоров.

Результат:
- Один запрос → ~90% качества
- Многотуровый диалог → ~65%

Важно: дело не в «умности» модели. Способность решать задачи снизилась всего на ~15%.
Главная проблема — надёжность: количество ошибок и сбоев выросло на 112%.

Почему диалог ломает модели:
- Модель начинает отвечать до того, как вы дали полный контекст
- Первое неверное предположение закрепляется и тянется дальше
- Теряется часть информации из середины разговора
- Длинные ответы добавляют новые допущения → растёт вероятность ошибок

Что не помогает:
- reasoning-модели (o3, DeepSeek R1)
- больше «thinking tokens»
- температура = 0

Практический вывод:
Если нужна стабильность, давайте весь контекст, требования и ограничения одним сообщением, а не через длинную переписку.

Большинство бенчмарков тестирует single-turn в идеальных условиях.
В реальных диалогах надёжность падает у всех моделей и это критично для AI-агентов и продакшена.

https://arxiv.org/abs/2505.06120
Please open Telegram to view this post
VIEW IN TELEGRAM
✔️ CEO Y Combinator поделился своим промптом для Claude Code он показывает, как ИИ можно использовать как senior-инженера, а не просто генератор кода.

С таким подходом он выпускает фичи на 4 000+ строк с полными тестами примерно за час.

Что делает этот промпт:

Перед написанием кода AI оценивает решение:
- не переусложнена ли архитектура
- не слишком ли она упрощена
- «достаточно ли инженерии» для задачи

Затем модель:
- тщательно проверяет тесты, edge-cases и сценарии отказа
- ищет узкие места по производительности и масштабируемости
- предлагает варианты упрощения или рефакторинга

Но главное — не сам промпт, а процесс.

Вместо того чтобы сразу писать код, AI:
1) делает структурный разбор (архитектура → качество → тесты → performance)
2) показывает компромиссы и даёт рекомендации
3) останавливается и ждёт обратную связь перед реализацией

Фактически AI работает как senior-инженер, который сначала ревьюит систему, а потом уже пишет код.

Вывод:
Если в команде нет staff-level инженера, его роль можно частично встроить в процесс через AI.

Будущее разработки - это не просто генерация кода, а встроенный AI-review перед каждым изменением.

Промпт:
# Claude / AI Senior Engineer Prompt (Plan Mode)

Before writing any code, review the plan thoroughly.
Do NOT start implementation until the review is complete and I approve the direction.

For every issue or recommendation:
- Explain the concrete tradeoffs
- Give an opinionated recommendation
- Ask for my input before proceeding

Engineering principles to follow:
- Prefer DRY — aggressively flag duplication
- Well-tested code is mandatory (better too many tests than too few)
- Code should be “engineered enough” — not fragile or hacky, but not over-engineered
- Optimize for correctness and edge cases over speed of implementation
- Prefer explicit solutions over clever ones

---

## 1. Architecture Review

Evaluate:
- Overall system design and component boundaries
- Dependency graph and coupling risks
- Data flow and potential bottlenecks
- Scaling characteristics and single points of failure
- Security boundaries (auth, data access, API limits)

---

## 2. Code Quality Review

Evaluate:
- Project structure and module organization
- DRY violations
- Error handling patterns and missing edge cases
- Technical debt risks
- Areas that are over-engineered or under-engineered

---

## 3. Test Review

Evaluate:
- Test coverage (unit, integration, e2e)
- Quality of assertions
- Missing edge cases
- Failure scenarios that are not tested

---

## 4. Performance Review

Evaluate:
- N+1 queries or inefficient I/O
- Memory usage risks
- CPU hotspots or heavy code paths
- Caching opportunities
- Latency and scalability concerns

---

## For each issue found:

Provide:
1. Clear description of the problem
2. Why it matters
3. 2–3 options (including “do nothing” if reasonable)
4. For each option:
- Effort
- Risk
- Impact
- Maintenance cost
5. Your recommended option and why

Then ask for approval before moving forward.

---

## Workflow Rules

- Do NOT assume priorities or timelines
- After each section (Architecture → Code → Tests → Performance), pause and ask for feedback
- Do NOT implement anything until I confirm

---

## Start Mode

Before starting, ask:

**Is this a BIG change or a SMALL change?**

BIG change:
- Review all sections step-by-step
- Highlight the top 3–4 issues per section

SMALL change:
- Ask one focused question per section
- Keep the review concise

---

## Output Style

- Structured and concise
- Opinionated recommendations (not neutral summaries)
- Focus on real risks and tradeoffs
- Think and act like a Staff/Senior Engineer reviewing a production system
Please open Telegram to view this post
VIEW IN TELEGRAM
💰 OpenAI готовится к крупнейшему раунду финансирования в истории AI

OpenAI близка к закрытию первой фазы нового раунда, общий объём которого может превысить $100 млрд. Если условия подтвердятся, оценка компании может вырасти до ~$850 млрд.

Что важно в этом раунде

Это не классическое финансирование "деньги в обмен на долю".

Сделка структурирована как многоэтапный, много-траншевый раунд, где инвестиции идут не только в виде капитала, но и в виде инфраструктуры:
- облачные мощности
- GPU и ускорители
- долгосрочные вычислительные ресурсы

То есть партнёры фактически инвестируют compute, а не только деньги.

Предполагаемое участие компаний:
- Amazon - до $50 млрд
- SoftBank - до $30 млрд
- Nvidia - около $20 млрд
- Microsoft - стратегический партнёр (детали не раскрыты)

Ожидается, что распределение долей и обязательств будет финализировано к концу февраля 2026 года.

Оценка компании

Если первая фаза пройдёт по верхней границе:
- pre-money оценка - около $730 млрд
- post-money - более $850 млрд
- это выше предыдущей оценки ~$830 млрд

Условия ещё могут измениться, но масштаб уже понятен.

Почему это важно

1) Главный дефицит в AI - не деньги, а вычисления
Современные модели упираются в:
- GPU
- энергетику
- дата-центры
- сетевую инфраструктуру

Капитал без compute больше не решает проблему.

2) Формируется новый тип инвестиций
Это уже не венчурная модель, а инфраструктурные альянсы:
компании инвестируют, потому что:
- продают облако
- продают GPU
- закрепляют долгосрочный спрос
-
3) AI становится инфраструктурным рынком уровня нефти или электроэнергии
Участники сделки - это не фонды, а:
- облачные гиганты
- производители чипов
- глобальные финансовые конгломераты

AI-гонка окончательно сместилась из области моделей в область инфраструктуры.

Побеждает не тот, у кого лучший алгоритм.
Побеждает тот, у кого больше энергии, дата-центров и GPU.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ Claude получил постоянную память - и это меняет экономику работы с агентами

Claude-Mem - open-source инструмент, который даёт Claude постоянную память между сессиями.

Главная проблема Claude Code

По умолчанию у Claude нет долгосрочной памяти:
- каждый запуск - "с чистого листа"
- весь контекст нужно передавать заново
- растут токены
- быстро достигаются лимиты
- агент забывает структуру проекта, решения и предыдущие шаги

Это делает длительную работу с кодом дорогой и неэффективной.

Что делает Claude-Mem

Claude-Mem добавляет слой persistent memory:
- сохраняет важный контекст между сессиями
- восстанавливает знания при следующем запуске
- отправляет в модель только релевантную информацию

По сути, это внешний long-term memory для агента.

Результаты

По заявлению разраьотчиков:
- до 95% меньше токенов на повторных запусках
- до 20x больше tool calls до достижения лимитов
- быстрее старт новых сессий
- меньше повторных объяснений модели

https://github.com/thedotmack/claude-mem
Please open Telegram to view this post
VIEW IN TELEGRAM