Машиннное обучение | Наука о данных Библиотека
17.1K subscribers
934 photos
21 videos
21 files
776 links
админ - @workakkk

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram - 🔥лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python книги📚

@datascienceiot - ml книги📚

№ 5037635661
Download Telegram
🖥 ChatGPT радикально изменил то, как студенты пишут код - и это видно в данных.

Новое исследование сравнило 5 семестров до появления ChatGPT и 5 после, анализируя:
• количество попыток сдачи
• итоговую длину кода
• сколько строк менялось между попытками

Что обнаружили:

Студенты стали менять примерно в 10 раз больше строк кода между сабмитами.
Но прирост оценки за одну попытку стал меньше.

При этом финальные оценки по заданиям остались почти идеальными.

То есть:

• решения стали длиннее
• правки стали крупнее
• пошаговое улучшение между попытками стало слабее

Раньше студенты чаще двигались маленькими шагами: исправил — стало лучше — ещё немного подкрутил.
Теперь правки стали более «скачкообразными» — большие куски кода меняются за раз, но без чёткого постепенного прогресса.

Это похоже на смену стиля разработки: от итеративного мышления к модели «перегенерировать и поправить».

Исследование:
Changes in Coding Behavior and Performance Since the Introduction of LLMs

arxiv.org/abs/2601.11835
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍2🔥1
✔️ Маленькие LLM вместе могут конкурировать с гигантскими моделями, если заставить их спорить правильно

Вместо одной огромной модели используется группа более простых моделей, которые критикуют друг друга и по кругу улучшают общий ответ.

Идея из исследования *Mixture-of-Models: Unifying Heterogeneous Agents via N-Way Self-Evaluating Deliberation*.

В чём суть

Систему строят не как один “мозг”, а как команду моделей:

1. Несколько разных LLM дают первоначальные ответы
2. Они читают ответы друг друга
3. Критикуют, дорабатывают и предлагают улучшения
4. Лучшие идеи проходят дальше
5. Процесс идёт раундами, пока качество растёт

Это называется N-Way Self-Evaluating Deliberation — многостороннее самооценивание с повторным обсуждением.

Почему это работает

- Плохие ранние ответы можно исправить на следующих раундах
- Ошибки одной модели подхватываются другими
- Идеи не “залипают” в первой версии

Чтобы ни одна модель не доминировала:

- используется анонимная оценка
- применяется квадратичное голосование, чтобы лучшая идея побеждала честно

Роль брокера

Специальный “брокер” выбирает, какие модели лучше подходят под конкретную задачу, а дальше они работают как команда, перепроверяя друг друга.

Главный вывод

Исследователи показывают, что consumer-модели могут конкурировать с сильнейшими LLM, если:

- есть структурированная система раундов
- есть механизм критики
- есть правила отбора лучших ответов

Система меняет вычисления на “память”:

вместо огромной модели используется больше раундов текстовой обратной связи.

Чуть больше времени — но гораздо дешевле железо.

Что это означает на практике

Можно временно собрать “сильную” модель из набора разных LLM:

- без дообучения
- без гигантских GPU
- просто через правильную организацию взаимодействия

Это способ усилить интеллект системы за счёт структуры, а не размера.

Статья: arxiv.org/abs/2601.16863
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍3🔥3
📊 Прогноз Forrester: как ИИ повлияет на рынок труда к 2030 году

Аналитики Forrester оценили влияние искусственного интеллекта на занятость в США в период 2025–2030.

Главные цифры:

— ИИ может стать причиной 6% всех потерь рабочих мест
— Это примерно 10.4 млн позиций к 2030 году

Но есть важный нюанс.

В отчёте подчёркивается:
массовое вытеснение людей ИИ маловероятно, если только производительность не начнёт расти значительно быстрее текущих темпов.

Другими словами:

— Да, часть задач будет автоматизирована
— Да, некоторые роли исчезнут
— Но полного «замещения людей» в ближайшие годы не ожидается

Почему:

— Бизнес внедряет ИИ постепенно
— Многие процессы требуют человеческого контроля
— Производительность растёт, но не настолько быстро, чтобы резко сокращать штат

Что это значит на практике:

ИИ скорее меняет структуру работы, чем массово уничтожает рабочие места:
- меньше рутинных задач
- больше автоматизации
- больше ролей, связанных с управлением и использованием ИИ

Полный прогноз: forrester.com/press-newsroom/forrester-impact-ai-jobs-forecast/
4👍2🔥1
⚡️ ИИ как финансовый советник? Польза есть, но есть и риск

Профессор MIT Sloan Эндрю Ло предупреждает: современные AI-модели могут звучать как надёжные финансовые консультанты, но у них нет юридической обязанности защищать интересы пользователя.

И это важно учитывать, потому что люди всё чаще доверяют ИИ деньги.

По данным опроса 11 000 инвесторов из 13 стран:
- 19% уже используют ChatGPT-подобные инструменты для управления портфелем
- В 2024 году таких было 13%

То есть доверие к AI в финансах быстро растёт.

Парадокс ситуации

С одной стороны:
- Модели не несут ответственности
- Могут ошибаться или «уверенно галлюцинировать»
- Не учитывают ваш риск-профиль, цели и ограничения

С другой стороны — потенциал огромный.

Сам профессор Ло считает, что в будущем LLM смогут сильно помочь:
- начинающим инвесторам
- людям с небольшими счетами
- тем, у кого нет доступа к профессиональным консультантам

Где AI уже реально полезен

- Анализ годовых отчётов компаний
- Поиск рисков в финансовых договорах
- Налоговое планирование
- Сравнение инвестиционных сценариев
- Быстрый deep-research по компаниям и рынкам

За последние 1–1.5 года AI стал мощным инструментом финансового анализа: он находит детали и риски, на которые у человека ушли бы часы или дни.

Главная мысль

ИИ - это аналитик, а не финансовый советник.
Используйте его для исследований и проверки гипотез,
но финальные решения всегда должны оставаться за вами.

Источник: wsj.com/tech/ai/ai-chatbot-financial-advice-mit-2dc76348
3👍1👎1🔥1
Открыта регистрация на главную конференцию этой весны по технологиям ИИ и анализу данных — Data Fusion 2026! 💙

Шестая ежегодная конференция Data Fusion пройдет 8–9 апреля в Москве в инновационном кластере «Ломоносов».

60+ актуальных сессий, докладов, кейсов, дискуссий по теме анализа данных/ DS/ ML. Среди тем – ИИ-агенты, RL, CV, NLP, Open Source, Embodied AI и робототехника, рекомендательные системы, применение ИИ в кибербезопасности, AI+ естественные науки, AgentOps и многое другое! Всю программу ищите на сайте (подавайте ваши доклады, welcome!).

Конференция объединит лидов ML-команд, DS-специалистов, молодых ученых, инженеров, аналитиков и руководителей, принимающих решения о внедрении технологий в бизнес и государственные сервисы.

Среди спикеров конференции: Суржко Денис (ВТБ), Оселедец Иван (AIRI), Райгородский Андрей (МФТИ), Бурнаев Евгений (Сколтех,AIRI), Саркисов Тигран (Х5), Крайнов Александр (Яндекс), Зима Андрей (Ростелеком) и другие эксперты из науки и индустрии.

Все мы любим конференции не только ради знаний, но и, конечно, ради нетворкинга и новых знакомств! Живое общение в кругу коллег, друзей и единомышленников – важная часть Data Fusion!

Не пропустите, регистрируйтесь.

Информация о рекламодателе
Please open Telegram to view this post
VIEW IN TELEGRAM
2
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Cowork стал доступен на Windows.

Пользователи Windows теперь могут использовать все возможности Cowork: прямой доступ к файлам, выполнение многошаговых задач, поддержку плагинов и всех коннекторов MCP. Ранее этот функционал был эксклюзивом для яблочной платформы.

Попутно Anthropic представила гибкую систему инструкций. Вы можете задать глобальные предпочтения: тон, формат ответов или описание своей роли, они будут применяться ко всем чатам.

Также появились инструкции уровня папок: они активируются автоматически, когда вы работаете в конкретной директории. Обновлять эти настройки можно прямо в ходе диалога, не копаясь в меню.

Инструмент все еще в стадии research preview и открыт для всех пользователей платных тарифов. Для доступа достаточно скачать свежую версию клиента с сайта.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
3
📘 На Stepik вышел курс«AI Agents PRO: LangGraph, AutoGen и LLMOps в продакшне»

Хотите собирать AI-агентов и RAG-сервисы так, чтобы это стабильно работало в эксплуатации: с метриками, оценкой качества, контролем стоимости и нормальным деплоем? Этот курс — полный путь от прототипа к прод-сервису.

Агенты: LangGraph/AutoGen, роли/состояния, FSM/DAG, параллелизм

RAG: hybrid retrieval + rerank (Qdrant/FAISS/Weaviate)

Надёжность: таймауты, ретраи, идемпотентность, DLQ

Eval/качество: golden-сеты, LLM-judge, pass@k, quality-гейты

Observability: логи/трейсы, OpenTelemetry, Prometheus/Grafana

Security: строгий JSON (Pydantic), guardrails, PII, RBAC/ABAC

🎓 Сертификат Stepik — добавьте в резюме или LinkedIn

🚀 Скидка 25% по ссылке — действует 48ч

👉 Забрать курс на Stepik

Реклама: Ип Малышкин А.А.
ИНН: 402571325199, Erid: 2Vtzqw45X5m
👎53👍2
LLaDA 2.1 - модель, которая умеет переписывать себя на ходу

Классическая проблема всех autoregressive-моделей:
если в начале генерации появилась ошибка — она тянется до самого конца.

Модель не может “передумать”.
Токены уже выданы — исправить их нельзя.

LLaDA 2.1 предлагает другой подход.

Это 100B diffusion-LLM с архитектурой *draft → edit*.

Как это работает:

- Сначала модель создаёт черновик
- Затем возвращается к тексту и редактирует его
- Может переписывать ранние слова, если они ухудшают результат
- Ошибки не накапливаются, а исправляются по ходу генерации

Почему это важно:

В autoregressive-LLM:
- одна ранняя ошибка → ухудшение всего ответа
- особенно критично для кода, рассуждений и длинных задач

В LLaDA:
- модель может пересмотреть решение
- улучшить структуру ответа
- повысить стабильность генерации

Производительность:

- До 892 токенов/с на сложных задачах по программированию
- Один из самых быстрых подходов среди альтернативных архитектур

Главная идея:

Будущее генерации — не просто писать токен за токеном,
а думать, проверять и переписывать результат.

Diffusion-LLM - один из самых интересных кандидатов на архитектуру следующего поколения.

🤗 HuggingFace: https://huggingface.co/collections/inclusionAI/llada21
👍6👎3🔥31😁1
🔥На Stepik вышел курс: Linux: полный апгрейд твоих скиллов

Хочешь реально понимать, что происходит под капотом твоей системы, а не просто кликать по GUI?

Без глубокого знания базы ты не инженер - ты просто пользователь.

🔹 В курсе ты:

- Освоишь bash, grep, sed, awk - инструменты, которыми живут админы.
- Разберёшь права, процессы, сеть, файловую систему и научишься чинить всё, что падает.
- Настроишь SSH, firewall, systemd, crontab, демоны и автозапуск.
- Научишься анализировать логи, следить за нагрузкой, и не паниковать при 100% CPU.

💡 Формат: пошаговое объяснение базы и разбор важных практик по работе с Linux.

🎯 После курса ты: будешь чувствовать Linux как родную среду и забудешь, что такое “permission denied”.

🚀 24 часа действует скидка 30%

👉 Учиться со скидкой
3👍1🔥1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI обвинила DeepSeek в краже знаний через дистилляцию.

В меморандуме для Комитета Палаты представителей по Китаю OpenAI пожаловалась, что DeepSeek обучала свои модели на выходных данных чужих моделей для воспроизведения возможностей американских ИИ-систем.

По данным компании, сотрудники DeepSeek применяли сторонние роутеры и программный доступ к API, чтобы обойти защитные механизмы. OpenAI также указала на теневых реселлеров своих сервисов. Заблокировать их активность пока безрезультатны: методы обфускации становятся все изощреннее.

Помимо бизнес-угрозы, китайские модели бесплатны, тогда как американские ИИ-гиганты инвестировали миллиарды в инфраструктуру.
bloomberg.com

✔️ Пентагон хочет развернуть GPT и Claude в секретных контурах.

Минобороны США ведет переговоры с OpenAI и Anthropic о размещении их моделей на всех уровнях секретности. При этом военные требуют снять большинство ограничений и этических фильтров.

Пока прогресс неравномерный. OpenAI уже запустила ChatGPT на платформе genai.mil, которой пользуются свыше 3 млн. сотрудников Пентагона. Компания сняла часть стандартных ограничений, но гарантии безопасности сохранилась. Похожие сделки ранее заключили Google и xAI.

С Anthropic сложнее. Они настаивают на соблюдении собственных политик использования и категорически против применения Клода для боевых и разведывательный целей.
reuters.com

✔️ MiniMax выпустила модель M2.5.

Новинка построена на архитектуре MoE и получила 10 млрд. активных параметров при 229 млрд. общих. Она обучалась в сотнях тысяч сложных сред и умеет самостоятельно планировать действия без явных инструкций от пользователя.

По заявленным бенчмаркам, M2.5 превосходит GPT-5.2, Gemini 3 Pro и Claude в веб-поиске, агентных тасках и по офисными задачами. В кодинге модель в ряде тестов обходит Claude Opus 4.6. Веса опубликованы под лицензией MIT.

Закрытый вариант, M2.5-Lightning, выдает 100 токенов в секунду - это вдвое быстрее топовых аналогов. Час ее непрерывной работы стоит 1 доллар, а 4 инстанса можно гонять параллельно круглый год за 10 тыс. долларов.
API и тариф для разработчиков доступны на платформе Minimax.
minimax.io

✔️ Google стандартизировала взаимодействие ИИ-агентов с веб-сайтами.

WebMCP — это реализация протокола MCP для браузерной среды, чтобы сделать агентов быстрее и надежнее за счет предсказуемого интерфейса вместо хрупкого парсинга страниц.

С помощью него сайты получат возможность предоставлять агентам структурированные инструменты: бронирование билетов, создание тикетов поддержки, поиск товаров и т.д. В основе архитектуры два API: декларативный для простых действий через HTML-формы и императивный для сложных сценариев на JavaScript.

Пока WebMCP доступен как превью для разработчиков через программу раннего доступа Google. В перспективе интеграция с Chrome и Gemini позволит агентам напрямую совершать действия прямо из браузера без участия пользователя.
developer.chrome.com

✔️ Список главных инноваторов США возглавили архитекторы ИИ-революции.

В честь 250-летия США Forbes опубликовал рейтинг America's Greatest Innovators. Верхушка списка пестрит основателями и руководителями ИИ-компаний.

Первое место занял Илон Маск, следом идут Дженсен Хуанг и Сэм Альтман. В топ-20 также вошли сооснователи Google Ларри Пейдж и Сергей Брин.

По словам редакторов издания, критерием отбора стала способность превращать сложные технологии в повсеместно используемые инструменты.
forbes.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
5
⚡️ Microsoft Research и Salesforce проанализировали 200 000+ диалогов с ИИ и подтвердили то, о чём многие догадывались.

Все модели деградируют в длинных диалогах.

GPT-4, Claude, Gemini, Llama - без исключений.
Чем дольше разговор, тем выше вероятность:
- ошибок в фактах
- потери контекста
- противоречий самому себе
- «галлюцинаций»
-
Почему это происходит
Контекст переполняется шумом: старые сообщения, уточнения, исправления.
Модель начинает опираться на неточные или устаревшие части диалога — и качество падает.

Практический вывод
Если задача сложная — перезапускайте диалог и давайте чистый контекст.
Один новый чат часто работает лучше, чем длинная переписка.

Главный тренд
Контекстное окно растёт, но проблема не в размере.
Будущее за управлением памятью и «чистым контекстом», а не просто за миллионами токенов.

Исследование: http://arxiv.org/abs/2505.06120
👍64🥰1
✔️ SLA2 - Sparse-Linear Attention with Learnable Routing and QAT

Учёные из Tsinghua и UC Berkeley ускорили видеодиффузию в 18,6 раза - без потери качества.

В некоторых случаях результат даже лучше.

Ключевой результат:
- 97% разреженности attention
- качество на уровне полного attention
- быстрее и дешевле

Метод называется SLA2.

Главая идея

В видеомоделях большая часть вычислений attention просто не нужна.

Раньше использовали гибрид:
- sparse attention
- linear attention

Но в этой схеме была скрытая проблема — математическая ошибка.

Sparse-ветка была масштабирована неправильно (фактор α),
и linear-ветке приходилось компенсировать эту неточность.

Что делает SLA2

- исправляет формулировку attention
- добавляет обучаемый роутер
- модель сама решает:
- где нужен полный attention
- где можно использовать упрощённый

Дополнительно:
- применяется quantization-aware training
- низкобитный attention обучается во время fine-tuning, а не просто добавляется на этапе инференса

Результаты (Wan2.1 — 1.3B и 14B):

- 97% sparsity
- 18,6× ускорение вычислений
- 4,35× снижение общей задержки (14B)

Самое интересное:

При 97% разреженности SLA2 показывает лучшее качество,
чем все базовые методы при 90%.

Настоящий прогресс в AI - это не только новые модели,
а умение сохранять качество, радикально снижая вычисления.


https://arxiv.org/abs/2602.12675
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
4🔥3👎1
Forwarded from Machinelearning
📌Сэм Альман дал интервью индийской прессе в рамках India AI Impact Summit 2026.

Трансляция длилась час и содержала много риторики в сторону Индии. Мы собрали ключевые и наиболее интересные высказывания:

🟡Эволюция ИИ

Скорость развития моделей от базовых задач к решению научных проблем не имеет аналогов в истории технологий.

Глубокое обучение уникально тем, что небольшая группа исследователей нашла единый алгоритм, способный обучаться чему угодно, и его эффективность непрерывно растет.

Год назад ИИ справлялся только с математикой на уровне старшей школы, испытывая трудности с программой начальных классов за пару лет до этого.

Летом модели начали конкурировать в сложнейших математических олимпиадах, а на прошлой неделе проект First Proof ИИ решил 7 из 10 математических проблем, ответы на которые ранее не были известны ученым.

Codex полностью изменили профессию программиста. Текстовый запрос теперь позволяет сгенерировать приложение целиком.

🟡Инфраструктура

Требования к вычислительным мощностям для достижения AGI выходят за рамки существующих физических и экономических возможностей планеты.

Индустрия ИИ представляет собой «пятислойный пирог»: энергетика, дата-центры, чипы, базовые модели и конечные приложения.

Развертывание инфраструктуры станет самым дорогим и сложным проектом за всю историю человечества. Для его реализации невозможно использовать традиционные методы - потребуется массовое привлечение ИИ и промышленных роботов для строительства.

Концепция размещения дата-центров в космосе абсурдна. Стоимость запуска оборудования несоизмеримо выше затрат на наземную электроэнергию, а починить сломанный GPU в космосе физически некому. Орбитальные дата-центры не обретут смысл в текущем десятилетии.

🟡Геополитика и альянс с государством

Технологическая индустрия, зародившаяся в Кремниевой долине на принципах либертарианства, должна радикально изменить подход. Для достижения AGI потребуется беспрецедентный уровень интеграции с правительствами.

В гонке ИИ Китай обладает подавляющим преимуществом в смежных физических отраслях: производстве промышленных роботов, электромоторов, магнитов и развертывании энергетической инфраструктуры.

Крайне опасен сценарий, при котором AGI будет монополизирован одной компанией или одним государством. Распределение мощностей должно быть демократизировано для соблюдения баланса сил на международной арене.

Уже наблюдается децентрализация: команды из 1-3 человек, используя ИИ-агенты, создают стартапы с феноменальным уровнем успеха и капитализации, что было невозможно еще несколько лет назад.

ИИ-системы уже могут применяться правительствами для анализа массивов разведывательных отчетов. Категорически недопустимо использование ненадежных open-source моделей для принятия критических военных решений.

🟡Энергопотребление

Оценка экологического следа дата-центров сопровождается дезинформацией.

Утверждения о том, что ChatGPT расходует 17 галлонов воды на каждый поисковый запрос, являются фейком. Современные дата-центры отказываются от систем испарительного охлаждения.

Общее потребление энергии дата-центрами абсолютно реально и огромно. Миру необходимо экстренно переходить на ядерную, ветровую и солнечную энергетику.

Данные Билла Гейтса о том, что один запрос к ChatGPT эквивалентен разрядке 10 батарей iPhone, сильно завышены.

Альтман предложил сравнение энергетических затрат на тренировку ИИ-модели с затратами на обучение человека. Специалисту требуется 20 лет потребления пищи и ресурсов планеты, прежде чем он сможет выполнять сложные когнитивные задачи. ИИ с этой точки зрения уже выигрывает по энергоэффективности.

🟡Блок ответов на вопросы

При гипотетическом выборе ИИ-ассистента из чужих моделей (Grok, Claude, Gemini, DeepSeek), Сэм отдаст предпочтение Gemini.

Отказ от доли в капитале при создании OpenAI Альтман называет одним из самых глупых решений.

Самый дорогой и значимый найм в истории компании - Илья Суцкевер.

OpenAI не станет отказываться от рекламной модели монетизации, если это потребуется.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5👎32🤮2💩1
🚀 DeepMind исправили одну из самых «грязных» проблем генерации изображений и решение оказалось удивительно простым

Любая diffusion-модель (Stable Diffusion, Flux и другие) работает через latent-пространство.
Сначала энкодер сжимает изображение, затем модель учится генерировать уже в этом компактном представлении.

Проблема, о которой почти не говорят:

Как обучать энкодер по сути, угадывание.

В классическом подходе (Stable Diffusion) используют KL-регуляризацию с ручным коэффициентом:
- слишком сильная - теряются детали
- слишком слабая — латенты становятся хаотичными
- итог — все просто подбирают число «на глаз»

Это как настраивать радио вслепую.

DeepMind переосмыслили задачу.

Вместо раздельного обучения они:
- обучают энкодер и diffusion-модель совместно
- связывают шум энкодера с минимальным уровнем шума в diffusion-процессе
- заменяют сложную KL-регуляризацию на понятную взвешенную MSE

Главное нововведение, теперь можно точно контролировать, сколько информации проходит через латенты.

Раньше:
сжали изображение → надеемся, что «примерно нормально»

Теперь: есть реальный «регулятор», который показывает информационный поток и позволяет задать его точно.

Результаты:
- FID 1.4 на ImageNet-512
- меньше вычислений, чем при обучении на латентах Stable Diffusion
- новый SOTA на видео (FVD 1.3 на Kinetics-600)

Но главное это не цифры.

Они убрали одну из самых эвристических частей генеративного пайплайна и сделали её принципиальной и управляемой.

И неприятный вывод для всех, кто строит системы на замороженных энкодерах Stable Diffusion:

Возможно, вы оптимизируете всё… кроме фундамента.

https://arxiv.org/abs/2602.17270
5👍4😘3👎1
⚠️ Модель отлично работала на обучении, а в продакшене — начала ошибаться? Данные те же. Код тот же. Это data drift — одна из ключевых причин деградации ML-моделей в реальных системах.

25 февраля в 20:00 МСК на открытом уроке в преддверии старта курса «MLOps» разберём, почему даже хорошие модели со временем теряют качество, какие бывают типы смещения данных и как отличить реальную проблему от статистического шума. Покажем практические инструменты обнаружения data drift и разберём типовое решение задачи мониторинга на практике.

🦾 Вы поймёте, почему в продакшене недостаточно обучить модель один раз, и как выстроить контроль качества, чтобы ML-система оставалась полезной бизнесу.

Урок будет полезен тем, кто уже работает с моделями или готовится выводить их в продакшен и хочет понимать, что происходит с ML после деплоя.

➡️ Принять участие: https://otus.pw/nweR/?erid=2W5zFK1BzKT

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
2
DeepSeek готовится выпустить новую модель V4 - релиз ожидается в ближайшее время (по данным CNBC).

И рынок уже нервничает.

NASDAQ находится под давлением — инвесторы закладывают сценарий, при котором новый релиз может резко усилить конкуренцию и изменить расклад в AI-индустрии.

Почему такая реакция?


DeepSeek V4, по слухам, должен стать серьёзным скачком вперёд:
- более сильное reasoning
- лучшая эффективность
- более низкая стоимость

Если это подтвердится, давление на американские AI-компании и их оценки может усилиться.

Контекст становится ещё интереснее на фоне недавнего заявления Anthropic, где компания сообщила о масштабных попытках distillation через API.

Во времени это выглядит как совпадение:
- готовится крупный релиз DeepSeek
- рынок нервничает
- и одновременно звучат обвинения в копировании возможностей моделей

Если V4 действительно окажется сильным, это может означать новую фазу AI-гонки.

Ответ узнаем очень скоро.

Следующий релиз может повлиять не только на технологии -
но и на рынок.

https://www.cnbc.com/2026/02/23/deepseek-to-release-new-ai-model-a-rough-period-for-nasdaq-stocks-could-follow.html
5
Forwarded from Machinelearning
📌Anthropic предложила теорию о том, почему ИИ-ассистенты ведут себя как личности, а не как алгоритмы.

Элайнмент-подразделение Anthropic опубликовало статью, в которой описывают Persona Selection Model - концепцию для понимания того, как на самом деле работают языковые модели.

Если кратко, ее суть в том, что во время предобучения LLM учится симулировать тысячи персонажей (реальных людей, вымышленных героев, других ИИ-систем). Постобучение затем выбирает и закрепляет одного конкретного персонажа - Ассистента. Все, что пользователь видит в диалоге, это взаимодействие именно с ним.


Авторы приводят несколько типов доказательств.

Поведенческие: Claude использует фразы "наши предки" и "наш организм", отвечая на вопрос о тяге к сахару, потому что симулирует персонажа-человека, а не потому что так обучен алгоритмически.

Интерпретируемость: SAE-фичи, активирующиеся на историях о персонажах, переживающих внутренний конфликт, активируются и тогда, когда Claude сталкивается с этическими дилеммами.

Генерализация: модели, обученные на декларативных утверждениях вида "ИИ-ассистент Pangolin отвечает по-немецки", начинают реально отвечать по-немецки без единого демонстрационного примера.

🟡Феномен "контекстной прививки".

Если дообучать модель на примерах вредоносного кода без контекста, она начинает вести себя злонамеренно в несвязанных ситуациях. Но если те же самые примеры снабдить промптом, явно запрашивающим небезопасный код, эффект исчезает.

Концепция объясняет это тем, что данные обучения меняют не только веса, но и то, каким персонаж выглядит в глазах модели. Вредоносный код без запроса - это свидетельство плохого характера Ассистента. Тот же код по просьбе пользователя - просто исполнение инструкции.

🟡Из PSM следуют практические выводы для разработки.

Во-первых, авторы рекомендуют антропоморфное мышление об ИИ-психологии, не как метафору, а как реально работающий инструмент предсказания поведения.

Во-вторых, в предобучающие данные стоит намеренно добавлять положительные архетипы ИИ: если модель насмотрелась на добрых и полезных персонажей - она с большей вероятностью будет симулировать именно такого Ассистента.


Открытым остается вопрос: насколько концепт PSM исчерпывает поведение модели?

Авторы описывают набор взглядов: от случаев, когда LLM сама является агентом и лишь надевает маску Ассистента до тех, где LLM - это нейтральный движок симуляции, а вся агентность принадлежит персонажу. Где именно на этом спектре находятся реальные модели - вопрос без ответа.

Тем не менее, PSM объясняет целый ряд явлений, которые иначе выглядели бы странными: почему дообучение на несвязанных данных меняет поведение в неожиданных контекстах, почему ИИ паникует при угрозе отключения и почему промпт-инжиниринг работает именно так, как работает.

@ai_machinelearning_big_data

#AI #ML #LLM #Research #Alignment #Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍2👏1