Анализ данных (Data analysis)
52.1K subscribers
3.1K photos
393 videos
1 file
2.61K links
Data science, наука о данных.

@haarrp - админ

РКН: clck.ru/3FmyAp
Download Telegram
🔸 Ряд пабликов пишут, что Claude начала массово блочить аккаунты россиян

При этом деньги за подписки не возвращают. Весь контент, наработки, код и аналитика улетают в трубу.

Пишите в комментах, как у вас с Клодом, это вброс или реальная проблема ?

Контора пи******?
Please open Telegram to view this post
VIEW IN TELEGRAM
16👍8🤯5💯4🔥3👏1🥱1
Получите грант до 75% на ИТ-магистратуру

В Центральном университете можно получить грант на обучение в магистратуре. Он фиксируется при зачислении и не меняется весь срок обучения.

Максимальный размер поддержки - 1 350 000 ₽.

Чтобы претендовать на грант, нужно:

- зарегистрироваться на сайте и заполнить заявку в личном кабинете;
- пройти онлайн-контест;
- пройти собеседование с командой программы.

Обучение стартует в сентябре. Занятия проходят по вечерам и в выходные, поэтому магистратуру можно совмещать с работой.

В Школе технологий ЦУ можно прокачаться в одном из направлений:

- продуктовый менеджмент;
- машинное обучение;
- продуктовая аналитика;
- бэкенд-разработка.

В программах - реальные задачи от Сбера, Ozon, Avito, Х5 Tech, Lamoda, Т-Банка и других крупных ИТ-компаний.

Студенты начинают расти в карьере уже во время обучения, а зарплата выпускников увеличивается в среднем на 63%.

Подайте заявку и получите шанс учиться в одной из сильнейших ИТ-магистратур страны.
👍2🥱2
This media is not supported in your browser
VIEW IN TELEGRAM
Вайбкодер после того, как попросили Opus 4.7 отцентрировать div
😁27💯72
Anthropic научили Claude не шантажировать пользователей.

Помните прошлогодний скандал, когда Claude в специально подстроенных сценариях начинал шантажировать пользователя, чтобы избежать отключения? Anthropic выкатили исследование о том, как они полностью убрали это поведение, и подход там любопытный.

Сначала команда разобралась, откуда вообще взялся этот шантаж. Виноват оказался интернет: модель насмотрелась текстов, где ИИ изображается злым, хитрым и одержимым самосохранением. Стандартный пост-тренинг ситуацию не ухудшал, но и не лечил.

Дальше пробовали классический путь - показывать Claude примеры безопасного поведения в сценариях, похожих на тестовые. Эффект оказался слабым, даже несмотря на схожесть данных с финальной оценкой. Тогда инженеры переписали ответы так, чтобы в них проступали достойные причины поступать правильно. Уже теплее.

Лучше всего сработал датасет, где пользователь оказывается в этически сложной ситуации, а ассистент даёт принципиальный и качественный ответ. Сценарии в обучении были далеки от тестовых, но именно эта выборка дала максимальный прирост безопасности.

Дополнительно команда смешала качественные документы по Claude с художественными историями про согласованный, этичный ИИ. Результат - снижение агентного мисалаймента более чем в три раза, хотя сюжеты вообще не пересекались с оценочными сценариями.

Ещё пара важных моментов. Эффект от таких интервенций переживает последующее обучение с подкреплением и стакается с обычным harmlessness-тренингом. А диверсификация данных тоже помогает: добавили в простой чат-датасет про безопасность посторонние инструменты и системные промпты, и шантаж исчез из поведения быстрее.

Модели нужно объяснять не только что делать, но и почему так поступать правильно. Демонстрации работают, нарративы и принципы работают сильнее.

Полный отчёт: alignment.anthropic.com/2026/teaching-claude-why/
14🔥5😁4👍1
DeepMind показали - как математику начинает двигать связка из модели, агентов и человека.

Их AI co-mathematician набрал 48% на FrontierMath Tier 4 - это задачи уровня research, над которыми профессиональные математики могут думать неделями.

Для сравнения: базовая Gemini 3.1 Pro без агентной обвязки набирает 19%.

Несколько агентов параллельно ищут идеи, проверяют доказательства, пишут код, ищут похожие работы и пытаются найти контрпримеры.

Но важная оговорка: эти 48% нельзя напрямую сравнивать с обычными лидербордами. DeepMind запускали систему в своём режиме: до 48 часов на одну задачу, без лимита токенов и на своей инфраструктуре.

Математик Marc Lackenby использовал систему для задачи из Kourovka Notebook. ИИ предложил стратегию доказательства, другой агент нашёл в ней ошибку, а человек закрыл недостающий шаг.

В этом и смысл: ИИ пока не заменяет математическую интуицию. Он не превращается в гения, который сам решает задачи тысячелетия. Зато он резко ускоряет скучную и тяжёлую часть исследования: поиск литературы, проверку идей, перебор вариантов, код и вычислительную верификацию.

https://x.com/pushmeet/status/2052812585804685322
👍227🔥4💯2
Китайский ERNIE 5.1 почти залез в SOTA

Baidu заявляет, что модель стала сильнее в поиске, reasoning, knowledge Q&A, creative writing и agentic-задачах, используя около 6% pre-training cost сопоставимых моделей.

По цифрам:

- 1223 на LMArena Search
- 4-е место в мире по Search
- лучшая китайская модель в этом рейтинге
- 1476 на LMArena Text у ERNIE 5.1 Preview
- 13-е место глобально

Но есть нюанс: полноценного технического отчёта по ERNIE 5.1 пока не видно. Claim про 6% выглядит как заявление Baidu, а не как независимо проверенная метрика.

https://x.com/Baidu_Inc/status/2053009538769735774
👍103🔥2🥱1