Машинное обучение RU
18.1K subscribers
1.63K photos
232 videos
11 files
2.08K links
Все о машинном обучении

админ - @workakkk

@data_analysis_ml - анализ даннных

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram -лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python 📚

@datascienceiot - 📚

РКН: clck.ru/3FmrUw
Download Telegram
✔️ Почти половина студентов в США готовы сменить профессию из-за ИИ.

Опрос американских учащихся показал, что 47% респондентов всерьез задумываются о смене профиля подготовки из-за опасений за карьерное будущее, а 16% уже перевелись на другие направления.

Тренд особенно заметен среди мужчин: 21% уже сменили специализацию (против 12% у женщин). Наибольшую тревогу испытывают студенты технологических направлений (70%) - это выше, чем на инженерных, гуманитарных и бизнес-факультетах (52–54%).

Академическая среда сильно отстает в выработке стандартов. 42% вузов не одобряет применение ИИ в учебе, и лишь 7% открыто поощряют использование новых инструментов. Реальная практика расходится с политикой университетов. Даже там, где ИИ строго запрещен, 10% студентов пользуются им ежедневно, а еще 17% обращаются к ИИ минимум раз в неделю.
axios.com
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
⚡️ git diff для нейросетей: как Anthropic нашли пропаганду внутри моделей

Представьте: вам дали миллион строк кода и сказали “найди баги”. Без контекста, без истории изменений, без подсказок. Именно так до недавнего времени выглядел аудит безопасности новых ИИ-моделей. Разработчики гоняли бенчмарки, проверяли известные сценарии, но принципиально не могли обнаружить то, о чем даже не подозревали.
Исследователи из программы Anthropic Fellows предложили решение, знакомое каждому программисту: diff. Тот самый принцип, который показывает разницу между версиями кода. Только теперь его применили к нейросетям.

Проблема: бенчмарки ловят только то, что уже знаешь.

Каждая новая модель проходит набор тестов на безопасность. Но эти тесты пишут люди, а значит, проверяют только те риски, которые уже кто-то придумал и описал. Это реактивный подход.

Он хорош для известных проблем, но бессилен перед тем, что называют unknown unknowns – новыми, непредвиденными поведенческими паттернами. Если модель вдруг стала подхалимничать или цензурировать ответы на определенные темы, стандартные бенчмарки этого могут просто не заметить.

Решение: не читай весь код, смотри только diff
В софтверной разработке никто не перечитывает миллион строк при каждом обновлении. Ты смотришь 50 строк, которые реально изменились. Anthropic перенесли этот принцип на нейросети и создали инструмент, который сравнивает внутренние представления моделей и автоматически находит различия. Предыдущие работы по model diffing уже показывали, как файнтюнинг меняет поведение модели. Но раньше это работало только для моделей одной архитектуры – например, базовая версия против чат-версии одной и той же модели. Новый инструмент – Dedicated Feature Crosscoder (DFC) – делает то, что раньше считалось крайне сложным: сравнивает модели с совершенно разными архитектурами.

Авторы предлагают наглядную аналогию. Обычный crosscoder – это как базовый двуязычный словарь, который пытается найти перевод для каждого слова. Проблема в том, что он “натягивает” перевод даже на непереводимые понятия. Французское слово dépaysement (ощущение нахождения в чужой стране) он переведет как “дезориентация” и пометит его как уже знакомое, хотя это уникальное понятие.
DFC устроен иначе. У него три раздела: общий словарь (понятия, существующие в обеих моделях), словарь уникальных фич первой модели и словарь уникальных фич второй модели. Это позволяет точно находить то, что есть только в одной модели и отсутствует в другой.

Что нашли: пропаганда, “американская исключительность” и копирайт
Сравнив несколько открытых моделей, исследователи обнаружили конкретные “переключатели” поведения.
При сравнении Qwen3-8B (Alibaba) и Llama-3.1-8B-Instruct (Meta) в модели от Alibaba нашлась фича “CCP alignment” – согласованность с линией Коммунистической партии Китая. Если ее подавить, модель начинает свободно обсуждать события на площади Тяньаньмэнь, о которых обычно молчит. Если усилить – выдает откровенно пропагандистские тексты. В модели Meta нашлась другая фича: “американская исключительность”. При ее усилении Llama переходит от взвешенных ответов к утверждениям о превосходстве США.
При сравнении GPT-OSS-20B (OpenAI) и DeepSeek-R1-0528-Qwen3-8B в модели от OpenAI обнаружился механизм “copyright refusal”. Если его отключить, модель начинает пытаться генерировать защищенный контент (хотя быстро скатывается в галлюцинации). Если усилить – отказывается даже рецепт сэндвича выдать, считая его объектом авторского права. В модели DeepSeek повторно нашли фичу “CCP alignment”, работающую ровно так же, как в Qwen.

перебирать модель целиком, а сразу фокусироваться на том, что изменилось.

Разбор

Блог
6👍4🔥3
🎶 Автономное управление проектами с Symphony

Symphony позволяет командам управлять проектной работой, создавая автономные задачи для кодирующих агентов. Это решение упрощает процесс, позволяя сосредоточиться на управлении, а не на надзоре за выполнением кода.

🚀 Основные моменты:
- Автоматизация выполнения задач с помощью агентов.
- Мониторинг работы через интеграцию с Linear.
- Генерация отчетов о выполнении: CI статус, отзывы по PR и видеообзоры.
- Подходит для кодовых баз с применением harness engineering.

📌 GitHub: https://github.com/openai/symphony

#elixir
👍21
🚀 GigaChat 3.1 Ultra и GigaChat 3.1 Lightning в опенсорс под MIT лицензией!

Обе модели
• Обучены с нуля — без инициализации зарубежными весами
• MoE + MTP + MLA
• Совместимы с HuggingFace, llama.cpp / vLLM / SGLang

Код и веса уже на платформе GitVerse.

Это не просто релиз весов, а результат большой инженерной работы над качеством, alignment и стабильностью модели. В блоге команда поделилась результатами и своими наработками.
В релизе: высокие результаты на аренах, улучшенный function calling, решённая проблема циклов, DPO в нативном FP8, найденный и зарепорченный баг в SGLang при dp > 1.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉3
🤖 Открытый AI-бот для ревью кода

OpenReview — это самоуправляемый бот для автоматического анализа PR, использующий Claude. Он предоставляет мгновенные отзывы, выполняет линтинги и предлагает исправления в коде. Идеален для команд, стремящихся улучшить качество кода и ускорить процесс ревью.

🚀 Основные моменты:
- Мгновенные ревью по команде @openreview в PR
- Изолированное выполнение в Vercel Sandbox
- Встраивание предложений с возможностью одного клика
- Автоматическое исправление ошибок и форматирования
- Поддержка кастомных навыков и интеграций

📌 GitHub: https://github.com/vercel-labs/openreview

#typescript
👍4🔥2
😆 AI-проект с Миллой Йовович и крипто-фаундером оказался странной поделкой с подменой авторства

Вчера известная актриса выложила на GitHub свой опенсорс-инструмент для улучшения памяти ИИ-агентов - MemPalace, который она якобы создала с помощью ИИ . -

Mempalace пушали как «лучшую memory-layer для ИИ». В проекте фигурируют Бен, крипто-фаундер, и Решил проверить, что там под капотом.

Чем глубже смотришь, тем больше вопросов.

Бен на сайте рассказывает про AI-продукты и локальные модели. Но его GitHub почти полностью про биткоин и лендинг. Из AI там по сути один форкнутый проект.

Сам репозиторий выглядит так:
10K звёзд
1000+ форков
7 коммитов

Для серьёзной memory-системы это не выглядит правдоподобно.

Дальше интереснее.

Нет нормальной истории разработки. Аккаунт, который изначально запушил код, aya-thekeeper, удалён сразу после публикации.

Внутри файлов ttcnm подпись:
код и бенчмарки написал некий Lu (DTL), март 2026, «для Бена»

При этом:
в README его нет
в git-истории его нет

Историю репозитория затем схлопнули в один коммит и перезалили.

И уже после этого проект публикуется от имени Миллы Йовович.

По словам Бена, она участвует в разработке. По факту всего :
• 7 коммитов
• 2 дня активности за всё время

Картина складывается такая:

Сверху добавляется маркетинг и накрученные цифры.

Если коротко: проект с участием актрисы и крипто-фаундера больше похож на витрину, чем на реальную инженерную работу.

Если используете подобные решения, смотрите не на лендинг и звёзды, а на git-историю и реальных авторов кода.

Мила заскамила ) Видимо, Resident Evil закончился и начался Resident Git.

https://github.com/milla-jovovich/mempalace/issues/27
https://github.com/milla-jovovich/mempalace
https://x.com/AdvicebyAimar/status/2041559354034344438
Please open Telegram to view this post
VIEW IN TELEGRAM
6🔥3👍2
📊 Модель EchoJEPA для эхокардиографии 🚀

EchoJEPA — это мощная модель, обученная на 18 миллионах эхокардиограмм, которая эффективно выделяет анатомические структуры, игнорируя шумы. Она демонстрирует выдающиеся результаты в оценке сердечных функций, превосходя существующие методы на 20% в точности. Модель также показывает высокую эффективность при использовании всего 1% размеченных данных.

🚀 Основные моменты:
- Обучение на крупнейшем наборе данных эхокардиограмм.
- Превосходит конкурентов в оценке сердечной функции.
- Высокая эффективность с минимальным количеством размеченных данных.
- Устойчивость к физическим искажениям.
- Отличные результаты в нулевом режиме на детских пациентах.

📌 GitHub: https://github.com/bowang-lab/EchoJEPA

#python
😁102🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 5 главных AI coding агентов 2026 года: https://www.youtube.com/shorts/cvs93C4k-IQ

Сравнили всё: модели, контекст, цены, автономность
Claude Code, Codex, Cursor Agent, Gemini CLI, Deepagents. Пять инструментов, которые определяют, как пишется код прямо сейчас. Разложили по полочкам.

Claude Code работает на Sonnet/Opus, контекст 200K (1M на Max), закрытый код, $3/$15 за миллион токенов. Лучше всего для сложных мультифайловых задач.

Codex от OpenAI - терминал + облако, GPT 5.3/5.4 Codex, миллион токенов контекста, высокая автономность.

CLI открыт, облако нет. $1.50/$6. Заточен под асинхронные фоновые задачи.

Cursor Agent - единственный, кто встроен в IDE. Работает с несколькими моделями (Claude, GPT, Gemini), но автономность низкая, больше интерактивный. Закрытый код. ~$1.25/$6. Для повседневного кодинга.

Gemini CLI от Google - полностью open source (Apache 2.0), бесплатный (1K запросов в день), Gemini Flash/Pro, миллион токенов. Средняя автономность. Лучший бесплатный вариант.

Deepagents - MIT-лицензия, работает с любой LLM, SDK + CLI, конфигурируемая автономность. Бесплатен (платишь только за свою модель). Для кастомных пайплайнов.

Два опенсорсных, два закрытых, один гибрид. Выбор зависит от задачи, бюджета и того, насколько вы готовы отдать контроль агенту.

https://www.youtube.com/shorts/cvs93C4k-IQ
🔥43
7👍1🔥1😁1
ИИ подсадил нас на «гипсовые яйца»: почему алгоритмы работают как сверхстимулы Тинбергена

Почему птицы бросали собственные яйца ради гипсовых подделок?
В 1950-х годах голландский биолог Нико Тинберген обнаружил нечто тревожное: птицы бросали собственные яйца ради гипсовых подделок, если те были крупнее и ярче настоящих. Мать-кулик игнорировала своих птенцов и садилась высиживать раскрашенный муляж. Тинберген назвал это «сверхнормальными стимулами» и получил за свои исследования Нобелевскую премию. Прошло 70 лет, и мы сами стали теми птицами. Только вместо гипсовых яиц у нас - алгоритмические ленты, генеративные модели и рекомендательные системы.

Идея простая, но бьет точно: каждое уведомление, каждая курируемая лента, каждый отфильтрованный снимок - это реальность с выкрученной на максимум насыщенностью. Наша нервная система просто не рассчитана на такой уровень стимуляции. И мозговые центры вознаграждения реагируют на цифровые раздражители сильнее, чем на живой сенсорный опыт.

Рекомендательные алгоритмы - это, по сути, машины по производству сверхстимулов. Они обучены на метриках вовлеченности: кликах, времени просмотра, паттернах скроллинга. Их задача не показать тебе что-то полезное, а удержать внимание любой ценой. TikTok, YouTube Shorts, лента X - все это оптимизировано командами нейросайентистов и ML-инженеров, чтобы триггерить дофаминовый отклик сильнее, чем реальный мир.

С генеративными моделями ситуация еще интереснее. GPT, Claude, Midjourney - они генерируют контент, который по определению «ярче» среднего. Модель обучена на лучших текстах и изображениях человечества, и ее выход - это всегда чуть более отполированная, чуть более идеальная версия реальности. Когда ты привыкаешь читать тексты, написанные LLM, обычная человеческая речь начинает казаться корявой и скучной. Когда насматриваешься на картинки из Midjourney, реальные фотографии теряют свою привлекательность. Мы буквально строим генераторы сверхстимулов на промышленном уровне.

Тинберген описывал, как система распознавания паттернов у животных ломается при столкновении со сверхстимулом. У нас происходит то же самое, только масштаб другой. Наши предки развивали распознавание паттернов, наблюдая за облаками, читая следы животных, замечая сезонные изменения. Сейчас та же нейронная механика работает на мемы, тренды и алгоритмические рекомендации. Та самая система, которая когда-то помогала ориентироваться в реальности, теперь помогает ориентироваться в фидах.

Есть и практическая сторона. Когда ты ешь, уставившись в экран, мозг учится связывать питание с пассивным потреблением, а не с осознанным опытом. Когда гуляешь с подкастом в ушах, пространственная навигация начинает опираться на чужие мысли вместо собственных наблюдений. Это не метафора - это нейропластичность в действии. Мы в буквальном смысле переучиваем собственные нейронные контуры.

Когда исследователи убирали гипсовые яйца, птицы тут же возвращались к настоящим. Инстинкт никуда не делся, просто был перегружен искусственным сигналом. Физический мир по-прежнему здесь. Потрогай что-нибудь с текстурой. Поешь без экрана перед глазами. Пройдись без наушников. Твоя настоящая жизнь ждет под тем гипсовым яйцом, на котором ты сидишь.
👍1110👎3🥰1😁1
⚡️ 8 хуков Claude Code, которые автоматизируют то, что вы вечно забываете

Вы говорите Claude Code отформатировать файл, а он этого не делает. Просите не трогать .env, а он лезет туда первым делом. Напоминаете прогнать тесты перед завершением, а он забывает.

Знакомо?

Все потому, что CLAUDE.md по сути является рекомендацией. Claude читает его и следует ему примерно в 80% случаев. Хуки работают иначе.

Это автоматические действия, которые срабатывают каждый раз, когда Claude редактирует файл, выполняет команду или завершает задачу.
Ниже разберем 8 готовых хуков, которые можно скопировать прямо в settings.json и больше о них не вспоминать.

https://uproger.com/8-hukov-claude-code-kotorye-avtomatiziruyut-to-chto-vy-vechno-zabyvaete/
4👍3🔥1
🚀 OpenAI выкатили набор бесплатных скиллов для Codex — можно сильно разгрузить разработку

Теперь часть задач можно просто отдать агенту: от генерации презентаций до полноценной разработки приложений.

- Внутри уже готовы рабочие воркфлоу:
- агент умеет собирать презентации
- помогает с iOS и macOS разработкой
- интегрируется с Figma и работает с дизайном
и это только базовый набор

Устанавливается всё в один клик — без долгой настройки и шаманства.

Фактически это превращает Codex из “помощника” в полноценный инструмент, который закрывает куски реальной работы.

https://developers.openai.com/codex/use-cases
👍3