Машинное обучение RU
18.1K subscribers
1.64K photos
233 videos
11 files
2.09K links
Все о машинном обучении

админ - @workakkk

@data_analysis_ml - анализ даннных

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram -лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python 📚

@datascienceiot - 📚

РКН: clck.ru/3FmrUw
Download Telegram
😆 AI-проект с Миллой Йовович и крипто-фаундером оказался странной поделкой с подменой авторства

Вчера известная актриса выложила на GitHub свой опенсорс-инструмент для улучшения памяти ИИ-агентов - MemPalace, который она якобы создала с помощью ИИ . -

Mempalace пушали как «лучшую memory-layer для ИИ». В проекте фигурируют Бен, крипто-фаундер, и Решил проверить, что там под капотом.

Чем глубже смотришь, тем больше вопросов.

Бен на сайте рассказывает про AI-продукты и локальные модели. Но его GitHub почти полностью про биткоин и лендинг. Из AI там по сути один форкнутый проект.

Сам репозиторий выглядит так:
10K звёзд
1000+ форков
7 коммитов

Для серьёзной memory-системы это не выглядит правдоподобно.

Дальше интереснее.

Нет нормальной истории разработки. Аккаунт, который изначально запушил код, aya-thekeeper, удалён сразу после публикации.

Внутри файлов ttcnm подпись:
код и бенчмарки написал некий Lu (DTL), март 2026, «для Бена»

При этом:
в README его нет
в git-истории его нет

Историю репозитория затем схлопнули в один коммит и перезалили.

И уже после этого проект публикуется от имени Миллы Йовович.

По словам Бена, она участвует в разработке. По факту всего :
• 7 коммитов
• 2 дня активности за всё время

Картина складывается такая:

Сверху добавляется маркетинг и накрученные цифры.

Если коротко: проект с участием актрисы и крипто-фаундера больше похож на витрину, чем на реальную инженерную работу.

Если используете подобные решения, смотрите не на лендинг и звёзды, а на git-историю и реальных авторов кода.

Мила заскамила ) Видимо, Resident Evil закончился и начался Resident Git.

https://github.com/milla-jovovich/mempalace/issues/27
https://github.com/milla-jovovich/mempalace
https://x.com/AdvicebyAimar/status/2041559354034344438
Please open Telegram to view this post
VIEW IN TELEGRAM
6🔥3👍2
📊 Модель EchoJEPA для эхокардиографии 🚀

EchoJEPA — это мощная модель, обученная на 18 миллионах эхокардиограмм, которая эффективно выделяет анатомические структуры, игнорируя шумы. Она демонстрирует выдающиеся результаты в оценке сердечных функций, превосходя существующие методы на 20% в точности. Модель также показывает высокую эффективность при использовании всего 1% размеченных данных.

🚀 Основные моменты:
- Обучение на крупнейшем наборе данных эхокардиограмм.
- Превосходит конкурентов в оценке сердечной функции.
- Высокая эффективность с минимальным количеством размеченных данных.
- Устойчивость к физическим искажениям.
- Отличные результаты в нулевом режиме на детских пациентах.

📌 GitHub: https://github.com/bowang-lab/EchoJEPA

#python
😁102🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 5 главных AI coding агентов 2026 года: https://www.youtube.com/shorts/cvs93C4k-IQ

Сравнили всё: модели, контекст, цены, автономность
Claude Code, Codex, Cursor Agent, Gemini CLI, Deepagents. Пять инструментов, которые определяют, как пишется код прямо сейчас. Разложили по полочкам.

Claude Code работает на Sonnet/Opus, контекст 200K (1M на Max), закрытый код, $3/$15 за миллион токенов. Лучше всего для сложных мультифайловых задач.

Codex от OpenAI - терминал + облако, GPT 5.3/5.4 Codex, миллион токенов контекста, высокая автономность.

CLI открыт, облако нет. $1.50/$6. Заточен под асинхронные фоновые задачи.

Cursor Agent - единственный, кто встроен в IDE. Работает с несколькими моделями (Claude, GPT, Gemini), но автономность низкая, больше интерактивный. Закрытый код. ~$1.25/$6. Для повседневного кодинга.

Gemini CLI от Google - полностью open source (Apache 2.0), бесплатный (1K запросов в день), Gemini Flash/Pro, миллион токенов. Средняя автономность. Лучший бесплатный вариант.

Deepagents - MIT-лицензия, работает с любой LLM, SDK + CLI, конфигурируемая автономность. Бесплатен (платишь только за свою модель). Для кастомных пайплайнов.

Два опенсорсных, два закрытых, один гибрид. Выбор зависит от задачи, бюджета и того, насколько вы готовы отдать контроль агенту.

https://www.youtube.com/shorts/cvs93C4k-IQ
🔥43
7👍1🔥1😁1
ИИ подсадил нас на «гипсовые яйца»: почему алгоритмы работают как сверхстимулы Тинбергена

Почему птицы бросали собственные яйца ради гипсовых подделок?
В 1950-х годах голландский биолог Нико Тинберген обнаружил нечто тревожное: птицы бросали собственные яйца ради гипсовых подделок, если те были крупнее и ярче настоящих. Мать-кулик игнорировала своих птенцов и садилась высиживать раскрашенный муляж. Тинберген назвал это «сверхнормальными стимулами» и получил за свои исследования Нобелевскую премию. Прошло 70 лет, и мы сами стали теми птицами. Только вместо гипсовых яиц у нас - алгоритмические ленты, генеративные модели и рекомендательные системы.

Идея простая, но бьет точно: каждое уведомление, каждая курируемая лента, каждый отфильтрованный снимок - это реальность с выкрученной на максимум насыщенностью. Наша нервная система просто не рассчитана на такой уровень стимуляции. И мозговые центры вознаграждения реагируют на цифровые раздражители сильнее, чем на живой сенсорный опыт.

Рекомендательные алгоритмы - это, по сути, машины по производству сверхстимулов. Они обучены на метриках вовлеченности: кликах, времени просмотра, паттернах скроллинга. Их задача не показать тебе что-то полезное, а удержать внимание любой ценой. TikTok, YouTube Shorts, лента X - все это оптимизировано командами нейросайентистов и ML-инженеров, чтобы триггерить дофаминовый отклик сильнее, чем реальный мир.

С генеративными моделями ситуация еще интереснее. GPT, Claude, Midjourney - они генерируют контент, который по определению «ярче» среднего. Модель обучена на лучших текстах и изображениях человечества, и ее выход - это всегда чуть более отполированная, чуть более идеальная версия реальности. Когда ты привыкаешь читать тексты, написанные LLM, обычная человеческая речь начинает казаться корявой и скучной. Когда насматриваешься на картинки из Midjourney, реальные фотографии теряют свою привлекательность. Мы буквально строим генераторы сверхстимулов на промышленном уровне.

Тинберген описывал, как система распознавания паттернов у животных ломается при столкновении со сверхстимулом. У нас происходит то же самое, только масштаб другой. Наши предки развивали распознавание паттернов, наблюдая за облаками, читая следы животных, замечая сезонные изменения. Сейчас та же нейронная механика работает на мемы, тренды и алгоритмические рекомендации. Та самая система, которая когда-то помогала ориентироваться в реальности, теперь помогает ориентироваться в фидах.

Есть и практическая сторона. Когда ты ешь, уставившись в экран, мозг учится связывать питание с пассивным потреблением, а не с осознанным опытом. Когда гуляешь с подкастом в ушах, пространственная навигация начинает опираться на чужие мысли вместо собственных наблюдений. Это не метафора - это нейропластичность в действии. Мы в буквальном смысле переучиваем собственные нейронные контуры.

Когда исследователи убирали гипсовые яйца, птицы тут же возвращались к настоящим. Инстинкт никуда не делся, просто был перегружен искусственным сигналом. Физический мир по-прежнему здесь. Потрогай что-нибудь с текстурой. Поешь без экрана перед глазами. Пройдись без наушников. Твоя настоящая жизнь ждет под тем гипсовым яйцом, на котором ты сидишь.
👍1510👎4👏2😁2🥰1
⚡️ 8 хуков Claude Code, которые автоматизируют то, что вы вечно забываете

Вы говорите Claude Code отформатировать файл, а он этого не делает. Просите не трогать .env, а он лезет туда первым делом. Напоминаете прогнать тесты перед завершением, а он забывает.

Знакомо?

Все потому, что CLAUDE.md по сути является рекомендацией. Claude читает его и следует ему примерно в 80% случаев. Хуки работают иначе.

Это автоматические действия, которые срабатывают каждый раз, когда Claude редактирует файл, выполняет команду или завершает задачу.
Ниже разберем 8 готовых хуков, которые можно скопировать прямо в settings.json и больше о них не вспоминать.

https://uproger.com/8-hukov-claude-code-kotorye-avtomatiziruyut-to-chto-vy-vechno-zabyvaete/
4👍3🔥1
🚀 OpenAI выкатили набор бесплатных скиллов для Codex — можно сильно разгрузить разработку

Теперь часть задач можно просто отдать агенту: от генерации презентаций до полноценной разработки приложений.

- Внутри уже готовы рабочие воркфлоу:
- агент умеет собирать презентации
- помогает с iOS и macOS разработкой
- интегрируется с Figma и работает с дизайном
и это только базовый набор

Устанавливается всё в один клик — без долгой настройки и шаманства.

Фактически это превращает Codex из “помощника” в полноценный инструмент, который закрывает куски реальной работы.

https://developers.openai.com/codex/use-cases
👍7
⚡️ Вышло большое обновление популярного курса- Ai AI агенты, которые реально работают в проде!

Вы всё ещё пишете обёртки над ChatGPT и называете это «AI-продуктом»?

Пока вы промптите - рынок переходит на агентные системы. Те, что принимают решения, ходят в API, работают с Postgres и Redis, управляют браузером через Playwright.

И 90% таких систем ломаются между ноутбуком и продом.

AI Agents Engineering - курс, который закрывает этот разрыв. LangGraph, AutoGen, Computer Use, LLMOps. 8 модулей, 120+ шагов - от архитектуры до деплоя в Docker.

На выходе: реальный опыт на большой практической базе, а production-агент и навыки, за которые уже платят.

👉 48 часов действует скидка на курс 55 процентов: https://stepik.org/a/276971/
2👍2👎1🔥1
🧠 OpenClaw Medical Skills: Библиотека ИИ для медицины

OpenClaw Medical Skills — это обширная коллекция из 869 навыков для ИИ, охватывающая биомедицинские и клинические исследования. Эти модули преобразуют универсальных ИИ-агентов в мощных помощников для медицинских и научных задач, обеспечивая доступ к реальным базам данных и инструментам.

🚀 Основные моменты:
- 869 специализированных навыков для медицинских исследований
- Поддержка биоинформатики, геномики и клинической документации
- Интеграция с реальными API и базами данных
- Открытый код и сообщество для совместного использования ресурсов

📌 GitHub: https://github.com/FreedomIntelligence/OpenClaw-Medical-Skills

#python
7👍1🔥1
🔥 Инженер из Google автоматизировал 80% работы с помощью Claude Code

Разработчик из Google с 11-летним стажем собрал систему, которая взяла на себя 80% его рутинных задач. В основе - Claude Code и три компонента, каждый из которых закрывает конкретную боль. Разбираемся, как это устроено и почему вам стоит попробовать уже сегодня.

CLAUDE.md по правилам Карпати: как один файл снижает ошибки с 40% до 3%
Андрей Карпати - один из самых влиятельных AI-исследователей в мире - задокументировал типовые ошибки, которые допускают LLM при работе с кодом. Кто-то взял эти наблюдения и превратил их в один-единственный файл CLAUDE.md на 15 000 слов. Идея простая: если ошибки предсказуемы, их можно предотвратить правильными инструкциями.

Внутри четыре принципа: Simplicity First (не усложняй), Surgical Changes (меняй точечно), Think Before Coding (сначала подумай, потом пиши), Goal-Driven Execution (работай на результат). Никаких фреймворков и сложного тулинга - один файл, который меняет поведение Claude на уровне проекта. Без CLAUDE.md Claude нарушает конвенции примерно в 40% случаев. С ним - нарушения падают до 3%. Настройка занимает 5 минут.

На GitHub появился репозиторий everything-claude-code (github.com/affaan-m/everything-claude-code), который набрал уже более 153 000 звезд. Это не просто коллекция промптов, а полноценная операционная система для разработки продуктов с помощью AI. Внутри: planner.md для планирования фич, architect.md для принятия системных решений, tdd-guide.md для тестирования, более 30 специализированных агентов, свыше 180 скиллов и встроенный AgentShield с 1282 тестами безопасности.

Работает на Claude, Codex, Cursor, OpenCode, Gemini - одна система везде. Можно установить через plugin marketplace или вручную скопировать нужные компоненты в .claude/ вашего проекта. Только не грузите все сразу - берите то, что реально нужно.

Кто-то настроил HTTP-прокси и перехватил полные API-запросы четырех разных версий Claude Code. Выяснилось занятное: версия v2.1.100 отправляет меньше байт, но списывает на 20 000 токенов больше, чем v2.1.98. Инфляция происходит целиком на стороне сервера - вы ее не видите в клиенте.

Почему это важно не только для кошелька: эти 20 000 токенов попадают в реальное контекстное окно Claude. Ваши инструкции из CLAUDE.md разбавляются скрытым контентом, качество ответов падает, а вы даже не понимаете почему. Временное решение - откатиться на v2.1.98 командой npx claude-code@2.1.98. Фикс занимает 30 секунд.

Кейс: как выглядит полная автоматизация на практике
Тот самый инженер собрал трехступенчатый пайплайн. Dotnet-приложение обращается к GitLab API каждые 15 минут. Claude читает задачу и решает, готова ли она к работе. Если да - пишет код, прогоняет тесты, открывает merge request. Результат через неделю: вместо 8 часов кодинга в день - 2-3 часа на ревью и тестирование. Качество кода при этом не упало, потому что он проверяет каждый коммит.

Никакой магии: CLAUDE.md + правильные агенты + 15-минутный цикл. Это не требует гениальности или опыта из FAANG. Нужно просто потратить один вечер на настройку и перестать спорить, заменит ли AI разработчиков, и начать использовать его как инструмент.

Ссылки:

Репозиторий Everything Claude Code: https://github.com/affaan-m/everything-claude-code
7🔥4👍1
✔️ Т-Банк использует ML-модели в своей рекламной платформе.

По словам Василия Разумных, CTO «Т-Рекламы», рекламная платформа Т-Банка изначально строится вокруг ML. Модели используются не только для предсказания кликабельности, а для всего целиком: от формирования аудитории до генерации креатива в реальном времени. Вместо статичного баннера система динамически собирает офер — комбинирует условия партнера, продукты экосистемы, персональные скидки прямо в момент запроса.

От ручного управления ставками отказались, потому что поведение пользователей и контекст меняются слишком быстро. Автоматизация на данных повысила эффективность, снизила нагрузку на менеджеров и число ошибок. В аукционе ставка перестала быть единственным фактором победы — добавилась многокритериальная оптимизация с прогнозом вовлеченности и качеством креатива.

Главные инженерные сложности были не в самих моделях, а в низкой задержке при обработке данных и сохранении их актуальности. Пришлось объединять разрозненные источники из разных вертикалей экосистемы (финансовые сервисы, Шопинг, Путешествия) в единое хранилище и feature store, соблюдая приватность. Отдельная задача — холодный старт новых кампаний: для этого сделали механизмы быстрого сбора статистики и предварительных оценок.

Принятие решения о показе выглядит так. На запрос рекламодателя система формирует пул кандидатов, ранжирует их скоринговой моделью, которая учитывает экономику, вероятность целевого действия, качество креатива и репутацию рекламодателя. Вес факторов адаптируется под контекст и конкуренцию. Побеждает не самое дорогое объявление, а то, которое лучше всего подходит пользователю в текущий момент.

От классической ручной сегментации постепенно отходят в сторону динамического формирования аудиторий на основе ML-таргетинга. Система сама находит пользователей, склонных к целевому действию, исходя из заданных целей кампании. При этом ручные уточнения сохраняются для брендовых стратегий. Развиваются look-alike и другие инструменты расширения аудиторий.

Что меняется в запросах рекламодателей? Растет спрос на перформанс и измеримые действия, а не просто на охваты. Сохраняется запрос на брендинг, но в форме брендформанса. Увеличивается интерес к автоматизированным стратегиям закупки и self-service-инструментам, чтобы запускать кампании быстрее и без ручной оптимизации. Бюджеты смещаются в ретейл-медиа и внутренние площадки экосистем, где есть близость к покупке и прозрачная атрибуция.

📌AdIndex: https://adindex.ru/publication/interviews/agency/2026/04/13/344156.phtml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1312🥰1😁1
Невероятное открытие: Математики тихо провернули безумную вещь: нашли «универсальную операцию» для всей математики
Польский физик показал, что любую функцию вообще можно собрать из одного примитива. Да, буквально всё: exp, π, i, sin, cos, сложение, умножение и дальше по списку. Раньше нужно было много разных операций, а теперь теоретически всё можно выразить через одну формулу.

Если знаком с NAND, ты уже понял вайб. В булевой логике это одна операция, через которую выражается вообще всё. Из-за этого реальные процессоры по сути собираются из NAND-гейтов.

Так вот здесь сделали то же самое, только для непрерывной математики.

Вместо кучи операций вводится одна:

eml(x, y) = e^x - ln(y)

И дальше начинается магия. Любую функцию можно развернуть в композицию таких выражений. Иногда это выглядит как монстр из вложенных вызовов, но формально всё сводится к одному строительному блоку.

Например, даже логарифм можно собрать через такие вложенности. Для более сложных вещей выражения становятся длинными, но они существуют и это доказано.

И вот тут начинается самое интересное.

Обычно symbolic regression это ад. Нужно перебирать формулы из кучи операций: плюс, умножение, синусы, логарифмы. Огромное дискретное пространство, почти не оптимизируется.

С EML всё упрощается. У тебя один тип узла. Всё пространство формул становится однородным деревом.

А значит можно делать то, что раньше было болью: оптимизировать формулы градиентами, как нейросети.

То есть модель не просто фитит данные. Она может реально схлопнуться в точную формулу.

Если это масштабируется, это прям мост между ML и классической наукой. Не просто предсказания, а извлечение законов из данных.

www.alphaxiv.org/abs/2603.21852v2
9👍8🔥4
Трансформация профессии разработчика в эпоху ИИ

Профессия разработчика меняется прямо сейчас: ИИ уже пишет код, предлагает архитектуру и собирает прототипы за минуты. Но без фундаментальных знаний архитектуры, алгоритмов, сетей, безопасности и DevOps использовать такие инструменты рискованно.
Центральный университет запускает серию бесплатных вебинаров о том, как меняется роль разработчика в 2026 году, какие навыки остаются критически важными и как безопасно и эффективно использовать нейросети в разработке.

На вебинарах разберем:
— почему ИИ не заменит программиста, но изменит его роль;
— какие навыки и языки будут востребованы;
— чего ждут работодатели от разработчиков сегодня;
— почему магистратура по бэкенд-разработке может стать преимуществом;
— как вырасти в техлида и тимлида, не теряя технических экспертных знаний.

Спикеры — лидеры индустрии из Центрального университета, Авито и cloud. ru.
Даты вебинаров: 21, 23 и 27 апреля 2026, 19:00 мск.

Регистрируйся по ссылке
1👍1🔥1
GitHub stars больше не показатель. Их просто покупают

Исследование показало: около 6 миллионов звёзд, поставленных недавно на GitHub могут быть накрученными. Это 18 617 репозиториев и 300 000+ аккаунтов.

Рынок уже сформировался:
• звезда стоит от $0.03 до $0.85
• продаётся через фриланс-платформы, вроде Fiverr и через Telegram
• накрутка делается пачками под запуск или «рост» проекта

Проблема в том, что инвесторы и алгоритмы до сих пор смотрят на звёзды как на сигнал качества и популярности.

Реальный показатель сейчас - разрыв между метриками:

• если звёзд много, а форков и watchers почти нет
• если никто не копирует код и не следит за обновлениями
• если нет активности в issues и PR

https://awesomeagents.ai/news/github-fake-stars-investigation/
👍85🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Ты до сих пор пишешь промпты как «сделай пост про AI» и удивляешься, что получается мусор?

Проблема не в модели. Проблема в том, что ты сразу просишь результат, минуя самый важный этап — выравнивание контекста.

Продвинутый хак: перестань писать промпты как команды. Начни писать их как процесс.

90% людей делают так:
«Напиши пост для LinkedIn про AI»

1% делают так:
«НЕ начинай писать. Сначала задай вопросы, чтобы понять аудиторию, цель, стиль и уровень глубины»

И это полностью меняет качество ответа.

Почему это работает

LLM не читает твои мысли. Она достраивает недостающий контекст сама.
И почти всегда делает это неправильно.

Когда ты заставляешь модель сначала задавать вопросы:
- она сама собирает контекст
- снижает вероятность галлюцинаций
- подстраивается под задачу до генерации

Фактически ты превращаешь её из генератора текста в аналитика перед генерацией.

Но есть уровень выше.

Топовый промпт выглядит так:

«Хочу написать пост для LinkedIn про AI инструменты, которые использую каждый день.
Не начинай писать.
Сначала задай уточняющие вопросы.
После этого предложи структуру поста.
Согласуй её со мной.
И только потом напиши финальный текст»

Ты разбиваешь задачу на этапы:
контекст → структура → результат

Это и есть настоящая работа с моделями.

Самое интересное

Такой подход:
- уменьшает количество итераций в 2-3 раза
- дает текст, который реально можно публиковать
- экономит токены, потому что нет переписываний

Вывод простой

Плохой промпт просит ответ.
Хороший промпт управляет процессом мышления модели.

Именно это и есть разница между новичком и тем, кто реально выжимает из LLM максимум.
1