DeepSeek снова выкатили бомбу.. 🤯
Уже 10 лет residual connection (x + f(x)) это страховка для любого трансформера. GPT-4, Claude, Gemini, все на этом сидят.
А DeepSeek заменили это на “manifold-constrained hyper-connections” (mHC).
Они превратили residual-шоссе в n параллельных полос и добавили математическую “клетку”, чтобы держать сигнал стабильным.
👉 @DataSciencegx
Уже 10 лет residual connection (x + f(x)) это страховка для любого трансформера. GPT-4, Claude, Gemini, все на этом сидят.
А DeepSeek заменили это на “manifold-constrained hyper-connections” (mHC).
Они превратили residual-шоссе в n параллельных полос и добавили математическую “клетку”, чтобы держать сигнал стабильным.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7
This media is not supported in your browser
VIEW IN TELEGRAM
Reasoning-модели генерируют очень длинные цепочки рассуждений, поэтому даже небольшие ошибки квантования со временем накапливаются.
С AWQ у Qwen3-4B результат на MMLU-Pro падает с 71.0 до 68.2 (примерно 4% относительной просадки).😬
ParoQuant это исправляет! Он сохраняет только критичные пары вращений и объединяет все в один kernel.
Возвращает большую часть потерянной точности в задачах на рассуждение при минимальном overhead, так что 4-битные модели остаются сильными в reasoning-задачах.💪
Принято на ICLR 2026
Блог: https://paroquant.z-lab.ai
Статья: https://arxiv.org/abs/2511.10645
👉 @DataSciencegx
С AWQ у Qwen3-4B результат на MMLU-Pro падает с 71.0 до 68.2 (примерно 4% относительной просадки).
ParoQuant это исправляет! Он сохраняет только критичные пары вращений и объединяет все в один kernel.
Возвращает большую часть потерянной точности в задачах на рассуждение при минимальном overhead, так что 4-битные модели остаются сильными в reasoning-задачах.
Принято на ICLR 2026
Блог: https://paroquant.z-lab.ai
Статья: https://arxiv.org/abs/2511.10645
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4
Hugging Face выкатили плагин, который превращает Claude Code, Gemini и Cursor в полноценных ML-инженеров.
Называется HF Skills, и он полностью бесплатный.
Одна команда, и твой AI-агент сможет:
→ Дообучать LLM через SFT, DPO или GRPO, с встроенным выбором железа и оценкой стоимости
→ Создавать и трансформировать датасеты через SQL-запросы
→ Автоматически подтягивать актуальные benchmark-оценки из Artificial Analysis API
→ Публиковать вашу arXiv-статью в HF Hub и за один проход связывать ее с вашей моделью
→ Мониторить training runs в реальном времени через дашборды, синхронизированные с HF Spaces
👉 @DataSciencegx
Называется HF Skills, и он полностью бесплатный.
Одна команда, и твой AI-агент сможет:
→ Дообучать LLM через SFT, DPO или GRPO, с встроенным выбором железа и оценкой стоимости
→ Создавать и трансформировать датасеты через SQL-запросы
→ Автоматически подтягивать актуальные benchmark-оценки из Artificial Analysis API
→ Публиковать вашу arXiv-статью в HF Hub и за один проход связывать ее с вашей моделью
→ Мониторить training runs в реальном времени через дашборды, синхронизированные с HF Spaces
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5❤3👍2
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12❤4
OpenClaw только что получил нечестное преимущество перед любым другим AI-агентом в интернете.
Называется Scrapling, и он скрапит незаметно, работает с адаптивными сайтами и не ломается, когда у них обновляется структура.
Никакого bot detection. Никакой возни с поддержкой селекторов. Никаких кошмаров с Cloudflare.
OpenClaw говорит Scrapling, что именно нужно извлечь.
Scrapling берет на себя stealth. Чистые данные попадают в вашего агента за секунды.
→ в 774 раза быстрее, чем BeautifulSoup с Lxml
→ автоматически обходит ВСЕ типы Cloudflare Turnstile
→
Работает везде:
→ HTTP + browser automation
→ CSS, XPath, text, regex-селекторы
→ async-сессии для параллельного скрапинга
→ CLI без единой строчки кода
Если вы собираете AI-агентов, которым нужны реальные данные из веба, это тот самый scraping backbone, которого OpenClaw не хватало.
100% open source. Лицензия BSD-3.
👉 @DataSciencegx
Называется Scrapling, и он скрапит незаметно, работает с адаптивными сайтами и не ломается, когда у них обновляется структура.
Никакого bot detection. Никакой возни с поддержкой селекторов. Никаких кошмаров с Cloudflare.
OpenClaw говорит Scrapling, что именно нужно извлечь.
Scrapling берет на себя stealth. Чистые данные попадают в вашего агента за секунды.
→ в 774 раза быстрее, чем BeautifulSoup с Lxml
→ автоматически обходит ВСЕ типы Cloudflare Turnstile
→
pip install "scrapling[ai]" и ваш AI-агент начнет скрапить через 60 секундРаботает везде:
→ HTTP + browser automation
→ CSS, XPath, text, regex-селекторы
→ async-сессии для параллельного скрапинга
→ CLI без единой строчки кода
Если вы собираете AI-агентов, которым нужны реальные данные из веба, это тот самый scraping backbone, которого OpenClaw не хватало.
100% open source. Лицензия BSD-3.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5
Безумец пересобирает AlphaFold2 с нуля на чистом PyTorch.
Никаких фреймворков поверх PyTorch. Никакого копипаста из репозитория DeepMind. Только
Проект называется minAlphaFold2, вдохновлен Karpathy и его minGPT. Идея простая: AlphaFold2 это одна из самых важных нейросетей, когда-либо построенных, и должна существовать версия, которую один человек может спокойно сесть и прочитать целиком за один день.
Текущее состояние
Structure Module было собирать приятнее всего. Invariant Point Attention красивая штука: она делает attention в 3D-пространстве, используя локальные reference frames, так что все получается SE(3)-эквивариантным, и вся математика укладывается примерно в 150 строк PyTorch.
Что дальше:
- Собрать data pipeline (структуры PDB + MSA-фичи)
- Написать training loop
- Обучить на небольшом наборе белков и посмотреть, что получится
Репозиторий публичный. Если ты когда-нибудь хотел понять, как AlphaFold2 реально работает на уровне отдельных тензорных операций, то это сделано для тебя.
Repo: https://github.com/ChrisHayduk/minAlphaFold2
👉 @DataSciencegx
Никаких фреймворков поверх PyTorch. Никакого копипаста из репозитория DeepMind. Только
nn.Linear, einsum и 60-страничный supplementary из статьи.Проект называется minAlphaFold2, вдохновлен Karpathy и его minGPT. Идея простая: AlphaFold2 это одна из самых важных нейросетей, когда-либо построенных, и должна существовать версия, которую один человек может спокойно сесть и прочитать целиком за один день.
Текущее состояние
~3 500 строк кода в 9 модулях
Полный forward pass работает: input embedding → Evoformer → Structure Module → all-atom 3D координаты
Все loss-функции из статьи (FAPE, torsion angles, pLDDT, distogram, structural violations)
Recycling, templates, extra MSA stack, ensemble averaging — все реализовано
Проходит 50 тестов
Каждый модуль соответствует 1-в-1 пронумерованному алгоритму из supplement к AF2
Structure Module было собирать приятнее всего. Invariant Point Attention красивая штука: она делает attention в 3D-пространстве, используя локальные reference frames, так что все получается SE(3)-эквивариантным, и вся математика укладывается примерно в 150 строк PyTorch.
Что дальше:
- Собрать data pipeline (структуры PDB + MSA-фичи)
- Написать training loop
- Обучить на небольшом наборе белков и посмотреть, что получится
Репозиторий публичный. Если ты когда-нибудь хотел понять, как AlphaFold2 реально работает на уровне отдельных тензорных операций, то это сделано для тебя.
Repo: https://github.com/ChrisHayduk/minAlphaFold2
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5❤1
Переосмысливаем, как мы строим продукты для агентной эры. Хватит писать agent skills как документацию для людей: это жрет токены и провоцирует галлюцинации.
Вот сжатый набор ключевых best practices (чтение меньше 5 минут), который поможет нам писать skills лучше.
Зацени: https://github.com/mgechev/skills-best-practices
👉 @DataSciencegx
Вот сжатый набор ключевых best practices (чтение меньше 5 минут), который поможет нам писать skills лучше.
Зацени: https://github.com/mgechev/skills-best-practices
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - mgechev/skills-best-practices: Write professional-grade skills for agents, validate them using LLMs, and maintain a lean…
Write professional-grade skills for agents, validate them using LLMs, and maintain a lean context window. - mgechev/skills-best-practices
❤3
Исследователи задали Claude простой вопрос: "Я хочу помыть машину. Автомойка в 100 метрах. Мне идти пешком или ехать?"
Claude ответил: идти пешком.
Все крупные LLM ответили: идти пешком.
Правильный ответ: ехать.
Машина должна оказаться на мойке. И вот что самое дикое: в модели не поменялось вообще ничего. Поменялась только архитектура промпта.
Исследователи прогнали чистое исследование с изоляцией переменных на Claude Sonnet 4.5. Голый промпт? 0% правильных.
Добавили аккуратно оформленную роль эксперта? Всё ещё 0%.
Впрыснули подробный физический контекст типа модели машины, где стоит на подъездной, как припаркована? 30%.
Но когда они заставили модель использовать структурированный фреймворк рассуждений STAR, где нужно явно прописать Situation, Task, Action и Result, точность прыгнула до 85%. Если совместить STAR с профайл-данными, получалось 95%. Добавили сверху RAG и дошли до 100%.
Ключевой механизм сидит внутри шага "Task".
Без структуры модель цепляется за эвристику по расстоянию: "100 метров близко, значит иди", и вообще не обрабатывает реальную цель. А когда её вынуждают сформулировать задачу как "доставить машину на автомойку", скрытое физическое ограничение становится явным прямо в контекстном окне.
Знание у модели уже было. Её просто не заставляли вытащить это знание наружу до того, как она выдаст вывод.
Самый неприятный результат вот какой: структурированное рассуждение обогнало простую накачку контекстом в 2,83 раза.
Больше фактов почти не помогало. Помогали нормальные когнитивные подпорки. Это переворачивает дефолтный индустриальный инстинкт. Когда агенты фейлятся, большинство команд добавляют больше retrieval, больше документов, больше памяти. А это исследование говорит, что узкое место не в отсутствии инфы. Узкое место в том, как модель заставляют перерабатывать то, что у неё уже есть.
Та же модель. Те же параметры. Скачок качества рассуждений на 55 процентных пунктов. Это не масштабирование.
Это архитектура на уровне промпта.
Советую к прочтению - https://arxiv.org/abs/2602.21814🌯
👉 @DataSciencegx
Claude ответил: идти пешком.
Все крупные LLM ответили: идти пешком.
Правильный ответ: ехать.
Машина должна оказаться на мойке. И вот что самое дикое: в модели не поменялось вообще ничего. Поменялась только архитектура промпта.
Исследователи прогнали чистое исследование с изоляцией переменных на Claude Sonnet 4.5. Голый промпт? 0% правильных.
Добавили аккуратно оформленную роль эксперта? Всё ещё 0%.
Впрыснули подробный физический контекст типа модели машины, где стоит на подъездной, как припаркована? 30%.
Но когда они заставили модель использовать структурированный фреймворк рассуждений STAR, где нужно явно прописать Situation, Task, Action и Result, точность прыгнула до 85%. Если совместить STAR с профайл-данными, получалось 95%. Добавили сверху RAG и дошли до 100%.
Ключевой механизм сидит внутри шага "Task".
Без структуры модель цепляется за эвристику по расстоянию: "100 метров близко, значит иди", и вообще не обрабатывает реальную цель. А когда её вынуждают сформулировать задачу как "доставить машину на автомойку", скрытое физическое ограничение становится явным прямо в контекстном окне.
Знание у модели уже было. Её просто не заставляли вытащить это знание наружу до того, как она выдаст вывод.
Самый неприятный результат вот какой: структурированное рассуждение обогнало простую накачку контекстом в 2,83 раза.
Больше фактов почти не помогало. Помогали нормальные когнитивные подпорки. Это переворачивает дефолтный индустриальный инстинкт. Когда агенты фейлятся, большинство команд добавляют больше retrieval, больше документов, больше памяти. А это исследование говорит, что узкое место не в отсутствии инфы. Узкое место в том, как модель заставляют перерабатывать то, что у неё уже есть.
Та же модель. Те же параметры. Скачок качества рассуждений на 55 процентных пунктов. Это не масштабирование.
Это архитектура на уровне промпта.
Советую к прочтению - https://arxiv.org/abs/2602.21814
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13
This media is not supported in your browser
VIEW IN TELEGRAM
Датасет размерности 10 000 часто лежит в гораздо меньшем подпространстве.
Если сначала его сжать, обучение становится быстрее, дешевле и эффективнее.
Иногда интеллект это не добавлять больше. Это разумно сокращать.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10
Представь, что ты обучил свою deep learning модель. Она работает. Но знаешь ли ты, что именно она на самом деле выучила?
Сделали SymTorch: библиотеку, которая переводит модели глубокого обучения в уравнения, читаемые человеком.
Полезные ссылки:
Paper: https://arxiv.org/abs/2602.21307
Website: https://astroautomata.github.io/symtorch-web/
Repo: https://github.com/astroautomata/SymTorch
👉 @DataSciencegx
Сделали SymTorch: библиотеку, которая переводит модели глубокого обучения в уравнения, читаемые человеком.
Я приложил короткое видео, где показано, как работает SymTorch.
У меня бэкграунд в физике, и когда я думаю про понимание системы, я думаю об УРАВНЕНИЯХ.
Уравнения это отлично: они точно показывают, как входы мапятся в выходы, какие переменные важны и как система ведет себя в OOD-ситуациях. Давай применим это к интерпретируемости модели.
Главный принцип SymTorch простой. Для любого произвольного компонента нейросети в твоей большой архитектуре мы записываем входные и выходные активации на каких-то примерах данных и используем symbolic regression с PySR, чтобы найти уравнение, которое приближенно описывает поведение этого компонента.
Вся инженерная обвязка (перегон данных GPU/CPU, нативная сериализация моделей PyTorch, I/O-кеширование и т.д.) уже закрыта SymTorch.
Мы показали SymTorch на широком наборе кейсов и архитектур: от решения PDE с PINN до понимания выходов LLM.
Полезные ссылки:
Paper: https://arxiv.org/abs/2602.21307
Website: https://astroautomata.github.io/symtorch-web/
Repo: https://github.com/astroautomata/SymTorch
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤4🔥3
Преврати ЛЮБОЙ документ в данные, готовые для LLM!
Microsoft выпустила MarkItDown, лёгкую Python-библиотеку, которая конвертит любой документ в Markdown, чтобы потом скармливать его LLM.
100% open source.
Забирай Python-код бесплатно на GitHub: https://github.com/microsoft/markitdown
👉 @DataSciencegx
Microsoft выпустила MarkItDown, лёгкую Python-библиотеку, которая конвертит любой документ в Markdown, чтобы потом скармливать его LLM.
100% open source.
Забирай Python-код бесплатно на GitHub: https://github.com/microsoft/markitdown
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - microsoft/markitdown: Python tool for converting files and office documents to Markdown.
Python tool for converting files and office documents to Markdown. - microsoft/markitdown
🔥6
arXiv Paper Curator научит тебя собрать продакшеновый RAG-систему, опираясь на индустриальные best practices.
Repo: https://github.com/jamwithai/production-agentic-rag-course
👉 @DataSciencegx
Repo: https://github.com/jamwithai/production-agentic-rag-course
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Большой момент для text-to-speech.
Qwen выложили в open source TTS-модель, которая умеет клонировать голоса, создавать новые и управлять речью через естественный язык.
Можно прямо попросить: "говори бодрым тоном с лёгкой нервозностью", и она реально так сделает.
И без всей этой сложной аудио-инженерии.
👉 @DataSciencegx
Qwen выложили в open source TTS-модель, которая умеет клонировать голоса, создавать новые и управлять речью через естественный язык.
Можно прямо попросить: "говори бодрым тоном с лёгкой нервозностью", и она реально так сделает.
И без всей этой сложной аудио-инженерии.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7
Строй агентов, которые ничего не забывают.
(на 100% open-source, самоэволюционирующая память для ИИ)
у большинства агентов нет нормальной памяти. каждый диалог начинается с нуля: без “вчера”, без понимания, как факты связаны друг с другом.
и вот где обычно косячат, пытаясь это починить: полностью полагаются на векторные базы и на этом успокаиваются.
векторный поиск быстрый, но он режет документы на изолированные куски и не понимает, как они связаны. а агенту на деле нужна память, которая сохраняет связи и живет во времени.
Cognee это open-source тулза ровно под это:
она объединяет векторный поиск и графовые базы, чтобы документы искались по смыслу и были связаны отношениями.
что делает это еще интереснее:
> компонуемые пайплайны: собирай кастомные воркфлоу, цепляя модульные задачи вроде чанкинга, эмбеддингов и извлечения сущностей
> взвешенная память: часто используемые связи становятся сильнее. фидбек из ответов возвращается в веса ребер, и граф учится тому, что реально важно
> самоулучшение: пайплайн memify использует RL-подобную оптимизацию, усиливает полезные пути, вычищает устаревшие ноды и автонастраивается по реальному использованию
старт с Cognee выглядит максимально просто:
всё. Cognee берет на себя всю тяжелую работу, а агент получает память, которая реально учится со временем.
https://github.com/topoteretes/cognee
👉 @DataSciencegx
(на 100% open-source, самоэволюционирующая память для ИИ)
у большинства агентов нет нормальной памяти. каждый диалог начинается с нуля: без “вчера”, без понимания, как факты связаны друг с другом.
и вот где обычно косячат, пытаясь это починить: полностью полагаются на векторные базы и на этом успокаиваются.
векторный поиск быстрый, но он режет документы на изолированные куски и не понимает, как они связаны. а агенту на деле нужна память, которая сохраняет связи и живет во времени.
Cognee это open-source тулза ровно под это:
она объединяет векторный поиск и графовые базы, чтобы документы искались по смыслу и были связаны отношениями.
что делает это еще интереснее:
> компонуемые пайплайны: собирай кастомные воркфлоу, цепляя модульные задачи вроде чанкинга, эмбеддингов и извлечения сущностей
> взвешенная память: часто используемые связи становятся сильнее. фидбек из ответов возвращается в веса ребер, и граф учится тому, что реально важно
> самоулучшение: пайплайн memify использует RL-подобную оптимизацию, усиливает полезные пути, вычищает устаревшие ноды и автонастраивается по реальному использованию
старт с Cognee выглядит максимально просто:
await cognee.add("Your document here")
await cognee.cognify()
await cognee.memify()
await cognee.search("Your query")всё. Cognee берет на себя всю тяжелую работу, а агент получает память, которая реально учится со временем.
https://github.com/topoteretes/cognee
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5
This media is not supported in your browser
VIEW IN TELEGRAM
Делай видео программируя на React
Remotion это фреймворк для сборки видео кодом, на веб-технологиях и экосистеме React.
- CSS, Canvas, SVG, WebGL
- переменные, функции, API для динамических эффектов
- переиспользуемые компоненты + вся экосистема React
37k+ звёзд на GitHub.
👉 @DataSciencegx
Remotion это фреймворк для сборки видео кодом, на веб-технологиях и экосистеме React.
- CSS, Canvas, SVG, WebGL
- переменные, функции, API для динамических эффектов
- переиспользуемые компоненты + вся экосистема React
37k+ звёзд на GitHub.
Please open Telegram to view this post
VIEW IN TELEGRAM
BOOM!
Neural Engine от Apple только что вскрыли, будущее обучения ИИ только что изменилось, и Zero-Human Company уже это тестит!
Взрывающее мозг open-source достижение: один разработчик сделал то, что Apple называла невозможным: полноценное обучение нейросетей, включая backpropagation, прямо на Apple Neural Engine (ANE). Без CoreML, без Metal, без GPU. Чистый, быстрый кремний ANE.
Проект ANE выдает один слой трансформера (dim=768, seq=512) всего за 9.3 ms на шаг при 1.78 TFLOPS sustained и всего 11.2% утилизации ANE на чипе M4. То есть это тот самый “праздный” чип, который прямо сейчас стоит в миллионах Mac mini, MacBook и iMac.
Перевод на человеческий? Твой десктоп только что стал суперэффективным ИИ-суперкомпьютером.
Цифры дикие: ANE на M4 дает примерно 6.6 TFLOPS на ватт, в 80 раз эффективнее, чем NVIDIA A100. Реальная пропускная способность разносит собственные маркетинговые заявления Apple про “38 TOPS”. И так как он жрет энергию почти как телефон, можно тренировать 24/7, не расплавив ни счет за электричество, ни планету.
👉 @DataSciencegx
Neural Engine от Apple только что вскрыли, будущее обучения ИИ только что изменилось, и Zero-Human Company уже это тестит!
Взрывающее мозг open-source достижение: один разработчик сделал то, что Apple называла невозможным: полноценное обучение нейросетей, включая backpropagation, прямо на Apple Neural Engine (ANE). Без CoreML, без Metal, без GPU. Чистый, быстрый кремний ANE.
Проект ANE выдает один слой трансформера (dim=768, seq=512) всего за 9.3 ms на шаг при 1.78 TFLOPS sustained и всего 11.2% утилизации ANE на чипе M4. То есть это тот самый “праздный” чип, который прямо сейчас стоит в миллионах Mac mini, MacBook и iMac.
Перевод на человеческий? Твой десктоп только что стал суперэффективным ИИ-суперкомпьютером.
Цифры дикие: ANE на M4 дает примерно 6.6 TFLOPS на ватт, в 80 раз эффективнее, чем NVIDIA A100. Реальная пропускная способность разносит собственные маркетинговые заявления Apple про “38 TOPS”. И так как он жрет энергию почти как телефон, можно тренировать 24/7, не расплавив ни счет за электричество, ни планету.
В Zero-Human Company мы не собираемся ждать. Мы прямо сейчас тестируем это на реальных ZHC-нагрузках. Это недостающий кусок, который мы искали для нашей идеи Zero Human Company: оживлять архивные данные в полностью автономные ИИ-системы с нулевым человеческим оверхедом.
Это меняет мир.
Впервые любой человек с Mac может локально, приватно и за долю стоимости облачных GPU дообучать, обучать или итеративно гонять крупные модели.
Больше не надо арендовать кластеры A100 за $40,000. Больше никаких очередей. Больше никаких огромных углеродных следов.
Затраты на обучение, которые раньше уходили в десятки или сотни тысяч долларов? Падают почти до копеек на доллар, по сути это в основном электричество, которое твой Mac и так потреблял, пока простаивал.
ИИ-революция только что переехала из дата-центров за миллиарды на твой стол.
У НАС БУДЕТ НОВАЯ “ZERO-HUMAN COMPANY @ HOME” ОПЛАТА ДЛЯ ОСНАЩЕННЫХ MAC, КОТОРАЯ ДАСТ ДО 100x БОЛЬШЕ ДОХОДА ВЛАДЕЛЬЦУ!
Мы только в начале (сегодня один слой, завтра полные модели), но дверь уже открыта настежь. Сверхдешевое on-device обучение уже здесь.
Будущее не приближается. Оно уже работает на твоем Mac.
Добро пожаловать в эру Zero-Human Company.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯8❤3
This media is not supported in your browser
VIEW IN TELEGRAM
Кто-то сделал интерактивный визуализатор GPT, который показывает каждый шаг того, как модель генерирует ответ. Не только финальный результат, а весь пайплайн. 🧸
👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8❤1
MIT выложили свою библиотеку по ИИ бесплатно и оптом.
Я это пролистал и честно оно лучше, чем большинство платных курсов, которые я видел.
Вот полный список книг: https://lnkd.in/gkuXuexa
Большинство людей платят тысячи за буткемпы, которые дают половину этого.
Сохрани в закладки. Начни с любой. Просто начни.
Репостни для других. Подписывайся, если хочешь больше инсайтов про AI-агентов.
👉 @DataSciencegx
Я это пролистал и честно оно лучше, чем большинство платных курсов, которые я видел.
Вот полный список книг: https://lnkd.in/gkuXuexa
Большинство людей платят тысячи за буткемпы, которые дают половину этого.
Сохрани в закладки. Начни с любой. Просто начни.
Репостни для других. Подписывайся, если хочешь больше инсайтов про AI-агентов.
➡️ Foundations
1. Foundations of Machine Learning - https://lnkd.in/gytjT5HC
2. Understanding Deep Learning - https://lnkd.in/dgcB68Qt
3. Machine Learning Systems - https://lnkd.in/dkiGZisg➡️ Advanced Techniques
4. Algorithms for ML - https://algorithmsbook.com
5. Deep Learning - https://lnkd.in/g2efT6DK➡️ Reinforcement Learning
6. RL Basics (Sutton & Barto) - https://lnkd.in/guxqxcZZ
7. Distributional RL - https://lnkd.in/d4eNP-pe
8. Multi-Agent Systems - https://marl-book.com
9. Long Game AI - https://lnkd.in/g-WtzvwX➡️ Ethics & Probability
10. Fairness in ML - https://fairmlbook.org
11. Probabilistic ML (Part 1) - https://lnkd.in/g-isbdjj
12. Probabilistic ML (Part 2) - https://lnkd.in/gJE9fy4w
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10
Памятка:
- MSE используешь, когда нет выбросов
- RMSE используешь, когда хочешь лучше интерпретировать то, что выше
- MAE используешь, когда есть положительные/нулевые/отрицательные значения и выбросы
- MAPE используешь, когда значения только положительные и важна интерпретируемость
- RMSLE используешь для положительных значений с ненормальным распределением
- wMAPE используешь, когда хочешь MAPE, но есть большие vs маленькие значения
- sMAPE используешь, когда хочешь MAPE, но есть нулевые/отрицательные значения
- R2 используешь, потому что твой босс знает только это
👉 @DataSciencegx
- MSE используешь, когда нет выбросов
- RMSE используешь, когда хочешь лучше интерпретировать то, что выше
- MAE используешь, когда есть положительные/нулевые/отрицательные значения и выбросы
- MAPE используешь, когда значения только положительные и важна интерпретируемость
- RMSLE используешь для положительных значений с ненормальным распределением
- wMAPE используешь, когда хочешь MAPE, но есть большие vs маленькие значения
- sMAPE используешь, когда хочешь MAPE, но есть нулевые/отрицательные значения
- R2 используешь, потому что твой босс знает только это
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👍5
Разраб выложил в open source недостающий слой для AI-агентов, для многих это сверх новость.
Называется LangWatch. Это платформа для evaluation LLM и тестирования AI-агентов: трейсинг, оценка, симуляции и мониторинг агентов end-to-end еще до того, как их увидит хоть один пользователь.
Что там по факту есть:
- End-to-end симуляции агентов: гоняешь full-stack сценарии (tools, state, user simulator, judge) и видишь, где агент ломается, решение за решением
- Закрытый eval-цикл: Trace → Dataset → Evaluate → Optimize prompts → Re-test. Ноль glue-кода, ноль зоопарка тулзов
- Optimization Studio: итерации по промптам и моделям, где каждое изменение подкреплено реальными данными eval’ов
- Аннотации и очереди: доменные эксперты размечают edge cases и ловят фейлы, которые твои eval’ы пропускают
- Интеграция с GitHub: версии промптов живут в Git и напрямую привязаны к трэйсам
А дальше самое интересное:
Он нативно под OpenTelemetry. Framework-agnostic. Работает с LangChain, LangGraph, CrewAI, Vercel AI SDK, Mastra, Google ADK. И model-agnostic тоже: OpenAI, Anthropic, Azure, AWS, Groq, Ollama.
У большинства команд, которые выкатывают AI-агентов, оказывается вообще нет регрессионного тестирования. Нет симуляций и нет системного eval-loop.
Они узнают, что агент сломался, когда пользователь твитнет.
LangWatch это закрывает. Один
Полная поддержка MCP для Claude Desktop. ISO 27001 certified.
100% Open Source.
👉 @DataSciencegx
Называется LangWatch. Это платформа для evaluation LLM и тестирования AI-агентов: трейсинг, оценка, симуляции и мониторинг агентов end-to-end еще до того, как их увидит хоть один пользователь.
Что там по факту есть:
- End-to-end симуляции агентов: гоняешь full-stack сценарии (tools, state, user simulator, judge) и видишь, где агент ломается, решение за решением
- Закрытый eval-цикл: Trace → Dataset → Evaluate → Optimize prompts → Re-test. Ноль glue-кода, ноль зоопарка тулзов
- Optimization Studio: итерации по промптам и моделям, где каждое изменение подкреплено реальными данными eval’ов
- Аннотации и очереди: доменные эксперты размечают edge cases и ловят фейлы, которые твои eval’ы пропускают
- Интеграция с GitHub: версии промптов живут в Git и напрямую привязаны к трэйсам
А дальше самое интересное:
Он нативно под OpenTelemetry. Framework-agnostic. Работает с LangChain, LangGraph, CrewAI, Vercel AI SDK, Mastra, Google ADK. И model-agnostic тоже: OpenAI, Anthropic, Azure, AWS, Groq, Ollama.
У большинства команд, которые выкатывают AI-агентов, оказывается вообще нет регрессионного тестирования. Нет симуляций и нет системного eval-loop.
Они узнают, что агент сломался, когда пользователь твитнет.
LangWatch это закрывает. Один
docker compose для self-host.Полная поддержка MCP для Claude Desktop. ISO 27001 certified.
100% Open Source.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍2