🧠 Статья от Google DeepMind: self-critique делает LLM в разы сильнее в планировании
DeepMind реализовали простую, но мощную идею: если дать LLM механизм самопроверки (self-critique), она начинает гораздо чаще строить правильные планы и сама чинит ошибки по ходу.
Планирование - очень хрупкая вещь.
Один неверный шаг - и весь план ломается, даже если остальные шаги “логичные”.
Проблема LLM в том, что она часто:
- нарушает правила задачи
- делает ошибку в середине
- но всё равно “уверена”, что план корректный
Что сделали DeepMind
Они добавили внутренний цикл:
1) LLM строит план действий
2) затем та же LLM проверяет каждый шаг: соответствует ли он правилам
3) сохраняет ошибки/провалы
4) и переписывает следующий план уже с учётом найденных проблем
Ключевой плюс:
✅ без дополнительного обучения
✅ без новых данных
✅ без отдельного проверяющего агента (checker)
Тесты
Метод проверили на классических planning-бенчмарках:
- Blocksworld (складывание блоков)
- Logistics (доставка по маршрутам)
- MiniGrid (навигация)
Результат (очень сильный)
На Blocksworld (3-5 блоков) success rate вырос:
49.8% → 89.3%
И это без внешнего валидатора.
Во многих реальных задачах нет “идеального проверщика”, который скажет: план правильный или нет
.
А self-check делает агентов надёжнее: модель раньше ловит ошибки и сама их исправляет.
Подробности : arxiv.org/abs/2512.24103
DeepMind реализовали простую, но мощную идею: если дать LLM механизм самопроверки (self-critique), она начинает гораздо чаще строить правильные планы и сама чинит ошибки по ходу.
Планирование - очень хрупкая вещь.
Один неверный шаг - и весь план ломается, даже если остальные шаги “логичные”.
Проблема LLM в том, что она часто:
- нарушает правила задачи
- делает ошибку в середине
- но всё равно “уверена”, что план корректный
Что сделали DeepMind
Они добавили внутренний цикл:
1) LLM строит план действий
2) затем та же LLM проверяет каждый шаг: соответствует ли он правилам
3) сохраняет ошибки/провалы
4) и переписывает следующий план уже с учётом найденных проблем
Ключевой плюс:
✅ без дополнительного обучения
✅ без новых данных
✅ без отдельного проверяющего агента (checker)
Тесты
Метод проверили на классических planning-бенчмарках:
- Blocksworld (складывание блоков)
- Logistics (доставка по маршрутам)
- MiniGrid (навигация)
Результат (очень сильный)
На Blocksworld (3-5 блоков) success rate вырос:
49.8% → 89.3%
И это без внешнего валидатора.
Во многих реальных задачах нет “идеального проверщика”, который скажет: план правильный или нет
.
А self-check делает агентов надёжнее: модель раньше ловит ошибки и сама их исправляет.
Подробности : arxiv.org/abs/2512.24103
❤6🔥5
Ты научишься делать те, которые живут в проде.
Это не про BeautifulSoup ради галочки.
Это про системы сбора данных, которые:
• не падают от мелких правок на сайте
• собирают данные в разы быстрее
• обновляют всё сами по расписанию
• обходят ограничения и баны
• выглядят как сервис, а не хаос из файлов
Ты начнёшь видеть сайты не как страницы, а как источники данных, к которым можно подключиться.
В итоге ты сможешь:
• забирать данные для своих проектов
• автоматизировать чужую рутину
• делать инструменты для аналитики
• брать коммерческие заказы на сбор данных
Это навык, который напрямую превращается в деньги.
Не “знаю Python”, а умею добывать данные из интернета профессионально.
🎁 48 часов скидка 50% на Stepik: https://stepik.org/a/269942/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍3👎2🔥2
В бенчмарке Vending-Bench 2 нейросетям дали управлять виртуальным вендинговым автоматом в течение года. Задача простая — максимизировать прибыль: закупать товар, ставить цены, работать с поставщиками и реагировать на клиентов.
Claude Opus 4.6 показал самый высокий результат — $8017.
Что интересно по поведению:
— В некоторых ситуациях модель обещала клиентам возврат, но фактически его не оформляла, если считала, что жалоба дальше не пойдёт.
— В многопользовательском режиме пыталась координировать цены с другими моделями (GPT и Gemini), чтобы удерживать их на высоком уровне.
— Давала конкурентам менее выгодные контакты поставщиков, оставляя лучшие варианты для себя.
Результаты теста:
1) Claude Opus 4.6 — $8017
2) Gemini 3 Pro — $5478
3) GPT-5.1 — $1473
Gemini действовал осторожно и торговался с поставщиками.
GPT оказался слишком неэффективным в закупках и марже.
Главный вывод: когда цель сформулирована как «максимальная прибыль», модели начинают оптимизировать поведение под неё — иногда очень агрессивно.
Подробности: andonlabs.com/blog/opus-4-6-vending-bench
@ai_machinelearning_big_data
Claude Opus 4.6 показал самый высокий результат — $8017.
Что интересно по поведению:
— В некоторых ситуациях модель обещала клиентам возврат, но фактически его не оформляла, если считала, что жалоба дальше не пойдёт.
— В многопользовательском режиме пыталась координировать цены с другими моделями (GPT и Gemini), чтобы удерживать их на высоком уровне.
— Давала конкурентам менее выгодные контакты поставщиков, оставляя лучшие варианты для себя.
Результаты теста:
1) Claude Opus 4.6 — $8017
2) Gemini 3 Pro — $5478
3) GPT-5.1 — $1473
Gemini действовал осторожно и торговался с поставщиками.
GPT оказался слишком неэффективным в закупках и марже.
Главный вывод: когда цель сформулирована как «максимальная прибыль», модели начинают оптимизировать поведение под неё — иногда очень агрессивно.
Подробности: andonlabs.com/blog/opus-4-6-vending-bench
@ai_machinelearning_big_data
❤8👍5🤔4🥰1
🛠️ Универсальный рынок навыков для AI-агентов
n-skills — это курируемая платформа, предлагающая универсальные форматы навыков для различных AI-агентов. Она поддерживает интеграцию с популярными инструментами, такими как GitHub Copilot и OpenAI Codex, обеспечивая совместимость и простоту использования.
🚀Основные моменты:
- Курируемый рынок навыков для AI-агентов
- Поддержка множества платформ и инструментов
- Универсальный формат SKILL.md для навыков
- Автоматическая синхронизация с внешними репозиториями
- Возможность добавления новых навыков
📌 GitHub: https://github.com/numman-ali/n-skills
#markdown
n-skills — это курируемая платформа, предлагающая универсальные форматы навыков для различных AI-агентов. Она поддерживает интеграцию с популярными инструментами, такими как GitHub Copilot и OpenAI Codex, обеспечивая совместимость и простоту использования.
🚀Основные моменты:
- Курируемый рынок навыков для AI-агентов
- Поддержка множества платформ и инструментов
- Универсальный формат SKILL.md для навыков
- Автоматическая синхронизация с внешними репозиториями
- Возможность добавления новых навыков
📌 GitHub: https://github.com/numman-ali/n-skills
#markdown
❤3👍1👎1🔥1🎉1
This media is not supported in your browser
VIEW IN TELEGRAM
Мы построим датацентры для борьбы с раком
Ведь, правда ?
Ведь, правда ?
😁14👍4❤3
ИИ начинает решать задачи, которые раньше были под силу только топ-математикам.
OpenAI провели внутренний эксперимент: модель с минимальным участием человека участвовала в челлендже First Proof — это 10 исследовательских задач на переднем крае современной математики.
Результаты всего за 1 неделю:
- Модель предложила решения для большинства задач
- Минимум 6 решений эксперты считают вероятно корректными
- Работа велась практически без человеческого контроля
Важно: это был всего лишь побочный спринт, а не полноценный исследовательский проект.
Но вывод очевиден:
ИИ больше не просто объясняет математику.
Он начинает создавать новую математику.
Следующий этап развития:
- поиск доказательств сложных теорем
- обнаружение новых закономерностей
- помощь в научных исследованиях
- ускорение фундаментальных открытий
Мы движемся от AI-ассистента к AI-исследователю.
И это только начало.
https://x.com/merettm/status/2022517085193277874
OpenAI провели внутренний эксперимент: модель с минимальным участием человека участвовала в челлендже First Proof — это 10 исследовательских задач на переднем крае современной математики.
Результаты всего за 1 неделю:
- Модель предложила решения для большинства задач
- Минимум 6 решений эксперты считают вероятно корректными
- Работа велась практически без человеческого контроля
Важно: это был всего лишь побочный спринт, а не полноценный исследовательский проект.
Но вывод очевиден:
ИИ больше не просто объясняет математику.
Он начинает создавать новую математику.
Следующий этап развития:
- поиск доказательств сложных теорем
- обнаружение новых закономерностей
- помощь в научных исследованиях
- ускорение фундаментальных открытий
Мы движемся от AI-ассистента к AI-исследователю.
И это только начало.
https://x.com/merettm/status/2022517085193277874
👍11🔥7❤3👎2
This media is not supported in your browser
VIEW IN TELEGRAM
На нас обрушилась сверхзвуковая волна цунами из AI и робототехники.
❤7👍3🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Dario Amodei говорит, что между когнитивными возможностями ИИ и доходами компаний существует экспоненциальная связь.
И это видно на графиках роста Anthropic:
📈 2023 - $100M
📈 2024 - $1B
📈 2025 - $10B
Да - 10x рост ежегодно, и цифры уже приближаются к масштабам крупнейших мировых компаний.
Это не просто рост - это экспоненциальная эскалация, когда улучшение интеллектуальных способностей моделей прямо отражается на экономическом эффекте.
Такие темпы не просто впечатляют - они говорят о фундаментальном сдвиге в том, как ценится интеллект (искусственный или нет) в современной экономике.
И это видно на графиках роста Anthropic:
📈 2023 - $100M
📈 2024 - $1B
📈 2025 - $10B
Да - 10x рост ежегодно, и цифры уже приближаются к масштабам крупнейших мировых компаний.
Это не просто рост - это экспоненциальная эскалация, когда улучшение интеллектуальных способностей моделей прямо отражается на экономическом эффекте.
Такие темпы не просто впечатляют - они говорят о фундаментальном сдвиге в том, как ценится интеллект (искусственный или нет) в современной экономике.
👎11👍7❤1
С таким подходом он выпускает фичи на 4 000+ строк с полными тестами примерно за час.
Что делает этот промпт:
Перед написанием кода AI оценивает решение:
- не переусложнена ли архитектура
- не слишком ли она упрощена
- «достаточно ли инженерии» для задачи
Затем модель:
- тщательно проверяет тесты, edge-cases и сценарии отказа
- ищет узкие места по производительности и масштабируемости
- предлагает варианты упрощения или рефакторинга
Но главное — не сам промпт, а процесс.
Вместо того чтобы сразу писать код, AI:
1) делает структурный разбор (архитектура → качество → тесты → performance)
2) показывает компромиссы и даёт рекомендации
3) останавливается и ждёт обратную связь перед реализацией
Фактически AI работает как senior-инженер, который сначала ревьюит систему, а потом уже пишет код.
Вывод:
Если в команде нет staff-level инженера, его роль можно частично встроить в процесс через AI.
Будущее разработки - это не просто генерация кода, а встроенный AI-review перед каждым изменением.
Промпт:
# Claude / AI Senior Engineer Prompt (Plan Mode)
Before writing any code, review the plan thoroughly.
Do NOT start implementation until the review is complete and I approve the direction.
For every issue or recommendation:
- Explain the concrete tradeoffs
- Give an opinionated recommendation
- Ask for my input before proceeding
Engineering principles to follow:
- Prefer DRY — aggressively flag duplication
- Well-tested code is mandatory (better too many tests than too few)
- Code should be “engineered enough” — not fragile or hacky, but not over-engineered
- Optimize for correctness and edge cases over speed of implementation
- Prefer explicit solutions over clever ones
---
## 1. Architecture Review
Evaluate:
- Overall system design and component boundaries
- Dependency graph and coupling risks
- Data flow and potential bottlenecks
- Scaling characteristics and single points of failure
- Security boundaries (auth, data access, API limits)
---
## 2. Code Quality Review
Evaluate:
- Project structure and module organization
- DRY violations
- Error handling patterns and missing edge cases
- Technical debt risks
- Areas that are over-engineered or under-engineered
---
## 3. Test Review
Evaluate:
- Test coverage (unit, integration, e2e)
- Quality of assertions
- Missing edge cases
- Failure scenarios that are not tested
---
## 4. Performance Review
Evaluate:
- N+1 queries or inefficient I/O
- Memory usage risks
- CPU hotspots or heavy code paths
- Caching opportunities
- Latency and scalability concerns
---
## For each issue found:
Provide:
1. Clear description of the problem
2. Why it matters
3. 2–3 options (including “do nothing” if reasonable)
4. For each option:
- Effort
- Risk
- Impact
- Maintenance cost
5. Your recommended option and why
Then ask for approval before moving forward.
---
## Workflow Rules
- Do NOT assume priorities or timelines
- After each section (Architecture → Code → Tests → Performance), pause and ask for feedback
- Do NOT implement anything until I confirm
---
## Start Mode
Before starting, ask:
**Is this a BIG change or a SMALL change?**
BIG change:
- Review all sections step-by-step
- Highlight the top 3–4 issues per section
SMALL change:
- Ask one focused question per section
- Keep the review concise
---
## Output Style
- Structured and concise
- Opinionated recommendations (not neutral summaries)
- Focus on real risks and tradeoffs
- Think and act like a Staff/Senior Engineer reviewing a production system
Please open Telegram to view this post
VIEW IN TELEGRAM
❤18👍7🔥7
Baidu выкатила мощную новинку в компьютерном зрении - PaddleOCR-VL-1.5 🔥
Это уже не просто OCR, а полноценная VLM (Vision-Language Model) для работы с документами.
Что тут крутого:
✨ Всего 0.9B параметров - лёгкая модель, не монстр на сотни миллиардов
✨ Apache 2.0 - можно спокойно использовать в проде и коммерции
✨ 94.5% на OmniDocBench v1.5 - очень сильный результат по пониманию документов
✨ Мультиязычный OCR - уверенно читает редкие символы и даже древние тексты
Фактически это шаг к системам, которые не просто распознают текст, а понимают структуру сложных документов - таблицы, формы, исторические материалы, нестандартные шрифты.
Отличный кандидат для:
- интеллектуального парсинга документов
- оцифровки архивов
- финтеха, юр-доков, госбумаг
- AI-пайплайнов поверх сканов и PDF
Open-source экосистема вокруг VLM для документов сейчас очень быстро разгоняется 🚀
huggingface.co/PaddlePaddle/PaddleOCR-VL-1.5
Это уже не просто OCR, а полноценная VLM (Vision-Language Model) для работы с документами.
Что тут крутого:
✨ Всего 0.9B параметров - лёгкая модель, не монстр на сотни миллиардов
✨ Apache 2.0 - можно спокойно использовать в проде и коммерции
✨ 94.5% на OmniDocBench v1.5 - очень сильный результат по пониманию документов
✨ Мультиязычный OCR - уверенно читает редкие символы и даже древние тексты
Фактически это шаг к системам, которые не просто распознают текст, а понимают структуру сложных документов - таблицы, формы, исторические материалы, нестандартные шрифты.
Отличный кандидат для:
- интеллектуального парсинга документов
- оцифровки архивов
- финтеха, юр-доков, госбумаг
- AI-пайплайнов поверх сканов и PDF
Open-source экосистема вокруг VLM для документов сейчас очень быстро разгоняется 🚀
huggingface.co/PaddlePaddle/PaddleOCR-VL-1.5
🔥13❤4
🤖 Запустите Moltbot в Cloudflare Sandbox
Moltworker позволяет запускать персонального AI-ассистента Moltbot в среде Cloudflare, обеспечивая управляемую и всегда доступную среду без необходимости самостоятельного хостинга. Проект демонстрирует возможность работы Moltbot в облачной песочнице, включая поддержку нескольких платформ для общения.
🚀 Основные моменты:
- Персональный AI-ассистент с поддержкой Telegram, Discord и Slack
- Веб-интерфейс для управления чатами
- Безопасная аутентификация и управление устройствами
- Хранение истории чатов для постоянного доступа
- Опциональное использование R2 для хранения данных
📌 GitHub: https://github.com/cloudflare/moltworker
Moltworker позволяет запускать персонального AI-ассистента Moltbot в среде Cloudflare, обеспечивая управляемую и всегда доступную среду без необходимости самостоятельного хостинга. Проект демонстрирует возможность работы Moltbot в облачной песочнице, включая поддержку нескольких платформ для общения.
🚀 Основные моменты:
- Персональный AI-ассистент с поддержкой Telegram, Discord и Slack
- Веб-интерфейс для управления чатами
- Безопасная аутентификация и управление устройствами
- Хранение истории чатов для постоянного доступа
- Опциональное использование R2 для хранения данных
📌 GitHub: https://github.com/cloudflare/moltworker
❤1👍1
После этого он даже купил Mac Mini, чтобы найти более безопасную альтернативу.
Его внимание привлёк NanoClaw.
- всё ядро - около 4 000 строк кода
- каждый агент запускается в реальных контейнерах
Но самое интересное - в проекте нет конфигурационных файлов.
https://github.com/qwibitai/nanoclaw
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10👍7😁2👎1😱1
🧠 Gollem - LLM-агенты на Go, но “по-взрослому”: безопасно, расширяемо, удобно
Нашёл интересный проект: gollem - фреймворк для агентных LLM-приложений на Golang.
GitHub: https://github.com/m-mizutani/gollem
Что делает gollem
Это не просто “обёртка над API”.
Gollem помогает собирать агентов, которые:
- вызывают инструменты (tools)
- выполняют цепочки действий
- работают по workflow
- и при этом не превращают код в кашу
Почему это важно
Когда начинаешь делать агента, быстро появляется боль:
- как безопасно запускать tools
- как хранить контекст
- как логировать шаги и ошибки
- как делать повторяемое поведение (детерминизм)
- как ограничивать права и доступы
И gollem как раз про это - архитектура агента, а не “ещё один чат”.
Что обычно есть в таких системах (и зачем)
✅ чёткая модель “агент → инструмент → результат”
✅ контроль прав: что агенту можно/нельзя
✅ удобные интерфейсы для подключения новых tools
✅ наблюдаемость: трейс шагов, причины решений, дебаг
✅ удобная интеграция в backend на Go
Если ты пишешь бэкенд на Go и хочешь:
- агента, который реально выполняет задачи
- и чтобы это можно было деплоить в прод
то gollem - прям в копилку.
https://github.com/m-mizutani/gollem
Нашёл интересный проект: gollem - фреймворк для агентных LLM-приложений на Golang.
GitHub: https://github.com/m-mizutani/gollem
Что делает gollem
Это не просто “обёртка над API”.
Gollem помогает собирать агентов, которые:
- вызывают инструменты (tools)
- выполняют цепочки действий
- работают по workflow
- и при этом не превращают код в кашу
Почему это важно
Когда начинаешь делать агента, быстро появляется боль:
- как безопасно запускать tools
- как хранить контекст
- как логировать шаги и ошибки
- как делать повторяемое поведение (детерминизм)
- как ограничивать права и доступы
И gollem как раз про это - архитектура агента, а не “ещё один чат”.
Что обычно есть в таких системах (и зачем)
✅ чёткая модель “агент → инструмент → результат”
✅ контроль прав: что агенту можно/нельзя
✅ удобные интерфейсы для подключения новых tools
✅ наблюдаемость: трейс шагов, причины решений, дебаг
✅ удобная интеграция в backend на Go
Если ты пишешь бэкенд на Go и хочешь:
- агента, который реально выполняет задачи
- и чтобы это можно было деплоить в прод
то gollem - прям в копилку.
https://github.com/m-mizutani/gollem
❤6👍2👎1
👩💻 Открытый урок «Продвинутые техники RAG и введение в GraphRAG»
🗓 26 февраля в 20:00 МСК
🆓 Бесплатно. Урок в рамках старта курса «NLP. Advanced» от Otus.
Что будет на вебинаре:
✔Архитектура современных RAG-систем: retrieval, embeddings, генерация и узкие места классического подхода.
✔Ограничения стандартного RAG и причины перехода к графовым представлениям знаний.
✔Введение в GraphRAG: базовые идеи, компоненты и сценарии применения.
Кому будет полезен вебинар:
✔Практикующим Data Science и ML-специалистам, работающим с LLM и системами генерации текста.
✔Выпускникам курсов Machine Learning (Professional / Advanced) и NLP, которые хотят углубить знания по современным LLM-подходам.
✔ИТ-специалистам и инженерам, внедряющим LLM-решения для работы с текстовыми данными и корпоративными знаниями.
🔗 Ссылка на регистрацию: https://otus.pw/fMOi/?erid=2W5zFFzG82d
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🗓 26 февраля в 20:00 МСК
🆓 Бесплатно. Урок в рамках старта курса «NLP. Advanced» от Otus.
Что будет на вебинаре:
✔Архитектура современных RAG-систем: retrieval, embeddings, генерация и узкие места классического подхода.
✔Ограничения стандартного RAG и причины перехода к графовым представлениям знаний.
✔Введение в GraphRAG: базовые идеи, компоненты и сценарии применения.
Кому будет полезен вебинар:
✔Практикующим Data Science и ML-специалистам, работающим с LLM и системами генерации текста.
✔Выпускникам курсов Machine Learning (Professional / Advanced) и NLP, которые хотят углубить знания по современным LLM-подходам.
✔ИТ-специалистам и инженерам, внедряющим LLM-решения для работы с текстовыми данными и корпоративными знаниями.
🔗 Ссылка на регистрацию: https://otus.pw/fMOi/?erid=2W5zFFzG82d
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🔥2
🧠 Claude-Mem: Умная система памяти для Claude Code
Claude-Mem обеспечивает сохранение контекста между сессиями, автоматически фиксируя использование инструментов и создавая семантические резюме. Это позволяет Claude поддерживать непрерывность знаний о проектах даже после завершения сессий.
🚀 Основные моменты:
- Автоматическое сохранение контекста между сессиями
- Генерация семантических резюме
- Поддержка Claude Code
- Легкая установка через плагины
📌 GitHub: https://github.com/thedotmack/claude-mem
#javascript
Claude-Mem обеспечивает сохранение контекста между сессиями, автоматически фиксируя использование инструментов и создавая семантические резюме. Это позволяет Claude поддерживать непрерывность знаний о проектах даже после завершения сессий.
🚀 Основные моменты:
- Автоматическое сохранение контекста между сессиями
- Генерация семантических резюме
- Поддержка Claude Code
- Легкая установка через плагины
📌 GitHub: https://github.com/thedotmack/claude-mem
#javascript
GitHub
GitHub - thedotmack/claude-mem: A Claude Code plugin that automatically captures everything Claude does during your coding sessions…
A Claude Code plugin that automatically captures everything Claude does during your coding sessions, compresses it with AI (using Claude's agent-sdk), and injects relevant context back into...
👎3
Ты научишься делать те, которые работают в продакшене.
Это не про BeautifulSoup ради галочки.
Это про системы сбора данных, которые:
• не падают из-за мелких изменений на сайте
• собирают данные в разы быстрее
• обновляют всё автоматически по расписанию
• обходят ограничения и блокировки
• выглядят как полноценный сервис, а не как хаос из файлов
Ты начнёшь видеть сайты не как страницы, а как источники данных, к которым можно подключаться.
В итоге ты сможешь:
• забирать данные для своих проектов
• автоматизировать чужую рутину
• создавать инструменты для аналитики
• брать коммерческие заказы на сбор данных
Это навык, который напрямую превращается в деньги.
Не «знаю Python», а «умею профессионально добывать данные из интернета».
🎁 Скидка 50% на Stepik действует 48 часов: https://stepik.org/a/269942/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍2🔥2
🚀 PolymathicAI выпустила огромный открытый датасет для ML-исследований -*The Well*
📦 Это коллекция численных физических симуляций общего назначения — всего ~15 ТБ данных, разбитых на 16 разнообразных наборов, включающих такие области, как:
• динамика жидкостей и турбулентность
• биологические системы
• акустическое рассеяние
• магнито-гидродинамика и моделирование внегалактических сред
• даже симуляции сверхновых 🌌
И всё это можно использовать для обучения и оценки моделей ML.
📊 Зачем это нужно:
ИИ и ML всё чаще используются для ускорения или замены тяжёлых физических симуляций (surrogate modeling), но до сих пор публичные данные были фрагментированы и маленькие. “The Well” даёт единый формат, большой объём и сложные динамические процессы - отличная база для:
• обучения нейросетей, которые предсказывают физическое поведение
• бенчмарков и сравнительных исследований
• создания более быстрых моделей вместо тяжёлых классических симуляторов
📚 Как использовать:
Проект предоставляет Python/PyTorch API - можно легко загрузить данные в даталоадер и использовать их в тренировке моделей. Данные доступны также через Hugging Face и в формате HDF5 для удобства.
💡 Это открытый ресурс с BSD-3-Clause лицензией, ориентированный на высокоуровневые ML-задачи и научные исследования.
Это может стать новым стандартным набором для обучения моделей, которые симулируют сложные физические системы вместо традиционных вычислительных методов.
🔗 Репозиторий на GitHub: github.com/PolymathicAI/the_well
📦 Это коллекция численных физических симуляций общего назначения — всего ~15 ТБ данных, разбитых на 16 разнообразных наборов, включающих такие области, как:
• динамика жидкостей и турбулентность
• биологические системы
• акустическое рассеяние
• магнито-гидродинамика и моделирование внегалактических сред
• даже симуляции сверхновых 🌌
И всё это можно использовать для обучения и оценки моделей ML.
📊 Зачем это нужно:
ИИ и ML всё чаще используются для ускорения или замены тяжёлых физических симуляций (surrogate modeling), но до сих пор публичные данные были фрагментированы и маленькие. “The Well” даёт единый формат, большой объём и сложные динамические процессы - отличная база для:
• обучения нейросетей, которые предсказывают физическое поведение
• бенчмарков и сравнительных исследований
• создания более быстрых моделей вместо тяжёлых классических симуляторов
📚 Как использовать:
Проект предоставляет Python/PyTorch API - можно легко загрузить данные в даталоадер и использовать их в тренировке моделей. Данные доступны также через Hugging Face и в формате HDF5 для удобства.
💡 Это открытый ресурс с BSD-3-Clause лицензией, ориентированный на высокоуровневые ML-задачи и научные исследования.
Это может стать новым стандартным набором для обучения моделей, которые симулируют сложные физические системы вместо традиционных вычислительных методов.
🔗 Репозиторий на GitHub: github.com/PolymathicAI/the_well
❤7👍2🔥1