Вот как Claude разносит процесс, собирая черновик современной виллы из примитивов - он сам управляет Unreal Engine через UnrealMCP.
Ты просто пишешь, что хочешь. Он делает. Он не просто исполняет команды, но и предлагает свои решения
Сначала нужно установить Unreal Engine.
Для этого ставишь Epic Games Launcher. В нём выбираешь нужную версию движка. Для этого MCP подойдёт любая версия Unreal Engine от 5.5 до 5.7.
Скачать: https://unrealengine.com/en-US/download
Дальше ставишь Claude для десктопа.
Заходишь на http://Claude.ai , кликаешь по аккаунту и жмёшь “download for (your system)”. Потом логинишься.
Теперь Claude может взаимодействовать с твоим компьютером. Круто. И немного стрёмно.
Уровень доступа настраивается в настройках, так что никаких сюрпризов.
Дальше — MCP от Flopperam. Я мог бы расписать шаги, но честно: YouTube-туториал намного полезнее, потому что всё визуально.
Я сам без видео бился головой об стену, а потом жалел. Не повторяй. Смотри видео.
GitHub: тут
YouTube: смотреть
После установки нужно дать Claude доступ.
Открываешь Claude Desktop → аккаунт → настройки → подключения. Убедись, что MCP там есть. И что он отображается в категории “Developer”.
Если не видишь , то перепроверь YouTube или GitHub, посмотри, что пропустил.
Ниже есть кусок кода, который нужно вставить в конфиг MCP для Claude Desktop.
Код можно просто скопировать из GitHub Flopperam, ссылку я уже давал.
ВСЁ. ГОТОВО.
Открываешь проект в Unreal, включаешь плагин, запускаешь Claude, разминаешь пальцы и начинаешь писать промпты.
Проблемы? GitHub или YouTube.
Да, выглядит пугающе, но обещаю: когда разберёшься, выходить не захочется.
Мотивация ниже.
И да, есть версия и для Blender.
Просто хочу сказать: ты реально можешь это сделать.
Я знаю, ты сейчас думаешь “сохраню на потом”. Но это “потом” может быть сегодня. И ты будешь рад, обещаю.
Ты справишься.
А если всё это кажется лёгким, то Flopperam уже выкатил бета-версию агентного билда с 3D-генерацией и контекстом.
Развлекайся.🔴
Ты просто пишешь, что хочешь. Он делает. Он не просто исполняет команды, но и предлагает свои решения
Сначала нужно установить Unreal Engine.
Для этого ставишь Epic Games Launcher. В нём выбираешь нужную версию движка. Для этого MCP подойдёт любая версия Unreal Engine от 5.5 до 5.7.
Скачать: https://unrealengine.com/en-US/download
Дальше ставишь Claude для десктопа.
Заходишь на http://Claude.ai , кликаешь по аккаунту и жмёшь “download for (your system)”. Потом логинишься.
Теперь Claude может взаимодействовать с твоим компьютером. Круто. И немного стрёмно.
Уровень доступа настраивается в настройках, так что никаких сюрпризов.
Дальше — MCP от Flopperam. Я мог бы расписать шаги, но честно: YouTube-туториал намного полезнее, потому что всё визуально.
Я сам без видео бился головой об стену, а потом жалел. Не повторяй. Смотри видео.
GitHub: тут
YouTube: смотреть
После установки нужно дать Claude доступ.
Открываешь Claude Desktop → аккаунт → настройки → подключения. Убедись, что MCP там есть. И что он отображается в категории “Developer”.
Если не видишь , то перепроверь YouTube или GitHub, посмотри, что пропустил.
Ниже есть кусок кода, который нужно вставить в конфиг MCP для Claude Desktop.
{
"mcpServers": {
"unrealMCP": {
"command": "uv",
"args": [
"--directory",
"/path/to/unreal-engine-mcp/Python",
"run",
"unreal_mcp_server_advanced.py"
]
}
}
}Код можно просто скопировать из GitHub Flopperam, ссылку я уже давал.
ВСЁ. ГОТОВО.
Открываешь проект в Unreal, включаешь плагин, запускаешь Claude, разминаешь пальцы и начинаешь писать промпты.
Проблемы? GitHub или YouTube.
Да, выглядит пугающе, но обещаю: когда разберёшься, выходить не захочется.
Мотивация ниже.
И да, есть версия и для Blender.
Просто хочу сказать: ты реально можешь это сделать.
Я знаю, ты сейчас думаешь “сохраню на потом”. Но это “потом” может быть сегодня. И ты будешь рад, обещаю.
Ты справишься.
А если всё это кажется лёгким, то Flopperam уже выкатил бета-версию агентного билда с 3D-генерацией и контекстом.
Развлекайся.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10👀5🤯4
Работа вне офиса или с разных устройств be like: обычный терминал закрыл → сессия пропала → всё по новой. 🙈
Tabminal решает это. Терминал в браузере, сессии хранятся на сервере, можно продолжить работу откуда угодно. WebSocket держит стабильное подключение, при смене сети или обновлении страницы состояние не теряется.
Есть AI-помощник, который видит текущую директорию, env и историю команд, отвечает прямо в терминале. При ошибках команд даёт разбор и варианты исправления.
Встроены Monaco Editor и файловый менеджер, можно редактировать серверные файлы в браузере. Поддерживает PWA. Оптимизирован под мобильные, есть виртуальная HHKB-раскладка для iPad и телефонов.
100% открытый код
Tabminal решает это. Терминал в браузере, сессии хранятся на сервере, можно продолжить работу откуда угодно. WebSocket держит стабильное подключение, при смене сети или обновлении страницы состояние не теряется.
Есть AI-помощник, который видит текущую директорию, env и историю команд, отвечает прямо в терминале. При ошибках команд даёт разбор и варианты исправления.
Встроены Monaco Editor и файловый менеджер, можно редактировать серверные файлы в браузере. Поддерживает PWA. Оптимизирован под мобильные, есть виртуальная HHKB-раскладка для iPad и телефонов.
100% открытый код
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Microsoft купила LinkedIn за 26 млрд не только ради пользователей. Им был нужен Economic Graph.
Google держит поиск за счёт Knowledge Graph.
Amazon контролирует ритейл благодаря Product Graph.
Самые мощные компании мира не просто ищут данные. Они связывают их и дают системам строиться поверх общего смыслового слоя.
А 99% AI-стеков до сих пор воспринимают память как кучу эмбеддингов в векторной базе. Это не понимание, это приблизительное совпадение.
Мы строим агентов, которые читают, но не понимают.
Поэтому я позитивно смотрю на Cognee.
Он приносит семантическую инфраструктуру уровня Big Tech в опенсорс-стек. Чтобы у ИИ была память, смысловой слой и нормальный контекст из коробки.
Коротко, почему это работает:
1. Преимущество "cognify"
Обычная схема — ETL (Extract, Transform, Load). Cognee — ECL (Extract, Cognify, Load). Он не просто складывает текст в базу, а считает эмбеддинги, строит связи между сущностями и сохраняет их как семантический слой данных. Из неструктурированного беспорядка получается что-то вроде мозга.
2. Понимание времени
Это редкость. Большинство RAG — статичные снимки. Cognee понимает динамику данных. Если статус проекта поменялся сегодня, он помнит историю, а не только последнее значение.
3. Он реально учится
Встроенные механизмы обратной связи позволяют улучшать граф со временем. Он не просто отдает ответы, он становится точнее.
Big Tech вбухал в это миллиарды. Здесь можно поднять первую память двумя-тремя строчками кода.
Векторы находят похожее.
Графы находят смысл.
Сложи их вместе и начинай строить мозги.
Это полностью опенсорс.🎁
Google держит поиск за счёт Knowledge Graph.
Amazon контролирует ритейл благодаря Product Graph.
Самые мощные компании мира не просто ищут данные. Они связывают их и дают системам строиться поверх общего смыслового слоя.
А 99% AI-стеков до сих пор воспринимают память как кучу эмбеддингов в векторной базе. Это не понимание, это приблизительное совпадение.
Мы строим агентов, которые читают, но не понимают.
Поэтому я позитивно смотрю на Cognee.
Он приносит семантическую инфраструктуру уровня Big Tech в опенсорс-стек. Чтобы у ИИ была память, смысловой слой и нормальный контекст из коробки.
Коротко, почему это работает:
1. Преимущество "cognify"
Обычная схема — ETL (Extract, Transform, Load). Cognee — ECL (Extract, Cognify, Load). Он не просто складывает текст в базу, а считает эмбеддинги, строит связи между сущностями и сохраняет их как семантический слой данных. Из неструктурированного беспорядка получается что-то вроде мозга.
2. Понимание времени
Это редкость. Большинство RAG — статичные снимки. Cognee понимает динамику данных. Если статус проекта поменялся сегодня, он помнит историю, а не только последнее значение.
3. Он реально учится
Встроенные механизмы обратной связи позволяют улучшать граф со временем. Он не просто отдает ответы, он становится точнее.
Big Tech вбухал в это миллиарды. Здесь можно поднять первую память двумя-тремя строчками кода.
Векторы находят похожее.
Графы находят смысл.
Сложи их вместе и начинай строить мозги.
Это полностью опенсорс.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍18🤯2😭1
This media is not supported in your browser
VIEW IN TELEGRAM
Автор собрал все свои посты про AI-инжиниринг в один PDF.
Внутри:
375+ страниц. Скачать бесплатно❄️
Внутри:
основы LLM
prompt engineering
дообучение
RAG
работа с контекстом
AI-агенты
MCP
оптимизация
деплой
оценка и наблюдаемость
375+ страниц. Скачать бесплатно
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16🤯4😁1
Когда венчурный инвестор говорит, что твоя бизнес-идея тупая, но ты-то знаешь…
ChatGPT бы начал с: “Отличная идея”😭
ChatGPT бы начал с: “Отличная идея”
Please open Telegram to view this post
VIEW IN TELEGRAM
😁71👍4😭3
This media is not supported in your browser
VIEW IN TELEGRAM
Команды
Сохраняй любой промпт как переиспользуемую команду.
На вход один markdown-файл. На выходе слэш-команда. Аргументы тоже поддерживаются.
Не нужно повторять одно и то же.
Сохраняй любой промпт как переиспользуемую команду.
На вход один markdown-файл. На выходе слэш-команда. Аргументы тоже поддерживаются.
/explain $ARGUMENTS → /explain src/auth.tsНе нужно повторять одно и то же.
👍9🤯3
Борис Черни — инженер из Anthropic :
Когда я запустил Claude Code как пет-проект в сентябре 2024, я вообще не представлял, во что это вырастет. Немного ошарашивает, что Claude Code стал базовым инструментом для стольких разработчиков, как вокруг него поднялось комьюнити и как люди используют его подо всё подряд: код, девопс, ресёрч, даже нетехнические задачи. Эта технология выглядит инопланетной и почти магической. Она реально упрощает создание и сборку всего подряд. Всё чаще код больше не узкое место.
Год назад у Claude были проблемы даже с генерацией bash-команд без косяков с экранированием. Он держался секунды или минуты. Тогда только начали появляться первые сигналы, что когда-нибудь он сможет быть полезным для реальной разработки.
Перематываем к текущему моменту. За последние тридцать дней я влил 259 PRов: 497 коммитов, плюс 40к строк, минус 38к строк. Каждая строка написана через Claude Code + Opus 4.5. Claude стабильно держится минутами, часами и сутками подряд (через Stop-хуки). Софтверная разработка меняется на глазах. Мы реально входим в новый период в истории кодинга. И это только разгон.
7👍29😁5
Чувак завернул Claude Code в контейнер и поднял его в Kubernetes как автономного онколл-бота. Он следит за конкретными namespace, ловит ошибки в приложениях, сам заходит в под, делает хотфикс и в конце собирает отчёт. По факту получился инженер дежурства 24/7, только без кофе и бессонных ночей. 😊
Архитектура простая: дашборд + cronjob. Поведение задаётся через env-переменные —
В демке он запускается в autonomous mode: находит ошибку, патчит прямо в рантайме и заканчивает отчётом. Время реакции — около 3–5 минут. Автор проверил на двух кейсах: один простой, другой пожёстче.
Дашборд и прогоны можно глянуть тут
Репозиторий и пример k8s-конфигов (в том числе под ArgoCD) лежат в посте, тут же
Архитектура простая: дашборд + cronjob. Поведение задаётся через env-переменные —
auth_mode (api_key/auth.config) и worker_mode (autonomous/watcher). Мониторит только те namespace, которые вручную разрешили.В демке он запускается в autonomous mode: находит ошибку, патчит прямо в рантайме и заканчивает отчётом. Время реакции — около 3–5 минут. Автор проверил на двух кейсах: один простой, другой пожёстче.
Дашборд и прогоны можно глянуть тут
Репозиторий и пример k8s-конфигов (в том числе под ArgoCD) лежат в посте, тут же
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍21🤯3
Старший инженер Google выкатил документ на 424 страницы под названием Agentic Design Patterns.
Каждая глава подкреплена кодом и закрывает передний край разработки AI-систем:
→ цепочки промптов, роутинг, память
→ MCP и координация нескольких агентов
→ guardrails, reasoning, планирование
Это не блог-пост. Это полноценная программа. И она бесплатна.
PDF-версия кому нужна📖
Каждая глава подкреплена кодом и закрывает передний край разработки AI-систем:
→ цепочки промптов, роутинг, память
→ MCP и координация нескольких агентов
→ guardrails, reasoning, планирование
Это не блог-пост. Это полноценная программа. И она бесплатна.
PDF-версия кому нужна
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍19🫡3
Media is too big
VIEW IN TELEGRAM
Ещё один проект на сегодня: разработчик показал just-bash (реализацию bash на TypeScript под AI-агентов.) Зачем?
Агентам удобно разбираться в данных через шелл, и это работает лучше, чем куча спец-тулов. Внутри grep, sed, awk и всё, что обычно нужно Claude Code или Cursor. Есть бинарь, оверлей-ФС, sandbox-режим и API совместимое с Vercel Sandbox.
Практика такая: агент запускает just-bash, копается в проектах, патчит, проверяет, не имея доступа к настоящей системе. Быстро, безопасно в рамках песочницы и без выхода за root. Большую часть кода написал Opus 4.5, сам автор всё не читал.😊
Пакет: тут
Подробнее: тут
На видео показан пример агента, исследующего только что созданную кодовую базу.
Агентам удобно разбираться в данных через шелл, и это работает лучше, чем куча спец-тулов. Внутри grep, sed, awk и всё, что обычно нужно Claude Code или Cursor. Есть бинарь, оверлей-ФС, sandbox-режим и API совместимое с Vercel Sandbox.
Практика такая: агент запускает just-bash, копается в проектах, патчит, проверяет, не имея доступа к настоящей системе. Быстро, безопасно в рамках песочницы и без выхода за root. Большую часть кода написал Opus 4.5, сам автор всё не читал.
Пакет: тут
Подробнее: тут
На видео показан пример агента, исследующего только что созданную кодовую базу.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5
Forwarded from sulfuras
This media is not supported in your browser
VIEW IN TELEGRAM
Дообучи DeepSeek-OCR под свой язык
(все на локалке, 100%)
Большинство vision-моделей воспринимают документы как огромные последовательности токенов, из-за чего обработка длинного контекста получается дорогой и медленной.
DeepSeek-OCR использует контекстное оптическое сжатие, чтобы переводить 2D-лейауты в vision-токены. Это дает эффективную обработку сложных документов.
Это vision-модель на 3B параметров, которая дает 97% precision, при этом использует в 10 раз меньше vision-токенов, чем текстовые LLM.
И да, ее можно без проблем дообучить под свой кейс на одной GPU.
Я использовал Unsloth для эксперимента на персидском тексте и получил улучшение character error rate на 88.26%.
↳ Базовая модель: 149% character error rate (CER)
↳ Дообученная модель: 60% CER (на 57% точнее)
↳ Время обучения: 60 steps на одной GPU
Персидский был просто тестовым кейсом. Ты можешь подставить свой датасет под любой язык, тип документов или конкретную предметную область, с которой работаешь.
Все на 100% open source
Технический стек:
- UnslothAI для запуска и тонкой настройки модели
- LightningAI среды для хостинга и развертывания
Код и настройки среды можно найти здесь
(все на локалке, 100%)
Большинство vision-моделей воспринимают документы как огромные последовательности токенов, из-за чего обработка длинного контекста получается дорогой и медленной.
DeepSeek-OCR использует контекстное оптическое сжатие, чтобы переводить 2D-лейауты в vision-токены. Это дает эффективную обработку сложных документов.
Это vision-модель на 3B параметров, которая дает 97% precision, при этом использует в 10 раз меньше vision-токенов, чем текстовые LLM.
И да, ее можно без проблем дообучить под свой кейс на одной GPU.
Я использовал Unsloth для эксперимента на персидском тексте и получил улучшение character error rate на 88.26%.
↳ Базовая модель: 149% character error rate (CER)
↳ Дообученная модель: 60% CER (на 57% точнее)
↳ Время обучения: 60 steps на одной GPU
Персидский был просто тестовым кейсом. Ты можешь подставить свой датасет под любой язык, тип документов или конкретную предметную область, с которой работаешь.
Все на 100% open source
Технический стек:
- UnslothAI для запуска и тонкой настройки модели
- LightningAI среды для хостинга и развертывания
Код и настройки среды можно найти здесь
👍15😭4
This media is not supported in your browser
VIEW IN TELEGRAM
Prompt:
HTML Output (размер результата):
Характеристики моделей:
* Во всех тестах использовался самый первый “сырой” ответ модели, без доп.прогонов и уточняющих подсказок.
* GitHub с исходниками и метриками
* Время размышления замерялось вручную с момента нажатия Enter. На скриншотах таймер стартует только в момент начала инференса, поэтому цифры могут немного расходиться.
Создать анимацию запуска ракеты: старт с зажигания двигателя и густого дыма, затем медленный отрыв от площадки с постепенным ускорением. Всё в одном HTML-файле на HTML/CSS/JS.HTML Output (размер результата):
618 строк HTML (gpt-5.2-extended-thinking)
332 строки HTML (gemini-3-pro)
188 строк HTML (grok-4.1-thinking)
820 строк HTML (opus-4.5-thinking-32k)
Характеристики моделей:
- gpt-5.2-extended-thinking: Оценка 9.6/10. Reasoning Time: 22 c, общий ответ: 129 c, объём reasoning: 205 слов
- gemini-3-pro: Оценка 9/10. Reasoning Time: 10 c, общий ответ: 36 c, объём reasoning: 203 слова
- grok-4.1-thinking: Оценка 2.8/10. Reasoning Time: 6 c, общий ответ: 10 c, объём reasoning: 63 слова
- claude-opus-4.5-thinking-32k: Оценка 7.4/10. Reasoning Time: 72 c, общий ответ: 184 c, объём reasoning: 1353 слова
* Во всех тестах использовался самый первый “сырой” ответ модели, без доп.прогонов и уточняющих подсказок.
* GitHub с исходниками и метриками
* Время размышления замерялось вручную с момента нажатия Enter. На скриншотах таймер стартует только в момент начала инференса, поэтому цифры могут немного расходиться.
👀12😁1
Бесплатный API с моделями ИИ — без привязки карты.
✓ 1000 запросов в день к моделям OpenAI
✓ Есть Qwen 3, Kimi K2 и Llama
✓ Аудио, голос, reasoning и прочее
Сервис называется Groq → http://groq.com
✓ 1000 запросов в день к моделям OpenAI
✓ Есть Qwen 3, Kimi K2 и Llama
✓ Аудио, голос, reasoning и прочее
Сервис называется Groq → http://groq.com
1👍17
This media is not supported in your browser
VIEW IN TELEGRAM
Sandbox Mode
«Я могу запустить npm install?» [Allow]
«Я могу запустить npm test?» [Allow]
«Я могу прочитать этот файл через cat?» [Allow]
и так по кругу штук сто раз
Один раз задаешь рамки. Дальше Claude спокойно крутится внутри них.
Максимальная скорость по принципу yolo при реальной безопасности
Узнать больше🎁
«Я могу запустить npm install?» [Allow]
«Я могу запустить npm test?» [Allow]
«Я могу прочитать этот файл через cat?» [Allow]
и так по кругу штук сто раз
/sandbox → границы заданы → Claude работает внутриОдин раз задаешь рамки. Дальше Claude спокойно крутится внутри них.
Максимальная скорость по принципу yolo при реальной безопасности
Узнать больше
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11