This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Я наконец-то понял, зачем нам нужно столько GPU
3😁70🔥24❤6💯5
Forwarded from атлант расправил плечи
Хватит писать коммиты руками
Последние года полтора я точно не пишу коммит сообщения сам, а пользовался одним инструментом для генерации коммитов. Да, знаю что в том же Cursor есть кнопка авто-генерации, но она пишет какую-то дичь чаще.
Claude Code тоже пишет коммиты но добавляет себя туда как со-автора и в целом какими блоками коммитить - я предпочитаю управлять сам. Несмотря на то что пользуюсь CC -> мой файловый редактор остается Cursor и я там просто нажимаю кнопку "Commit", далее срабатывает git hook и на выходе сгенерированное сообщение.
Что важно для меня:
• соблюдение conventional commits
• one line commit в духе feat(auth): added registration system
• четкое определение типа коммита - feat/refactor/fix/docs/chore/...
• понятный scope -> feat(auth) / refactor(rag) и т.д.
• если коммит короткий -> одна строка, если большой - одна строка + буллеты в духе:
Предыдущий инструмент не устраивал меня много чем, поэтому вчера за вечер я собрал свой первый опенсорс на Go!
Встречайте - CWAI (Commits With AI)
Как он работает?
Вы добавляете файлы в stage (git add), нажимаете Commit в вашем IDE/делаете git commit/пишите cwai в терминале, он генерирует вам сообщение - вы аппрувите/регенерируете/правите если надо (а задача чтобы правок было минимум) -> коммитите.
Как установить?
Быстрая установка для macOS/Linux:
Для Windows:
Скачайте Windows Zip из последнего релиза и запустите cwai.exe
Для тех кто хочет просто сам установить и у кого есть Go:
Что нужно для работы?
Инструмент поддерживает любой OpenAI Compatible API (OpenAI/OpenRouter/DeepSeek/любой другой). Все что нужно - Base URL + API KEY + модель.
По дефолту стоит OpenAI и лично я пользуюсь им + gpt-5-mini (стоит как дефолтная модель).
Чтобы настроить все параметры - для интерактивной установки введите:
Интерактивная установка - настройка ключей, api url и модели
Непосредственно в репозитории - установка git hook - это нужно делать в каждом новом
Если у вас будут какие-то вопросы/идеи/предложения/проблемы - можно писать в Discussions на гитхабе или там же открывать Issues.
А лучшая поддержка для меня - это звезда на гитхабе ⭐
@atlfreedom
* а тут рассказываю про AI-coding/вайбкодинг
Последние года полтора я точно не пишу коммит сообщения сам, а пользовался одним инструментом для генерации коммитов. Да, знаю что в том же Cursor есть кнопка авто-генерации, но она пишет какую-то дичь чаще.
Claude Code тоже пишет коммиты но добавляет себя туда как со-автора и в целом какими блоками коммитить - я предпочитаю управлять сам. Несмотря на то что пользуюсь CC -> мой файловый редактор остается Cursor и я там просто нажимаю кнопку "Commit", далее срабатывает git hook и на выходе сгенерированное сообщение.
Что важно для меня:
• соблюдение conventional commits
• one line commit в духе feat(auth): added registration system
• четкое определение типа коммита - feat/refactor/fix/docs/chore/...
• понятный scope -> feat(auth) / refactor(rag) и т.д.
• если коммит короткий -> одна строка, если большой - одна строка + буллеты в духе:
refactor(rag): changed rag pipeline
• introduced BM25
• refactored qdrant to postgres
• ...
Предыдущий инструмент не устраивал меня много чем, поэтому вчера за вечер я собрал свой первый опенсорс на Go!
Встречайте - CWAI (Commits With AI)
Как он работает?
Вы добавляете файлы в stage (git add), нажимаете Commit в вашем IDE/делаете git commit/пишите cwai в терминале, он генерирует вам сообщение - вы аппрувите/регенерируете/правите если надо (а задача чтобы правок было минимум) -> коммитите.
Как установить?
Быстрая установка для macOS/Linux:
curl -fsSL https://raw.githubusercontent.com/nikmd1306/cwai/main/install.sh | bash
Для Windows:
Скачайте Windows Zip из последнего релиза и запустите cwai.exe
Для тех кто хочет просто сам установить и у кого есть Go:
go install github.com/nikmd1306/cwai@latest
export PATH="$PATH:$(go env GOPATH)/bin"
Что нужно для работы?
Инструмент поддерживает любой OpenAI Compatible API (OpenAI/OpenRouter/DeepSeek/любой другой). Все что нужно - Base URL + API KEY + модель.
По дефолту стоит OpenAI и лично я пользуюсь им + gpt-5-mini (стоит как дефолтная модель).
Чтобы настроить все параметры - для интерактивной установки введите:
Интерактивная установка - настройка ключей, api url и модели
cwai setup
Непосредственно в репозитории - установка git hook - это нужно делать в каждом новом
cwai hook set
Если у вас будут какие-то вопросы/идеи/предложения/проблемы - можно писать в Discussions на гитхабе или там же открывать Issues.
А лучшая поддержка для меня - это звезда на гитхабе ⭐
@atlfreedom
* а тут рассказываю про AI-coding/вайбкодинг
7🔥29❤15👍9🤡2
Нейро Ковальский
Довайбкодился, садись, пять! Хочу вам представить свой сервис по агрегации поисковых движков! https://vamplabai.com/ Это продолжения бота @neuraldeepbot Все очень просто! Авторизация через тгбота Есть z.ai Есть tavily Есть поисковик по телеграм с разметкой…
Digest agent system
Тем временем сервис становится все стабильнее и стабильнее
А аудитория у дайджеста растет!
На забывайте переходить в источники и читать фулл посты там точно будет самая мякотка
Юзер дашборд (https://vamplabai.com/)
Бот @neuraldeepbot
Тем временем сервис становится все стабильнее и стабильнее
А аудитория у дайджеста растет!
На забывайте переходить в источники и читать фулл посты там точно будет самая мякотка
Юзер дашборд (https://vamplabai.com/)
Бот @neuraldeepbot
1❤8🔥7👍6👏4
Forwarded from Data Secrets
Google тихо порезали доступ к подписке через OpenClaw
Прошло меньше недели со дня, когда OpenAI купили OpenClaw, и конкуренты уже реагируют вот такими жесткими мерами.
Суть в том, что если вы подключали Google Antigravity / Gemini / Ultra к OpenClaw по OAuth, то ваш аккаунт, скорее всего, или уже забанили, или скоро забанят. Причем без предупреждения.
Причина: нарушение ToS посредством использования токенов в стороннем продукте. Хотя, по факту, OpenClaw – просто прокси, то есть прослойка, инициирующая запросы в сам сервис.
Создатель OpenClaw назвал поведение Google «драконовским» и предупредил, что, скорее всего, удалит из сервиса поддержку Antigravity.
Никто не хочет держаться за ручки с Альтманом даже виртуально…
Прошло меньше недели со дня, когда OpenAI купили OpenClaw, и конкуренты уже реагируют вот такими жесткими мерами.
Суть в том, что если вы подключали Google Antigravity / Gemini / Ultra к OpenClaw по OAuth, то ваш аккаунт, скорее всего, или уже забанили, или скоро забанят. Причем без предупреждения.
Причина: нарушение ToS посредством использования токенов в стороннем продукте. Хотя, по факту, OpenClaw – просто прокси, то есть прослойка, инициирующая запросы в сам сервис.
Создатель OpenClaw назвал поведение Google «драконовским» и предупредил, что, скорее всего, удалит из сервиса поддержку Antigravity.
Никто не хочет держаться за ручки с Альтманом даже виртуально…
1🤡42😁14👍9❤3
А ты играешь в русскую рулетку?
Вопрос всем AI кодерам
Вопрос всем AI кодерам
Anonymous Poll
40%
Подтверждаю каждую команду
40%
claude --dangerously-skip-permissions 😈
25%
Настраиваю кастомные правила
3%
Настроил что-то другое расскажу в коментах
👍7❤5🔥4
Мемный денек получился)
Рефат кстати описывает тут упрощение AGENT.md + CLAUDE.md и context free отношения с кодинговыми агентами
Рефат кстати описывает тут упрощение AGENT.md + CLAUDE.md и context free отношения с кодинговыми агентами
😁57👍10 3
Вчера выбил 100% на weekly limits на двух подписках claude code
На секунду почувствовал что задачки сейчас встанут, но быстро переключился на codex cli(боже какие же модели gpt слабые, или слишком самостоятельные для меня)
Благо лимит на одной откатился сегодня с утра и тряска прекратилась
На секунду почувствовал что задачки сейчас встанут, но быстро переключился на codex cli(боже какие же модели gpt слабые, или слишком самостоятельные для меня)
Благо лимит на одной откатился сегодня с утра и тряска прекратилась
😁59🔥17🤔8❤2
Forwarded from ElKornacio
кароч, ща вкину противоречивый тейк, с которым я и сам не на 100% согласен, но все же, довольно сильно в него верю
тейки уровня "ИИ-агенты пишут код не так, как я хочу", это дроч в духе "мой код на JavaScript компилируется не в тот ассемблер, который мне привычен".
разница только в том, что вы тот машинный код, в который компилится JS даже не видите, а если бы и видели - многие ли сегодня умеют читать-писать на fasm/masm?
а когда вы просите ИИ писать на _вашем_ языке, а он вдруг взял, и написал не так, как вы любите - начинаются истерики.
гайз, момент "мы пытаемся научить ИИ писать, как человек" был пропущен ещё в начале-середине 2025. в ту секунду, когда ИИ научился писать работающие приложения, и нормально чинить архитектуру и техдолг, задача "научить ИИ писать как человек" испарилась, она больше никому не нужна, её никто не решает.
сейчас актуальна задача "научиться встраивать и поддерживать тот код, который пишет ИИ" - как правильно его тестить (при помощи ИИ), как проектировать и следить за архитектурой (при помощи ИИ), как вычищать техдолг (при помощи ИИ) и так далее.
останьте от кода. он больше не ваш. вы вообще не должны его видеть.
ИИ написал большущий файл на 3000 строк? дурашка, это он для тебя мельчит, ему и 100000 было бы норм, для него вся кодовая база - одно большое полотно текста.
ИИ использует не твой любимый архитектурный паттерн? вместо ООП пишет функционально? вместо instance refs передаёт колбеки? господи, тебе не насрать?
"наша бизнес-логика такая сложная, ИИ её не поймёт" = в течение 3 лет вас выебут компании, кто смог адаптироваться под ИИ и развивал продукт в 10-20-50 раз быстрее.
"ИИ делает баги" = ну и что? разрабы тоже их делают, хоть и значительно меньше (да, даже в очень хорошем ИИ-пайплайне с ИИ-тестами, ИИ все равно делает багов заметно больше чем человек). перестройте QA, научитесь в graceful rollouts, чтобы быстро детектить баги, выстройте авто-ревью, раздробите продукт и так далее: это ваша задача придумать, как использовать ИИ эффективно.
вайбы уровня "зачем нужны самолёты, поезд приезжает на вокзал прям в центре города, а из аэропорта ещё надо потом в город ехать, ну и что, что 5 дней в пути, зато надежнее" в 2025 вызывали реакцию "кек, дед с Хабра", а в 2026 по большей части раздражают.
ещё раз: забудьте про "внедрять нам ИИ или нет". сейчас уже момент "что мне поменять в себе, компании, процессах, людях, продукте, чтобы внедрить ИИ".
тейки уровня "ИИ-агенты пишут код не так, как я хочу", это дроч в духе "мой код на JavaScript компилируется не в тот ассемблер, который мне привычен".
разница только в том, что вы тот машинный код, в который компилится JS даже не видите, а если бы и видели - многие ли сегодня умеют читать-писать на fasm/masm?
а когда вы просите ИИ писать на _вашем_ языке, а он вдруг взял, и написал не так, как вы любите - начинаются истерики.
гайз, момент "мы пытаемся научить ИИ писать, как человек" был пропущен ещё в начале-середине 2025. в ту секунду, когда ИИ научился писать работающие приложения, и нормально чинить архитектуру и техдолг, задача "научить ИИ писать как человек" испарилась, она больше никому не нужна, её никто не решает.
сейчас актуальна задача "научиться встраивать и поддерживать тот код, который пишет ИИ" - как правильно его тестить (при помощи ИИ), как проектировать и следить за архитектурой (при помощи ИИ), как вычищать техдолг (при помощи ИИ) и так далее.
останьте от кода. он больше не ваш. вы вообще не должны его видеть.
ИИ написал большущий файл на 3000 строк? дурашка, это он для тебя мельчит, ему и 100000 было бы норм, для него вся кодовая база - одно большое полотно текста.
ИИ использует не твой любимый архитектурный паттерн? вместо ООП пишет функционально? вместо instance refs передаёт колбеки? господи, тебе не насрать?
"наша бизнес-логика такая сложная, ИИ её не поймёт" = в течение 3 лет вас выебут компании, кто смог адаптироваться под ИИ и развивал продукт в 10-20-50 раз быстрее.
"ИИ делает баги" = ну и что? разрабы тоже их делают, хоть и значительно меньше (да, даже в очень хорошем ИИ-пайплайне с ИИ-тестами, ИИ все равно делает багов заметно больше чем человек). перестройте QA, научитесь в graceful rollouts, чтобы быстро детектить баги, выстройте авто-ревью, раздробите продукт и так далее: это ваша задача придумать, как использовать ИИ эффективно.
вайбы уровня "зачем нужны самолёты, поезд приезжает на вокзал прям в центре города, а из аэропорта ещё надо потом в город ехать, ну и что, что 5 дней в пути, зато надежнее" в 2025 вызывали реакцию "кек, дед с Хабра", а в 2026 по большей части раздражают.
ещё раз: забудьте про "внедрять нам ИИ или нет". сейчас уже момент "что мне поменять в себе, компании, процессах, людях, продукте, чтобы внедрить ИИ".
30❤97🔥58😁18🤡12💯8👍5💊2
4 День тестирую RustDesk
Флоу
Ноут запущен всегда и стоит дома
На телефон и ноут установлен RustDesk, так же настроен remote id(который стабилизирует скорость и качество отклика) это мой сервер развернутый в РУ облаке имеет сатик IP
В целом очень доволен такой связкой, (подписка не 200 макс) по этому ремоут потестить не могу
Из бонусов, голосовой ввод от клавиатуры IPhone
Завязал на этот ноут разработку одного сервиса (24/7 могу вкинуть идею и четко управлять сессией Claude Code, честно поражен насколько проработан интерфейс для мобилы)
Скажу я вам очень удобно и только так я выгребаю фулл лимиты!
Флоу
Ноут запущен всегда и стоит дома
На телефон и ноут установлен RustDesk, так же настроен remote id(который стабилизирует скорость и качество отклика) это мой сервер развернутый в РУ облаке имеет сатик IP
В целом очень доволен такой связкой, (подписка не 200 макс) по этому ремоут потестить не могу
Из бонусов, голосовой ввод от клавиатуры IPhone
Завязал на этот ноут разработку одного сервиса (24/7 могу вкинуть идею и четко управлять сессией Claude Code, честно поражен насколько проработан интерфейс для мобилы)
Скажу я вам очень удобно и только так я выгребаю фулл лимиты!
🔥31❤13👍9💯1
Рубрика LLM Ops
Как и обещал в чатике выгружаю тесты qwen3.5-35b-a3b на своих 4090(48gb x2)
К станку
Как обычно взял FP16 и
Загрузка
Работа по анализу ValeDesk в курсоре
Ризонинг в итоге вырубил настройкой пока что на инфренесне, так как это конечно тьма, на привет 1-2 минуты думает в формате ПТСР
Single request: 90-100 tok/s (короткий контекст), 37-43 tok/s (длинный 5-9K)
- Tool calling TTFT: 329-396 ms (45-65 т/c)
- Concurrent throughput: 57 tok/s (3 параллельных)
- Degradation на длинном контексте: скорость падает с ростом промпта (~100→24 tok/s на 9K)
Точность и качество работы скоро будет (разослал друзьям по цеху доступы на сервер)
Напомню бенчи, модель якобы обгоняет sonnet 4.5 в некоторых задачах и что бы поднять ее фулл на весь контекст хватает сервера на 900-1.2 млн
Как и обещал в чатике выгружаю тесты qwen3.5-35b-a3b на своих 4090(48gb x2)
К станку
Как обычно взял FP16 и
image: vllm/vllm-openai:nightly"--tensor-parallel-size", "2",
"--enable-expert-parallel",
"--data-parallel-size", "1",
"--distributed-executor-backend", "mp",
"--gpu-memory-utilization", "0.97",
Загрузка
qwen3.5-35b-a3b | (Worker pid=132) (Worker_TP0_EP0 pid=132) INFO 03-02 11:16:40 [gpu_worker.py:423] Available KV cache memory: 11.59 GiB
qwen3.5-35b-a3b | (EngineCore_DP0 pid=93) INFO 03-02 11:16:40 [kv_cache_utils.py:1314] GPU KV cache size: 303,072 tokens
qwen3.5-35b-a3b | (EngineCore_DP0 pid=93) INFO 03-02 11:16:40 [kv_cache_utils.py:1319] Maximum concurrency for 200,000 tokens per request: 5.96x
Работа по анализу ValeDesk в курсоре
qwen3.5-35b-a3b | (APIServer pid=1) INFO 03-02 11:46:53 [loggers.py:259] Engine 000: Avg prompt throughput: 4376.5 tokens/s, Avg generation throughput: 68.0 tokens/s, Running: 1 reqs, Waiting: 0 reqs, GPU KV cache usage: 0.6%, Prefix cache hit rate: 0.0%, MM cache hit rate: 66.7%
Ризонинг в итоге вырубил настройкой пока что на инфренесне, так как это конечно тьма, на привет 1-2 минуты думает в формате ПТСР
Single request: 90-100 tok/s (короткий контекст), 37-43 tok/s (длинный 5-9K)
- Tool calling TTFT: 329-396 ms (45-65 т/c)
- Concurrent throughput: 57 tok/s (3 параллельных)
- Degradation на длинном контексте: скорость падает с ростом промпта (~100→24 tok/s на 9K)
Точность и качество работы скоро будет (разослал друзьям по цеху доступы на сервер)
Напомню бенчи, модель якобы обгоняет sonnet 4.5 в некоторых задачах и что бы поднять ее фулл на весь контекст хватает сервера на 900-1.2 млн
🔥24🤔12❤3👍3👌1
Forwarded from Остриков пилит агентов
🤣🤣🤣
кому нужны все ваши superpowers и beads, когда есть такое
https://github.com/i1kazantsev/claude-code-spinner
кому нужны все ваши superpowers и beads, когда есть такое
https://github.com/i1kazantsev/claude-code-spinner
37😁82❤14🔥6👍5🤣1
Forwarded from Pavel Zloi
Соцсети доживают свой век
Всё чаще замечаю, что листать динамическую ленту на ютубе, в твиттере, инсте и тиктоке в последнее время становится невыносимо, cоцсети завалены низкокачественным нейроконтентом.
Заметная часть коротких видео это говорилка в стиле озвучивателя местности, треш на тему популярных киновселенных, песенки среднего качества, ожившие картинки и прочий ai slop разного пошиба.
Площадки, на которых доминируют текстовые сообщения, заполнены пресным и безэмоциональным текстовым нейрослопом, в котором авторы даже не стараются почистить текст, убрав из него клише, присущие нейросетям. Каждый второй пост это лонгриды, каждый первый пост раздутая вода на киселе. Да даже мемчиков новых почти не появляется, а то, что попадается на глаза, лишь переосмысление древних скрижалей.
Соцсети, в которых доминируют картинки, заполнены людьми с "идеальными" фигурами, "идеальными" снимками идеальных "отпусков", сгенерированных зверей, детей и так далее.
Это я к тому веду, что настоящего как будто ничего не осталось. Отсюда возникает вопрос, а нужны ли социальные сети в эпоху ai slop в принципе? Какой от них прок, если пока значительная часть, а скоро и вовсе почти вся, контента будет сгенерирована модельками? Для кого публикуется весь этот контент, для других нейросетей, а как же реклама? Заметен ли уже негативный экономический эффект от засилья нейрослопа?
Подводя итог, хочу сказать, что мне кажется, что соцсети в привычном нам виде уже почти изжили себя, если так дальше пойдёт дело, то скоро их ждёт закат, и мне очень любопытно, что будет дальше.
Всё чаще замечаю, что листать динамическую ленту на ютубе, в твиттере, инсте и тиктоке в последнее время становится невыносимо, cоцсети завалены низкокачественным нейроконтентом.
Заметная часть коротких видео это говорилка в стиле озвучивателя местности, треш на тему популярных киновселенных, песенки среднего качества, ожившие картинки и прочий ai slop разного пошиба.
Площадки, на которых доминируют текстовые сообщения, заполнены пресным и безэмоциональным текстовым нейрослопом, в котором авторы даже не стараются почистить текст, убрав из него клише, присущие нейросетям. Каждый второй пост это лонгриды, каждый первый пост раздутая вода на киселе. Да даже мемчиков новых почти не появляется, а то, что попадается на глаза, лишь переосмысление древних скрижалей.
Соцсети, в которых доминируют картинки, заполнены людьми с "идеальными" фигурами, "идеальными" снимками идеальных "отпусков", сгенерированных зверей, детей и так далее.
Это я к тому веду, что настоящего как будто ничего не осталось. Отсюда возникает вопрос, а нужны ли социальные сети в эпоху ai slop в принципе? Какой от них прок, если пока значительная часть, а скоро и вовсе почти вся, контента будет сгенерирована модельками? Для кого публикуется весь этот контент, для других нейросетей, а как же реклама? Заметен ли уже негативный экономический эффект от засилья нейрослопа?
Подводя итог, хочу сказать, что мне кажется, что соцсети в привычном нам виде уже почти изжили себя, если так дальше пойдёт дело, то скоро их ждёт закат, и мне очень любопытно, что будет дальше.
👍47😁18💯11🤣6❤4🤡3🤔2
Kanban для управления кодовыми агентами
Самое интересное что только вчера обсуждали что openclaw не хватает канбан доски для командной работой над кодовыми агентами, и вот подход акторов на элексире
Гоу разбирать на части ребят!
OpenAI открыла "ДЕМКУ" оркестратор Symphony — платформу для построения сложных AI‑воркфлоу
Почему демка? Да потому что интеграция в Linear да и только, зато отличный пример как надо привлекать пользователей тратить токены подписки Codex CLI? =)
https://github.com/openai/symphony
Самое интересное что только вчера обсуждали что openclaw не хватает канбан доски для командной работой над кодовыми агентами, и вот подход акторов на элексире
Гоу разбирать на части ребят!
OpenAI открыла "ДЕМКУ" оркестратор Symphony — платформу для построения сложных AI‑воркфлоу
Почему демка? Да потому что интеграция в Linear да и только, зато отличный пример как надо привлекать пользователей тратить токены подписки Codex CLI? =)
https://github.com/openai/symphony
GitHub
GitHub - openai/symphony: Symphony turns project work into isolated, autonomous implementation runs, allowing teams to manage work…
Symphony turns project work into isolated, autonomous implementation runs, allowing teams to manage work instead of supervising coding agents. - openai/symphony
1🔥21🤣8❤7👍1
Нейро Ковальский
Kanban для управления кодовыми агентами
This media is not supported in your browser
VIEW IN TELEGRAM
Kovalskii варианты?
4 часа в режиме Ralph loop (шутка, я делал это руками)
Получилось на основе ValeDesk/OpenClaw/PiClaw/Topsha
Сделать LocalTaskClaw (да да основная идея взять кодовых агентов на локал моделях и засунуть из в среду Kanban моя идея не новая но может реализация вам понравится)
Что сделанно
Засунул их в апи канбана
Создал туда Оркестратора
И смотреть как всегорит что они натворят если поставить им задачку наспавниться и решить что-то
Почти VibeKanban
https://github.com/vakovalskii/LocalTaskClaw
За что больше всего попотел так это за онбординг и простую установку из cli
При первых 2 вариантах за сохранность файлов не ручаюсь вообще никаких тестов не делал! =)
4 часа в режиме Ralph loop (шутка, я делал это руками)
Получилось на основе ValeDesk/OpenClaw/PiClaw/Topsha
Сделать LocalTaskClaw (да да основная идея взять кодовых агентов на локал моделях и засунуть из в среду Kanban моя идея не новая но может реализация вам понравится)
Что сделанно
Засунул их в апи канбана
Создал туда Оркестратора
И смотреть как все
Почти VibeKanban
https://github.com/vakovalskii/LocalTaskClaw
За что больше всего попотел так это за онбординг и простую установку из cli
curl -fsSL https://raw.githubusercontent.com/vakovalskii/LocalTaskClaw/main/install.sh | bash
При первых 2 вариантах за сохранность файлов не ручаюсь вообще никаких тестов не делал! =)
3🔥42❤11 11
This media is not supported in your browser
VIEW IN TELEGRAM
4 Mac Studio 512 gb RAM каждый
2TB памяти и возможность поднять Kimi K2.5?
В захлеб поглядел этот видос от NetworkChuck видос не новый но все же https://youtu.be/bFgTxr5yst0?si=MGyFe0Qak6-c0Yz3
Кстати соединили их через exo вот это я понимаю local openclaw
Ваши ставки сколько стоит?)
22 t/s кстати выдает
2TB памяти и возможность поднять Kimi K2.5?
В захлеб поглядел этот видос от NetworkChuck видос не новый но все же https://youtu.be/bFgTxr5yst0?si=MGyFe0Qak6-c0Yz3
Кстати соединили их через exo вот это я понимаю local openclaw
Ваши ставки сколько стоит?)
22 t/s кстати выдает
2😁26👍15❤9🤔1🤮1