С восьмым марта, с международным женским днём!
Поздравляю вас, уважаемые женщины!
Желаю, чтоб у вас в душе всегда была весна.
Чтоб счастливы были всегда.
Пусть будет улыбка с утра до ночи.
А также было отличным здоровье ваше и близких.
Пусть у вас будет множество позитивных впечатлений,
и оставались всегда молодыми и красивыми.
Я, конечно, плохо вижу внешность, но красоту души чувствую.
Так вот её сохранения и приумножения вам желаю.
😎 Незрячий web3 программист (подписаться)
Чат | бот
Поздравляю вас, уважаемые женщины!
Желаю, чтоб у вас в душе всегда была весна.
Чтоб счастливы были всегда.
Пусть будет улыбка с утра до ночи.
А также было отличным здоровье ваше и близких.
Пусть у вас будет множество позитивных впечатлений,
и оставались всегда молодыми и красивыми.
Я, конечно, плохо вижу внешность, но красоту души чувствую.
Так вот её сохранения и приумножения вам желаю.
😎 Незрячий web3 программист (подписаться)
Чат | бот
2❤25
2 ИИ провели аудит ETH Strategy по 4К: сравниваю ответы и проверяю.
А также изучил функционал, добавив оценку по практике.
Использовал Parallel AI и AskSurf.
Этот пост публикую в рамках темы 4К+ анализа проектов с ИИ. Ваши из комментариев - на следующих неделях.
Что за проект?
ETH Strategy - это DeFi-протокол казначейства на Ethereum, который даёт экспозицию с кредитным плечом на ETH без рисков ликвидации. Идея - DeFi-аналог MicroStrategy (MSTR).
Протокол работает так: пользователи покупают Long Bonds (конвертируемые ноты), отдают USDC и получают CDT (debt token) + NFT option. Это 0% процентный долг - протокол берёт в долг бесплатно, потому что даёт опцион.
Казна растёт через выпуск облигаций и lending (размещает ETH в Morpho, получая проценты).
Цена STRAT: $0.14 (-83.81% от максимума), Market Cap: ~$690K.
Команда:
- AskSurf: 3/5 (соцсети есть, но без имён)
- Parallel: 2/5 (полная анонимность)
Оба сошлись - команды нет в LinkedIn.
Концепт:
- AskSurf: 4/5
- Parallel: 5/5
Оба признают уникальность - DeFi-аналог MSTR.
Интересно, что по данным DefiLlama, TVL основного хранилища 3.8 МЛН $ - это не много, но и не мало. При этом, он не падает, и даже растёт (на 2% за месяц).
На сайте написано, что у них вложено 11778 ETH - это вообще около 23,5 МЛН $.
А mGAV - 0.80X, Net Leverage - 1.15X.
Доходность ETH с момента запуска - +6.8%.
Коин:
- AskSurf: 3/5
- Parallel: 2/5
Самое интересное! Parallel нашёл то, чего нет у AskSurf: 75.5% токенов разлочится за 2 месяца - это огромный риск. AskSurf просто не нашёл данных.
Критичный момент по токеномике:
Ни я в документации, ни оба ИИ не нашли данных о том, кому сколько распределили на TGE. Есть только Total Supply (107.87M) и Circ Supply (4.86M = 4.5%). Кто владеет остальными 95.5% - непрозрачно. Это красный флаг.
Код:
- AskSurf: 2/5 (только токен открыт)
- Parallel: 5/5 (якобы есть GitHub)
Тут Parallel СГЛАЗИЛ 🙂! Нашёл GitHub, но это оказался ДРУГОЙ ПРОЕКТ - $ETHXR, а не $STRAT. Это разные токены. В docs.ethstrat.xyz нет ссылки на GitHub репозитория - только аудит Nethermind.
Что упустили оба ИИ:
ESPN - отдельный vault для доходности (Perpetual Note). ESPN уже прошёл аудит Nethermind. Аудит core protocol (2 штуки) обещают опубликовать при запуске permissionless bonding.
Итог:
- AskSurf: 3/5
- Parallel: 14/20 (~3.5/5), но с ошибкой в коде
AskSurf оказался честнее - сказал что код закрыт, и это правда. Parallel ошибся с GitHub.
Главный риск: непрозрачная токеномика + анонимная команда.
Дополнение - практика:
Зашёл в их веб приложение - довольно удобно всё:
На STRAT - стейкинг и онстейкинг токена.
На ESPN (хранилище) есть минт и Redeem. APR - 18.01%.
В Mint надо отправить USDS, чтоб получить ESPN.
USDS покупать можно в CoW Swap.
Считаю это минусом, что не поддерживают USDC и другие стейблы.
Так вот: купил, обновил страницу, указал сумму, нажал "Approve".
После подтверждения транзакции кнопка стала "Deposit USDS".
Странно, что в ESPN не пишет, сколько получу. Но в кошельке увидел, что на 0.016851 (примерно на 1.82 $) - норм.
Approve, кстати, был на нормальную сумму, что указана. А то часто многие протоколы берут разрешение на максимум токенов, из-за чего пользователи потом страдают.
Redeem - стандартная форма с указанием количества ESPN.
Но в USDS не пишут, сколько получу - минус.
(скриншоты будут в первом комменте)
В итоге, поставлю за практику оценку 4 из 5: удобно и понятно, но не выводит сумму получения.
Как думаете, стоит ли доверять проекту без раскрытия команды и распределения токенов?
😎 Незрячий web3 программист (подписаться)
Чат | бот
А также изучил функционал, добавив оценку по практике.
Использовал Parallel AI и AskSurf.
Этот пост публикую в рамках темы 4К+ анализа проектов с ИИ. Ваши из комментариев - на следующих неделях.
Что за проект?
ETH Strategy - это DeFi-протокол казначейства на Ethereum, который даёт экспозицию с кредитным плечом на ETH без рисков ликвидации. Идея - DeFi-аналог MicroStrategy (MSTR).
Протокол работает так: пользователи покупают Long Bonds (конвертируемые ноты), отдают USDC и получают CDT (debt token) + NFT option. Это 0% процентный долг - протокол берёт в долг бесплатно, потому что даёт опцион.
Казна растёт через выпуск облигаций и lending (размещает ETH в Morpho, получая проценты).
Цена STRAT: $0.14 (-83.81% от максимума), Market Cap: ~$690K.
Команда:
- AskSurf: 3/5 (соцсети есть, но без имён)
- Parallel: 2/5 (полная анонимность)
Оба сошлись - команды нет в LinkedIn.
Концепт:
- AskSurf: 4/5
- Parallel: 5/5
Оба признают уникальность - DeFi-аналог MSTR.
Интересно, что по данным DefiLlama, TVL основного хранилища 3.8 МЛН $ - это не много, но и не мало. При этом, он не падает, и даже растёт (на 2% за месяц).
На сайте написано, что у них вложено 11778 ETH - это вообще около 23,5 МЛН $.
А mGAV - 0.80X, Net Leverage - 1.15X.
Доходность ETH с момента запуска - +6.8%.
Коин:
- AskSurf: 3/5
- Parallel: 2/5
Самое интересное! Parallel нашёл то, чего нет у AskSurf: 75.5% токенов разлочится за 2 месяца - это огромный риск. AskSurf просто не нашёл данных.
Критичный момент по токеномике:
Ни я в документации, ни оба ИИ не нашли данных о том, кому сколько распределили на TGE. Есть только Total Supply (107.87M) и Circ Supply (4.86M = 4.5%). Кто владеет остальными 95.5% - непрозрачно. Это красный флаг.
Код:
- AskSurf: 2/5 (только токен открыт)
- Parallel: 5/5 (якобы есть GitHub)
Тут Parallel СГЛАЗИЛ 🙂! Нашёл GitHub, но это оказался ДРУГОЙ ПРОЕКТ - $ETHXR, а не $STRAT. Это разные токены. В docs.ethstrat.xyz нет ссылки на GitHub репозитория - только аудит Nethermind.
Что упустили оба ИИ:
ESPN - отдельный vault для доходности (Perpetual Note). ESPN уже прошёл аудит Nethermind. Аудит core protocol (2 штуки) обещают опубликовать при запуске permissionless bonding.
Итог:
- AskSurf: 3/5
- Parallel: 14/20 (~3.5/5), но с ошибкой в коде
AskSurf оказался честнее - сказал что код закрыт, и это правда. Parallel ошибся с GitHub.
Главный риск: непрозрачная токеномика + анонимная команда.
Дополнение - практика:
Зашёл в их веб приложение - довольно удобно всё:
На STRAT - стейкинг и онстейкинг токена.
На ESPN (хранилище) есть минт и Redeem. APR - 18.01%.
В Mint надо отправить USDS, чтоб получить ESPN.
USDS покупать можно в CoW Swap.
Считаю это минусом, что не поддерживают USDC и другие стейблы.
Так вот: купил, обновил страницу, указал сумму, нажал "Approve".
После подтверждения транзакции кнопка стала "Deposit USDS".
Странно, что в ESPN не пишет, сколько получу. Но в кошельке увидел, что на 0.016851 (примерно на 1.82 $) - норм.
Approve, кстати, был на нормальную сумму, что указана. А то часто многие протоколы берут разрешение на максимум токенов, из-за чего пользователи потом страдают.
Redeem - стандартная форма с указанием количества ESPN.
Но в USDS не пишут, сколько получу - минус.
(скриншоты будут в первом комменте)
В итоге, поставлю за практику оценку 4 из 5: удобно и понятно, но не выводит сумму получения.
Как думаете, стоит ли доверять проекту без раскрытия команды и распределения токенов?
😎 Незрячий web3 программист (подписаться)
Чат | бот
1👍8❤4
Я не знал Python, но смог написать 2 дополнения для NVDA благодаря своему скиллу для ИИ!
NVDA - программа экранного доступа. Она помогает мне и другим незрячим читать тексты и взаимодействовать с приложениями, озвучивая их.
Картинки - только через ИИ распознавание.
Так вот. У NVDA есть дополнения - мини-программы на Python, расширяющие функционал.
Например, я использую Часы (уведомляет каждый час о времени), синтезаторы речи, улучшение доступности Unigram и т. п.
Для меня основной язык - JS. Python же всё собирался изучать, но так и не взялся.
А тут появились ассистенты и Ide с ИИ-моделями, которым можно подключить скилл.
И я подумал:
"А почему бы не создать скилл, который будет за меня создавать дополнения?"
И сделал nvda-skill.
Для этого получил всю документацию при помощи ИИ, затем другой создал одно дополнение и дополнил инструкцию, доведя до финальной версии.
После этого я разработал:
1. ai-translator - дополнение для перевода текстов с одного языка на другой и наоборот.
Используются ИИ-модели.
Поддерживаются провайдеры: openrouter, Nous, OpenAi.
2. И Todoist for NVDA.
Самое прикольное, что это дополнение - полноценное приложение для работы с Todoist!
Есть ли официальное - не знаю. Но на сайт не хочется заходить.
Поэтому сначала создал Telegram бота, а теперь вот и дополнение.
В настройках расширения указывается API ключ и время повторных напоминаний о задачах сегодняшнего дня.
Основное окно открывается по windows+shift+t.
В нём: проекты, поиск задач и их список. Можно их создавать, изменять (текст, теги и срок) и удалять.
В нужное время придёт уведомление о задаче с кнопками "Выполнил" и "Ок".
Если нажмёте "Ок", в указанное время потом придёт напоминание о неотмеченных задачах за сегодня.
На скрине - главное окно дополнения Todoist for NVDA.
А вы научились вайд-кодить приложения на языках программирования, которые не знаете? Создавали ли интересные вам приложения вообще без навыков кодинга?
😎 Незрячий web3 программист (подписаться)
Чат | бот
NVDA - программа экранного доступа. Она помогает мне и другим незрячим читать тексты и взаимодействовать с приложениями, озвучивая их.
Картинки - только через ИИ распознавание.
Так вот. У NVDA есть дополнения - мини-программы на Python, расширяющие функционал.
Например, я использую Часы (уведомляет каждый час о времени), синтезаторы речи, улучшение доступности Unigram и т. п.
Для меня основной язык - JS. Python же всё собирался изучать, но так и не взялся.
А тут появились ассистенты и Ide с ИИ-моделями, которым можно подключить скилл.
И я подумал:
"А почему бы не создать скилл, который будет за меня создавать дополнения?"
И сделал nvda-skill.
Для этого получил всю документацию при помощи ИИ, затем другой создал одно дополнение и дополнил инструкцию, доведя до финальной версии.
После этого я разработал:
1. ai-translator - дополнение для перевода текстов с одного языка на другой и наоборот.
Используются ИИ-модели.
Поддерживаются провайдеры: openrouter, Nous, OpenAi.
2. И Todoist for NVDA.
Самое прикольное, что это дополнение - полноценное приложение для работы с Todoist!
Есть ли официальное - не знаю. Но на сайт не хочется заходить.
Поэтому сначала создал Telegram бота, а теперь вот и дополнение.
В настройках расширения указывается API ключ и время повторных напоминаний о задачах сегодняшнего дня.
Основное окно открывается по windows+shift+t.
В нём: проекты, поиск задач и их список. Можно их создавать, изменять (текст, теги и срок) и удалять.
В нужное время придёт уведомление о задаче с кнопками "Выполнил" и "Ок".
Если нажмёте "Ок", в указанное время потом придёт напоминание о неотмеченных задачах за сегодня.
На скрине - главное окно дополнения Todoist for NVDA.
А вы научились вайд-кодить приложения на языках программирования, которые не знаете? Создавали ли интересные вам приложения вообще без навыков кодинга?
😎 Незрячий web3 программист (подписаться)
Чат | бот
2🔥22👍13
Когда стоит выйти из позиции и не мучиться? Мой опыт после потерь на токенах в течение 5-7 лет.
Я мало что покупал. Основной источник прибыли - ретродропы.
Но и с полученными токенами важно уметь работать, иначе всё обесценится.
В начале я получал токены на $ 100 и больше, держал их и в итоге терял.
Самый яркий пример - $AEVO, который просел в 100 раз. Хорошо, что хоть половину зафиксировал.
А ведь в первые годы деятельности в крипте я и вовсе не продавал! Какой наивный был...
Было печально смотреть, как довольно существенная сумма токена одного протокола рестейкинга превратилась в пыль...
А потом думаешь:
"Хоть бы выросло!"
Но не растёт.
С течением времени я разработал систему спокойной фиксации, которая не обнуляет вероятность обесценивания части капитала, но позволяет спокойнее относиться к этому.
Начну со стратегии для аэрдропов, а потом перейду к инвестициям - они разные.
По аэрдропам:
1. На TGE фиксируем 50%.
Да: я $LIT продал рано, так как потом был рост. Но не жалею: мог бы упустить начало падения ниже. Что и произошло со второй половиной. Хорошо потом часть продолжил фиксировать при уменьшении цены.
2. Если цена падает на 10-20%, фиксируем ещё 10-20%. Если проект не очень интересный - до 25%.
3. При падении на 50% - оставшуюся часть.
4. Если идёт долгий рост ($HYPE), фиксируем на росте x2 по 20%-50% (в зависимости от того, сколько готовы потерять).
Да: есть стейкинг, но он не даст вам больше дохода, чем если бы вы держали или продавали.
Если хотите, можете часть оставить для DAO, если проект нравится.
Так вы заработаете, если будет существенный рост.
А также поддержите развитие проекта, участвуя в ДАО.
Стратегия для инвестиций:
Опыта меньше, так как практически ничего не покупал. Но логика похожа.
1. Смотрите на рынок и волатильность.
Странно надеяться, что будет рост x2, если рынок падает или во флэте, да и проект не особо успешен.
2. Исходя из этого продумываем фиксацию.
При хорошем росте фиксируем 50% на 100% прибыли. При не очень хорошем - на +10-20%.
3. При падении ориентируемся на волатильность. Высокая - держим до -30-50%. Низкая - выходим на -10-20%.
Но также важно осознавать, сколько вы готовы потерять.
Второй вариант - ориентироваться на соотношение в портфеле:
1. Выделяем на каждую категорию определённый процент. В том числе на рисковые 1-2-5% в зависимости от готовности к риску.
2. При увеличении цены фиксируем, ребалансируя в более надёжные категории.
3. При падении на 20%-50% фиксируем в другие рисковые или, если готовы к обнулению выделенной доли на проект - оставляем на долгосрочный холд.
При продаже на dex, используем twap-ордера (исполняемые частями раз в определённое время) или вручную делим сумму на несколько частей. Это чтоб не попасть на проскальзывание, сведя прибыль к нулю.
А вы при каких условиях фиксируете убытки?
😎 Незрячий web3 программист (подписаться)
Чат | бот
Я мало что покупал. Основной источник прибыли - ретродропы.
Но и с полученными токенами важно уметь работать, иначе всё обесценится.
В начале я получал токены на $ 100 и больше, держал их и в итоге терял.
Самый яркий пример - $AEVO, который просел в 100 раз. Хорошо, что хоть половину зафиксировал.
А ведь в первые годы деятельности в крипте я и вовсе не продавал! Какой наивный был...
Было печально смотреть, как довольно существенная сумма токена одного протокола рестейкинга превратилась в пыль...
А потом думаешь:
"Хоть бы выросло!"
Но не растёт.
С течением времени я разработал систему спокойной фиксации, которая не обнуляет вероятность обесценивания части капитала, но позволяет спокойнее относиться к этому.
Начну со стратегии для аэрдропов, а потом перейду к инвестициям - они разные.
По аэрдропам:
1. На TGE фиксируем 50%.
Да: я $LIT продал рано, так как потом был рост. Но не жалею: мог бы упустить начало падения ниже. Что и произошло со второй половиной. Хорошо потом часть продолжил фиксировать при уменьшении цены.
2. Если цена падает на 10-20%, фиксируем ещё 10-20%. Если проект не очень интересный - до 25%.
3. При падении на 50% - оставшуюся часть.
4. Если идёт долгий рост ($HYPE), фиксируем на росте x2 по 20%-50% (в зависимости от того, сколько готовы потерять).
Да: есть стейкинг, но он не даст вам больше дохода, чем если бы вы держали или продавали.
Если хотите, можете часть оставить для DAO, если проект нравится.
Так вы заработаете, если будет существенный рост.
А также поддержите развитие проекта, участвуя в ДАО.
Стратегия для инвестиций:
Опыта меньше, так как практически ничего не покупал. Но логика похожа.
1. Смотрите на рынок и волатильность.
Странно надеяться, что будет рост x2, если рынок падает или во флэте, да и проект не особо успешен.
2. Исходя из этого продумываем фиксацию.
При хорошем росте фиксируем 50% на 100% прибыли. При не очень хорошем - на +10-20%.
3. При падении ориентируемся на волатильность. Высокая - держим до -30-50%. Низкая - выходим на -10-20%.
Но также важно осознавать, сколько вы готовы потерять.
Второй вариант - ориентироваться на соотношение в портфеле:
1. Выделяем на каждую категорию определённый процент. В том числе на рисковые 1-2-5% в зависимости от готовности к риску.
2. При увеличении цены фиксируем, ребалансируя в более надёжные категории.
3. При падении на 20%-50% фиксируем в другие рисковые или, если готовы к обнулению выделенной доли на проект - оставляем на долгосрочный холд.
При продаже на dex, используем twap-ордера (исполняемые частями раз в определённое время) или вручную делим сумму на несколько частей. Это чтоб не попасть на проскальзывание, сведя прибыль к нулю.
А вы при каких условиях фиксируете убытки?
😎 Незрячий web3 программист (подписаться)
Чат | бот
7👍15❤6
Optimum - децентрализованный memory-слой для любого блокчейна
Разобрал проект по системе 4К+: команда, концепт, коин, код. Использовал два ИИ-инструмента для проверки.
Современные блокчейны медленно распространяют данные между нодами. Optimum решает это - ускоряет gossip (распространение блоков/транзакций) и добавляет децентрализованную память с низкой задержкой для dApps, AI-проектов и trading."
Да: есть высокопроизводительные блокчейны, но они чаще всего централизованы (ноды близко, а то и вовсе их меньше 10).
Команда: 5/5
Проф. Мюриэль Медард (MIT, соавтор RLNC), д-р Кишори Конвар (ex-Meta, Goldman Sachs), Кент Лин (ex-GSRV). Все с верифицированными LinkedIn.
Соцсети активны: X 54K, Discord ~82K.
Концепт: 4/5
Уникальная технология RLNC для ускорения gossip в 5-6 раз. DeRAM - децентрализованная память с низкой задержкой.
Есть анализ конкурентов (сравнение с GossipSub). Минус - нет анализа спроса.
Коин: 2/5
Токена нет. Проект получил $11M seed от 1kx, Robot Ventures, Animoca Brands и др.
Токеномика не опубликована - неизвестно распределение и разлоки.
Код: 4/5
Открытый GitHub (mump2p-cli, dev-setup-guide). Активная разработка 2025-2026. Минус - нет публичных аудитов безопасности.
Итог: 15/20 (AskSurf) / 14/20 (Parallel)
Риски:
• Нет аудитов - кастомный p2p-протокол требует проверки
• Токеномика «чёрный ящик» - следите за анонсами
• Не путайте с Optimus AI или другими похожими проектами
• Заявлена поддержка «любого блокчейна», но нет SDK для конкретных сетей
• Не ясна юнит-экономика нод: кто платит за трафик Flexnodes и как формируются стимулы без запущенного токена
Проект с элитной MIT-командой и интересной технологией. Но это ранняя стадия - нет токена, нет аудитов. Для валидаторов: изучайте документацию на docs.getoptimum.xyz и тестируйте devnet.
Данные по рискам взяты из моего проекта tccc-ai (находится в разработке).
Практика:
Здесь нет веб приложения, поэтому нечего оценивать.
Но про способы участия я уже написал ранее.
А вы уже тестировали инфраструктурные проекты на ранней стадии? Какой опыт?
P. S. Обзор написан по просьбе одного из подписчиков - благодарю за идею!
P. P. S. Можете написать, о чём хотите почитать.
😎 Незрячий web3 программист (подписаться)
Чат | бот
Разобрал проект по системе 4К+: команда, концепт, коин, код. Использовал два ИИ-инструмента для проверки.
Современные блокчейны медленно распространяют данные между нодами. Optimum решает это - ускоряет gossip (распространение блоков/транзакций) и добавляет децентрализованную память с низкой задержкой для dApps, AI-проектов и trading."
Да: есть высокопроизводительные блокчейны, но они чаще всего централизованы (ноды близко, а то и вовсе их меньше 10).
Команда: 5/5
Проф. Мюриэль Медард (MIT, соавтор RLNC), д-р Кишори Конвар (ex-Meta, Goldman Sachs), Кент Лин (ex-GSRV). Все с верифицированными LinkedIn.
Соцсети активны: X 54K, Discord ~82K.
Концепт: 4/5
Уникальная технология RLNC для ускорения gossip в 5-6 раз. DeRAM - децентрализованная память с низкой задержкой.
Есть анализ конкурентов (сравнение с GossipSub). Минус - нет анализа спроса.
Коин: 2/5
Токена нет. Проект получил $11M seed от 1kx, Robot Ventures, Animoca Brands и др.
Токеномика не опубликована - неизвестно распределение и разлоки.
Код: 4/5
Открытый GitHub (mump2p-cli, dev-setup-guide). Активная разработка 2025-2026. Минус - нет публичных аудитов безопасности.
Итог: 15/20 (AskSurf) / 14/20 (Parallel)
Риски:
• Нет аудитов - кастомный p2p-протокол требует проверки
• Токеномика «чёрный ящик» - следите за анонсами
• Не путайте с Optimus AI или другими похожими проектами
• Заявлена поддержка «любого блокчейна», но нет SDK для конкретных сетей
• Не ясна юнит-экономика нод: кто платит за трафик Flexnodes и как формируются стимулы без запущенного токена
Проект с элитной MIT-командой и интересной технологией. Но это ранняя стадия - нет токена, нет аудитов. Для валидаторов: изучайте документацию на docs.getoptimum.xyz и тестируйте devnet.
Данные по рискам взяты из моего проекта tccc-ai (находится в разработке).
Практика:
Здесь нет веб приложения, поэтому нечего оценивать.
Но про способы участия я уже написал ранее.
А вы уже тестировали инфраструктурные проекты на ранней стадии? Какой опыт?
P. S. Обзор написан по просьбе одного из подписчиков - благодарю за идею!
P. P. S. Можете написать, о чём хотите почитать.
😎 Незрячий web3 программист (подписаться)
Чат | бот
👍9❤1
Как я за 7 часов без зрения сделал полноценный сайт-портфолио!
В начале марта узнал про один скилл для веб-дизайна. Стало интересно попробовать, получится ли у меня, будучи незрячим, сделать полноценный сайт.
А то раньше приходилось использовать шаблоны, да и все равно был риск, что всё полетит...
Итог - сделал web3blind.xyz за часов 7.
Там рассказываю о себе и основных направлениях деятельности: web3, разработка, работа с ИИ-моделями и агентами. Есть FAQ и чат.
Раньше бы такое заняло несколько дней!
В рамках урока делали просто веб-сайт с контентом и дизайном.
Но мне стало интересно реализовать многоязычность (поддержку Русского и Английского).
Из-за этого усложнил себе всё:
Почему-то ИИ-модель не хотела грамотно добавлять и изменять контент на двух языках!
То на Английском забудет написать перевод, то выведет его не так...
Но этого можно было бы избежать, если бы следовал своему рабочему процессу с планированием и прочим.
Вот только тогда вдохновение и желание были настолько сильными, что не следовал этому правилу.
Результат - заняло больше времени, чем могло бы.
Хотя конечно стоит и правильные нейросети выбирать. Иначе будет плохое качество.
Как ни странно, GPT 5.3 Codex не умел делать нормальный дизайн, в то время как Minimax - да.
GPT codex почему-то сделал полностью чёрную страницу и кое-что ещё испортил. Потом пришлось в Minimax править. Видимо, Codex — фанат готики 🙂.
Хотя для сложных задач кодинга Minimax не очень.
Итог:
Стоит всегда изучать, какие модели для чего годятся. Также необходимо делать качественные промпты и действовать поэтапно.
P. S. Самое прикольное, что удалось без кода и библиотек сделать и чат с ассистентом для ответов на вопросы.
Конечно это не особо профессиональный вариант. Тут нет БД ответов, данных обо мне и переадресации ко мне. Но пока так.
Что дальше будет с сайтом?
Я либо его расширю до многостраничного и обновлю ИИ-чат, либо сделаю полноценный портал web3blind с ЛК пользователей, моими статьями и постами, заданиями и прочим - думаю.
Как вам сайт, и какие пути его расширения вы видие? Чем бы пользовались на моём веб-ресурсе (чтение статей, анализ проектов, работа с сервисами, выполнение заданий, другое)?
Делали ли сайты при помощи ИИ, как впечатления?
P. P. S. Сегодня долго мои боты не работали:
Telegram в РФ заблокировали - пришлось перевозить на новый сервер.
😎 Незрячий web3 программист (подписаться)
Чат | бот
В начале марта узнал про один скилл для веб-дизайна. Стало интересно попробовать, получится ли у меня, будучи незрячим, сделать полноценный сайт.
А то раньше приходилось использовать шаблоны, да и все равно был риск, что всё полетит...
Итог - сделал web3blind.xyz за часов 7.
Там рассказываю о себе и основных направлениях деятельности: web3, разработка, работа с ИИ-моделями и агентами. Есть FAQ и чат.
Раньше бы такое заняло несколько дней!
В рамках урока делали просто веб-сайт с контентом и дизайном.
Но мне стало интересно реализовать многоязычность (поддержку Русского и Английского).
Из-за этого усложнил себе всё:
Почему-то ИИ-модель не хотела грамотно добавлять и изменять контент на двух языках!
То на Английском забудет написать перевод, то выведет его не так...
Но этого можно было бы избежать, если бы следовал своему рабочему процессу с планированием и прочим.
Вот только тогда вдохновение и желание были настолько сильными, что не следовал этому правилу.
Результат - заняло больше времени, чем могло бы.
Хотя конечно стоит и правильные нейросети выбирать. Иначе будет плохое качество.
Как ни странно, GPT 5.3 Codex не умел делать нормальный дизайн, в то время как Minimax - да.
GPT codex почему-то сделал полностью чёрную страницу и кое-что ещё испортил. Потом пришлось в Minimax править. Видимо, Codex — фанат готики 🙂.
Хотя для сложных задач кодинга Minimax не очень.
Итог:
Стоит всегда изучать, какие модели для чего годятся. Также необходимо делать качественные промпты и действовать поэтапно.
P. S. Самое прикольное, что удалось без кода и библиотек сделать и чат с ассистентом для ответов на вопросы.
Конечно это не особо профессиональный вариант. Тут нет БД ответов, данных обо мне и переадресации ко мне. Но пока так.
Что дальше будет с сайтом?
Я либо его расширю до многостраничного и обновлю ИИ-чат, либо сделаю полноценный портал web3blind с ЛК пользователей, моими статьями и постами, заданиями и прочим - думаю.
Как вам сайт, и какие пути его расширения вы видие? Чем бы пользовались на моём веб-ресурсе (чтение статей, анализ проектов, работа с сервисами, выполнение заданий, другое)?
Делали ли сайты при помощи ИИ, как впечатления?
P. P. S. Сегодня долго мои боты не работали:
Telegram в РФ заблокировали - пришлось перевозить на новый сервер.
😎 Незрячий web3 программист (подписаться)
Чат | бот
5👍30🔥15❤2
Можно ли вообще доверять аналитикам? Всегда стоит проводить проверку
Я писал, что за ИИ надо проверять. Но если вы читаете чью-то аналитику, стоит это делать тоже.
Автор статьи или поста может заблуждаться, получить оплату за рекламу проекта и так далее...
Не говоря уж о том, что человек может влюбиться в проект из-за его технических особенностей, сообщества или чего ещё. А вы будете думать, читая контент, что вам дают гем (очень прибыльную идею).
В итоге, доверяя аналитикам, вы можете потерять средства.
Как проверять?
Изучать предлагаемое самостоятельно: качество, ссылки, документацию, определять риски.
Можно опираться на мою схему 4К+ (проверять команду, концепт, коин, код + делать практику на небольшую сумму с отдельного кошелька).
Трейдинговые же сигналы и аналитические посты про рынок - опасны:
Ситуация может измениться, автор может заблуждаться, он может намеренно говорить неправду или даже оказаться скамером.
По поводу последнего - некоторые якобы аналитики рассказывают про малоизвестные токены, зарабатывая на их пампе за счёт своей аудитории.
Факторы плохой торговой аналитики:
1. Если владелец канала не обучает, а просто даёт сигналы - красный флаг.
Особенно, если не объясняет, почему считает, что сделка хорошая.
2. Нет понимания / описания понимания рыночной ситуации. Это значит, что автор поверхностный.
Он либо сам не понимает её = предлагаемое скорее всего будет плохого качества. Либо вовсе хочет заработать на памп-дамп схеме.
3. Если он давит на эмоции: "Покупайте скорее! Этот актив вырастит в 2 раза" - красный флаг. Это повышает вероятность обмана.
В целом, думаю в случае активной торговли лучше всего самому обучаться, а не следовать кому-то.
Например, в одном канале, где я подписан, писали:
"$BTC вряд ли упадёт ниже 80 000" - тогда он стоил 83К.
В результате скоро обвалился сильно.
И от такого не застрахован никто: даже профессиональный трейдер-аналитик.
Я сам плохо понимаю в трейдинге, поэтому очень редко торгую.
Но есть 1 канал и 2 чата практиков в этой сфере, за которыми слежу.
Доверяете ли вы аналитикам? Проверяете ли их?
😎 Незрячий web3 программист (подписаться)
Чат | бот
Я писал, что за ИИ надо проверять. Но если вы читаете чью-то аналитику, стоит это делать тоже.
Автор статьи или поста может заблуждаться, получить оплату за рекламу проекта и так далее...
Не говоря уж о том, что человек может влюбиться в проект из-за его технических особенностей, сообщества или чего ещё. А вы будете думать, читая контент, что вам дают гем (очень прибыльную идею).
В итоге, доверяя аналитикам, вы можете потерять средства.
Как проверять?
Изучать предлагаемое самостоятельно: качество, ссылки, документацию, определять риски.
Можно опираться на мою схему 4К+ (проверять команду, концепт, коин, код + делать практику на небольшую сумму с отдельного кошелька).
Трейдинговые же сигналы и аналитические посты про рынок - опасны:
Ситуация может измениться, автор может заблуждаться, он может намеренно говорить неправду или даже оказаться скамером.
По поводу последнего - некоторые якобы аналитики рассказывают про малоизвестные токены, зарабатывая на их пампе за счёт своей аудитории.
Факторы плохой торговой аналитики:
1. Если владелец канала не обучает, а просто даёт сигналы - красный флаг.
Особенно, если не объясняет, почему считает, что сделка хорошая.
2. Нет понимания / описания понимания рыночной ситуации. Это значит, что автор поверхностный.
Он либо сам не понимает её = предлагаемое скорее всего будет плохого качества. Либо вовсе хочет заработать на памп-дамп схеме.
3. Если он давит на эмоции: "Покупайте скорее! Этот актив вырастит в 2 раза" - красный флаг. Это повышает вероятность обмана.
В целом, думаю в случае активной торговли лучше всего самому обучаться, а не следовать кому-то.
Например, в одном канале, где я подписан, писали:
"$BTC вряд ли упадёт ниже 80 000" - тогда он стоил 83К.
В результате скоро обвалился сильно.
И от такого не застрахован никто: даже профессиональный трейдер-аналитик.
Я сам плохо понимаю в трейдинге, поэтому очень редко торгую.
Но есть 1 канал и 2 чата практиков в этой сфере, за которыми слежу.
Доверяете ли вы аналитикам? Проверяете ли их?
😎 Незрячий web3 программист (подписаться)
Чат | бот
2👍10❤4🔥4👏2
Анализ web3 проектов с ИИ в моём новом сервисе! Вам останется лишь прочитать и проверить.
Он анализирует команду, концепт, коин, код (активность разработки и наличие аудитов), а также пишет риски и вывод.
1. Сначала один ИИ анализирует.
Думал сделать две нейронки для лучшего качества. Но вторая не выдаёт API по глубокому анализу — да и хуже стала последнее время.
2. Фильтрующий — убирает непроверенные факты и пишет некоторую инфу на основе данных.
Благодаря одному пользователю нашёл сегодня ещё один баг:
Платежи с сайта не сохранялись в базе данных, из-за чего всё зависело от фронтенда (страниц сайта).
Исправил: теперь есть сохранение, а также реализовано автоматическое подтверждение платежа.
Промокод на 30 активаций со скидкой 80%:
TCCCOM82
Укажите его при заказе аудита на сайте или в боте, и стоимость будет $ 1 вместо $ 5.
Способы использования:
1. Сайт https://tcccai.xyz
Создайте аккаунт через Telegram, e-mail + пароль или кошелька.
А далее отправьте ссылку сайта проекта и токен (если есть). И не забудьте указать промокод! Оплатите и, примерно через 10-40 минут, получите результат.
2. Бот @tccc_ai_bot
Запустите, введите url проекта и токен через пробел с $ (или без токена), укажите наличие промокода, укажите его и оплатите.
Примеры аудита:
Ambient L1, Tria и Ondo.
Буду рад отзывам и предложениям по улучшению.
P. S. Бета версия: могут быть баги. В случае их обнаружения пишите в аккаунт по ссылке на сайте или в @blind_dev_chat
😎 Незрячий web3 программист (подписаться)
Чат | бот
Он анализирует команду, концепт, коин, код (активность разработки и наличие аудитов), а также пишет риски и вывод.
1. Сначала один ИИ анализирует.
Думал сделать две нейронки для лучшего качества. Но вторая не выдаёт API по глубокому анализу — да и хуже стала последнее время.
2. Фильтрующий — убирает непроверенные факты и пишет некоторую инфу на основе данных.
Благодаря одному пользователю нашёл сегодня ещё один баг:
Платежи с сайта не сохранялись в базе данных, из-за чего всё зависело от фронтенда (страниц сайта).
Исправил: теперь есть сохранение, а также реализовано автоматическое подтверждение платежа.
Промокод на 30 активаций со скидкой 80%:
TCCCOM82
Укажите его при заказе аудита на сайте или в боте, и стоимость будет $ 1 вместо $ 5.
Способы использования:
1. Сайт https://tcccai.xyz
Создайте аккаунт через Telegram, e-mail + пароль или кошелька.
А далее отправьте ссылку сайта проекта и токен (если есть). И не забудьте указать промокод! Оплатите и, примерно через 10-40 минут, получите результат.
2. Бот @tccc_ai_bot
Запустите, введите url проекта и токен через пробел с $ (или без токена), укажите наличие промокода, укажите его и оплатите.
Примеры аудита:
Ambient L1, Tria и Ondo.
Буду рад отзывам и предложениям по улучшению.
P. S. Бета версия: могут быть баги. В случае их обнаружения пишите в аккаунт по ссылке на сайте или в @blind_dev_chat
😎 Незрячий web3 программист (подписаться)
Чат | бот
1👍11🔥4
Gearbox попытался стать кредитным слоем для всего DeFi. Получилось? Анализ команды, концепта, коина, кода + практики
Давно хотел разобрать Gearbox - проект, который предоставляет DeFi-кредитование через изолированные аккаунты. Посмотрим, что под капотом.
(Аудио версия прикреплена. Приятного прослушивания, если не хотите читать)
Читать в Teletype, читать в Paragraph.
Открыть web app.
Общий итог
• Команда: 3 из 5: ссылки на участников команды нет - пришлось поискать. Но информация всё же есть в интернете.
В соцсетях редко, но публикуют.
Например, в X 20 дней назад и в Discord 11. Но на вопросы отвечают и корректно.
• Концепт: 3 из 5: технически сильный проект с подробной документацией и продуманной архитектурой.
Децентрализация управления на уровне - трёхуровневое DAO, мультисиги (мультиподписные кошельки) с известными людьми из экосистемы, таймлоки (задержки перед выполнением операции).
Но формального анализа спроса нет в документации.
Пользовательских инструкций мало - доки больше для разработчиков и кураторов.
TVL -89% от максимума, комиссии -84%, выручка -76%.
Единственная точка роста - Monad, но я думаю, что вряд ли это надолго.
Потому что инсентивы редко дают долгосрочный приток.
• Коин: 2 из 5: токеномика есть и прозрачная — всё описано в GitHub. Но распределение вызывает вопросы: команда + компания 31.5% - красный флаг.
Хотя инвесторам около 9% - норма.
Разлоки закончились в 2024 - давления нет, но исторически темп был 1.1% в месяц (выше порога 0.8% в месяц).
Инвесторы известные - Galaxy, Stani Kulechov, Placeholder, Zee Prime.
Утилиты слабые - голосование и влияние на ставки, но прямого revenue sharing нет, спрос на токен это не формирует.
Децентрализация холдеров средняя — 32% в казне DAO, но без неё топ-9 кошельков держат 25%.
• Код: 4 из 5: код открыт, и есть основное ПО. Но нет открытого кода адаптеров к другим протоколам. Аудиты есть, и их много. Все важные ошибки были исправлены.
Баг-баунти же смешные даже по сравнению с текущим TVL - всего $ 200 000 за критические баги в смарт-контрактах!
• Практика: 3 из 5: интерфейс удобный и понятный, но не всё всем доступно. Например, фарминг с плечом требует кредитоваться минимум на 10 WETH!
Также на странице пулов (доходность) нет фильтра по сетям - это тоже создаёт неудобство.
Общий балл: 15 из 25.
На уровне многих проектов, но сильным и перспективным его не назову.
Сам вряд ли буду пользоваться. Хотя идея изолированных аккаунтов с кредитом на определённые протоколы - очень интересная.
Но реализация подкачала... Я ожидал, что они в частности позволят обменивать на Uniswap с плечом, например.
Но нет - только доход и leveraged farming. Скучно.
Читать в Teletype, читать в Paragraph.
Открыть web app.
А вы пользовались Gearbox? Если да, как давно, и что там делали?
😎 Незрячий web3 программист (подписаться)
Чат | бот
Давно хотел разобрать Gearbox - проект, который предоставляет DeFi-кредитование через изолированные аккаунты. Посмотрим, что под капотом.
(Аудио версия прикреплена. Приятного прослушивания, если не хотите читать)
Читать в Teletype, читать в Paragraph.
Открыть web app.
Общий итог
• Команда: 3 из 5: ссылки на участников команды нет - пришлось поискать. Но информация всё же есть в интернете.
В соцсетях редко, но публикуют.
Например, в X 20 дней назад и в Discord 11. Но на вопросы отвечают и корректно.
• Концепт: 3 из 5: технически сильный проект с подробной документацией и продуманной архитектурой.
Децентрализация управления на уровне - трёхуровневое DAO, мультисиги (мультиподписные кошельки) с известными людьми из экосистемы, таймлоки (задержки перед выполнением операции).
Но формального анализа спроса нет в документации.
Пользовательских инструкций мало - доки больше для разработчиков и кураторов.
TVL -89% от максимума, комиссии -84%, выручка -76%.
Единственная точка роста - Monad, но я думаю, что вряд ли это надолго.
Потому что инсентивы редко дают долгосрочный приток.
• Коин: 2 из 5: токеномика есть и прозрачная — всё описано в GitHub. Но распределение вызывает вопросы: команда + компания 31.5% - красный флаг.
Хотя инвесторам около 9% - норма.
Разлоки закончились в 2024 - давления нет, но исторически темп был 1.1% в месяц (выше порога 0.8% в месяц).
Инвесторы известные - Galaxy, Stani Kulechov, Placeholder, Zee Prime.
Утилиты слабые - голосование и влияние на ставки, но прямого revenue sharing нет, спрос на токен это не формирует.
Децентрализация холдеров средняя — 32% в казне DAO, но без неё топ-9 кошельков держат 25%.
• Код: 4 из 5: код открыт, и есть основное ПО. Но нет открытого кода адаптеров к другим протоколам. Аудиты есть, и их много. Все важные ошибки были исправлены.
Баг-баунти же смешные даже по сравнению с текущим TVL - всего $ 200 000 за критические баги в смарт-контрактах!
• Практика: 3 из 5: интерфейс удобный и понятный, но не всё всем доступно. Например, фарминг с плечом требует кредитоваться минимум на 10 WETH!
Также на странице пулов (доходность) нет фильтра по сетям - это тоже создаёт неудобство.
Общий балл: 15 из 25.
На уровне многих проектов, но сильным и перспективным его не назову.
Сам вряд ли буду пользоваться. Хотя идея изолированных аккаунтов с кредитом на определённые протоколы - очень интересная.
Но реализация подкачала... Я ожидал, что они в частности позволят обменивать на Uniswap с плечом, например.
Но нет - только доход и leveraged farming. Скучно.
Читать в Teletype, читать в Paragraph.
Открыть web app.
А вы пользовались Gearbox? Если да, как давно, и что там делали?
😎 Незрячий web3 программист (подписаться)
Чат | бот
1👍9
4 скиллов для ИИ-агентов, полезных всем. Ими и сам пользуюсь
Уже 2 месяца как погрузился в тему ИИ-агентов.
Что-то находил у знакомых и в одном сообществе, но что-то сам создавал.
Скиллы - .md файлы и скрипты, содержащие инструкции для ИИ-агента, например, OpenClaw или Hermes.
Начнём с того, что может понадобиться каждому:
1. plan-times. Пожалуй, самый важный скилл!
Конечно бесит, когда просишь ИИ "В следующую среду будет созвон", а она путает дни, и ставит не туда. Или когда путается во времени, говоря, что 10 октября вне срока до 11 ноября.
Этот скилл позволяет агенту не путаться во всём этом. Он указывает на сегодняшний день недели и дату, и уже от неё строит путь во времени.
Главное не забывать про упоминание скилла или настроить его использование по умолчанию при работе со временем.
2. safe-update. Безопасное обновление OpenClaw.
Иногда у людей бывало так, что после обновы всё падало, и приходилось возиться несколько дней, восстанавливая.
Не желая этим заниматься, создал скилл для безопасного обновления.
Он изучает будущие обновления, текущее состояние со скиллами и плагинами, находит несовместимости, делает бекап, обновляет, проверяет работоспособность всего.
3. getdocs. Часто нужно скачать документацию какого-то проекта.
Благодаря этому скиллу такое становится возможным!
Просто пишем:
/docs manyfiles {URL}
И ИИ-агент передаст скиллу url, запустит нужную команду, получит файлы и потом сможет их изучать локально!
Можно и onefile указывать вместо manyfiles - тогда вся документация будет в одном .md, но для OpenClaw и аналогов будет полезнее структурированная документация.
4. dashboard-skill. Создаёт классные дашборды.
Они состоят из html и json файла.
Открываете .html, импортируете .json и можете работать!
После окончания, если надо передать другому, экспортируете и отправляете.
Так я сделал себе более удобный вариант плана постов.
А до этого в качестве теста сделал удобную форму брифа.
А уже на следующей неделе опубликую полезное создателям проектов. Ждите 🙂.
А вы используете OpenClaw, Hermes или аналог? Какими скиллами пользуетесь, и какие из созданных мной вас заинтересовали?
#ai #skills
😎 Незрячий web3 программист (подписаться)
Чат | бот
Уже 2 месяца как погрузился в тему ИИ-агентов.
Что-то находил у знакомых и в одном сообществе, но что-то сам создавал.
Скиллы - .md файлы и скрипты, содержащие инструкции для ИИ-агента, например, OpenClaw или Hermes.
Начнём с того, что может понадобиться каждому:
1. plan-times. Пожалуй, самый важный скилл!
Конечно бесит, когда просишь ИИ "В следующую среду будет созвон", а она путает дни, и ставит не туда. Или когда путается во времени, говоря, что 10 октября вне срока до 11 ноября.
Этот скилл позволяет агенту не путаться во всём этом. Он указывает на сегодняшний день недели и дату, и уже от неё строит путь во времени.
Главное не забывать про упоминание скилла или настроить его использование по умолчанию при работе со временем.
2. safe-update. Безопасное обновление OpenClaw.
Иногда у людей бывало так, что после обновы всё падало, и приходилось возиться несколько дней, восстанавливая.
Не желая этим заниматься, создал скилл для безопасного обновления.
Он изучает будущие обновления, текущее состояние со скиллами и плагинами, находит несовместимости, делает бекап, обновляет, проверяет работоспособность всего.
3. getdocs. Часто нужно скачать документацию какого-то проекта.
Благодаря этому скиллу такое становится возможным!
Просто пишем:
/docs manyfiles {URL}
И ИИ-агент передаст скиллу url, запустит нужную команду, получит файлы и потом сможет их изучать локально!
Можно и onefile указывать вместо manyfiles - тогда вся документация будет в одном .md, но для OpenClaw и аналогов будет полезнее структурированная документация.
4. dashboard-skill. Создаёт классные дашборды.
Они состоят из html и json файла.
Открываете .html, импортируете .json и можете работать!
После окончания, если надо передать другому, экспортируете и отправляете.
Так я сделал себе более удобный вариант плана постов.
А до этого в качестве теста сделал удобную форму брифа.
А уже на следующей неделе опубликую полезное создателям проектов. Ждите 🙂.
А вы используете OpenClaw, Hermes или аналог? Какими скиллами пользуетесь, и какие из созданных мной вас заинтересовали?
#ai #skills
😎 Незрячий web3 программист (подписаться)
Чат | бот
GitHub
GitHub - denis-skripnik/plan-times
Contribute to denis-skripnik/plan-times development by creating an account on GitHub.
👍13🔥7❤4
Интеллектуальный фастфуд: почему мы перестали читать документацию
Вспоминаю 2024-2025 год, когда в разных сообществах присылали десятки проектов за неделю.
Я тогда думал: "Да куда столько!? Я же не смогу оценить все проекты и выбрать крутые!"
В итоге оказалось, что практически все из них не были успешны. Но сам факт, что такое было.
Да: уже с 2023 года появилась возможность отправлять запросы к Chat GPT.
Но он не всегда точно выдавал информацию, так как загрузить и скормить ему кучу файлов документации было невозможно.
Да и в целом времени стало не хватать из-за большого количества дел и объёма информации.
Сейчас же стало проще, так как появилась возможность использования ИИ-моделей в редакторах типа Cursor и vsCode.
Это позволяет скачать доки и отправить на изучение.
Но всё равно большинство, уверен, делают это неправильно.
Если сказать ИИ "Прочитай документацию … и скажи о проекте", модель и даст только общую информацию.
Поэтому хочу подчеркнуть: составляйте подробные промпты.
Например, о том, какие разделы хотите изучить. Или ответы на какие вопросы.
Меня всегда интересует, есть ли в документации проекта анализ спроса и конкурентов, описание, тех. подробности и другие данные. Можете изучить, заказав аналитику на tcccai.xyz или в посте о проекте.
Это даёт более точный ответ.
Вы наверняка спросите:
"А почему нельзя дать ссылку на документацию, попросив, чтоб модель нашла инфу оттуда в интернете?"
Ответ простой: по url ИИ может упустить что-то важное, какие-то страницы.
Причины: ограничения поискового инструмента и контекста (HTML-код занимает больше места, чем Markdown), а также сложность обработки некоторых страниц.
Скачав же файлы, вы формируете конкретную .md (файлы Markdown) базу данных о проекте.
Кстати, лайфхак:
Эти данные можно использовать и для создания ИИ-консультанта о вашем любимом проекте, став значимее в глазах команды.
Интеллектуальный фастфуд - это плохо, так как снижает качество анализа проектов. Но мы можем уменьшить вред от него, используя нейронки грамотно.
Напоминаю, что в рамках предыдущего поста про 4 созданных мной скилла, я упоминал getdocs. Он и позволит вам скачивать документацию.
А вы как обрабатываете документацию? Как отправляете ИИ?
😎 Незрячий web3 программист (подписаться)
Чат | бот
Вспоминаю 2024-2025 год, когда в разных сообществах присылали десятки проектов за неделю.
Я тогда думал: "Да куда столько!? Я же не смогу оценить все проекты и выбрать крутые!"
В итоге оказалось, что практически все из них не были успешны. Но сам факт, что такое было.
Да: уже с 2023 года появилась возможность отправлять запросы к Chat GPT.
Но он не всегда точно выдавал информацию, так как загрузить и скормить ему кучу файлов документации было невозможно.
Да и в целом времени стало не хватать из-за большого количества дел и объёма информации.
Сейчас же стало проще, так как появилась возможность использования ИИ-моделей в редакторах типа Cursor и vsCode.
Это позволяет скачать доки и отправить на изучение.
Но всё равно большинство, уверен, делают это неправильно.
Если сказать ИИ "Прочитай документацию … и скажи о проекте", модель и даст только общую информацию.
Поэтому хочу подчеркнуть: составляйте подробные промпты.
Например, о том, какие разделы хотите изучить. Или ответы на какие вопросы.
Меня всегда интересует, есть ли в документации проекта анализ спроса и конкурентов, описание, тех. подробности и другие данные. Можете изучить, заказав аналитику на tcccai.xyz или в посте о проекте.
Это даёт более точный ответ.
Вы наверняка спросите:
"А почему нельзя дать ссылку на документацию, попросив, чтоб модель нашла инфу оттуда в интернете?"
Ответ простой: по url ИИ может упустить что-то важное, какие-то страницы.
Причины: ограничения поискового инструмента и контекста (HTML-код занимает больше места, чем Markdown), а также сложность обработки некоторых страниц.
Скачав же файлы, вы формируете конкретную .md (файлы Markdown) базу данных о проекте.
Кстати, лайфхак:
Эти данные можно использовать и для создания ИИ-консультанта о вашем любимом проекте, став значимее в глазах команды.
Интеллектуальный фастфуд - это плохо, так как снижает качество анализа проектов. Но мы можем уменьшить вред от него, используя нейронки грамотно.
Напоминаю, что в рамках предыдущего поста про 4 созданных мной скилла, я упоминал getdocs. Он и позволит вам скачивать документацию.
А вы как обрабатываете документацию? Как отправляете ИИ?
😎 Незрячий web3 программист (подписаться)
Чат | бот
1👍10🔥4❤1💯1
Разбираю Dubhe Engine (Obelisk Labs) - убирает 80% рутины при создании Move-проектов
Меня попросили изучить его в комментах к позапрошлому посту. Делюсь тем, что выяснил.
Dubhe Engine - это не блокчейн и не токен. Это open-source инструментарий для разработчиков, которые строят полностью ончейн приложения на Move.
Три продукта: Dubhe Engine (генерация кода), Dubhe Channel (P2P real-time слой) и Dubhe OS (кросс-сетевая инфраструктура).
Поддерживаемые сети: Sui, Aptos, Rooch, Movement, Initia.
Ключевая идея - убрать 80% рутинного кода через Schema ORM и декларативное описание структуры. Разработчик описывает схему, движок генерирует смарт-контракты, SDK, API.
Себя сравнивают с MUD (Ethereum-аналог для fully on-chain игр), только на Move.
Команда: 3 из 5
LinkedIn-профили существуют (Hongqi Liu и Anakin Skandia указаны на Bitget), но сами профили пустые - без реального опыта и достижений.
Соцсети ведут активно: DubheEngine и 0xObeliskLabs публикуют технические детали в X, новости, сравнения с конкурентами - не просто хайп.
В Discord мне ответили на вопрос по токеномике быстро. В Telegram-чате проекта просто послали в Discord. Вопрос про команду проигнорировали.
Минусы за коммуникацию и не публичность.
Концепт: 4 из 5
Идея уникальная - "JavaScript Web3" для Move, только для разработчиков.
На Sui уже работают реальные продукты - Merak (AMM) и Numeron RPG (занял 4-е место на хакатоне).
Анализ конкурентов есть, анализа реального спроса нет.
Коин: 2 из 5
Токен $DUBHE не запущен. Есть $STARS - on-chain поинты за раннее участие и тестирование. По заявлению команды, их можно будет конвертировать в $DUBHE после TGE. Сейчас $STARS гуляет в третьесторонних пулах - сам проект от этого открещивается и явно не рекомендует покупать.
Токеномика опубликована в доках, но команда предупреждает, что финальной версии ещё нет.
Из того, что есть:
Команде выделяется 24% (Obelisk Labs 7% + Core Contributors 17%) - это много, норм считается до 10%. Инвесторам суммарно 15% (Seed + Series-A + Investors Reserve) - тоже выше 10%. Foundation под контролем проекта получает ещё 18%.
По разлокам: через год после TGE начнутся серьёзные выплаты команде и Foundation. Примерно с 13-го месяца будет разблокироваться около 2% в месяц от total supply - это в 2.5 раза выше нормального по моему мнению уровня в 0.8%.
Пик - на 24-м месяце: 4% за один месяц, когда заканчивается вестинг по CEX Lock.
+1 балл за систему поинтов и наличие черновика токеномики.
Код: 4 из 5
GitHub живой - последний коммит 30 марта, версия v1.2.0-pre.115, статус pre-mainnet. 18 контрибьюторов, 70 звёзд. В последнем крупном PR - внутренние фиксы безопасности: payment recharge, fee deduction, ownership transfer.
Публичного аудита от сторонней компании нет.
Риски
- Команда частично анонимна. Профили есть, но пустые.
- Токеномика сырая. Команде и Foundation суммарно уходит 42%, разлоки агрессивные.
- Публичного аудита безопасности нет. Для инфраструктурного продукта это существенно.
- Финансирование непрозрачно. Упоминаются Sui Foundation и "ecosystem VCs", но суммы и имена не раскрываются.
- $STARS торгуется на сторонних пулах без участия проекта - покупать не рекомендую.
Итог
13 из 20 баллов.
Проект технически интересный и живой. Не хайп, а реальный tooling с 3 годами разработки и рабочими приложениями поверх. Для тех, кто строит на Move - стоит смотреть.
Для широкой аудитории - пока не очень понятно, зачем это нужно. Нет работающего токена - нет прямого инвестиционного интереса. Когда токен появится - смотреть условия заново, потому что токеномика явно будет меняться. А вот разлоки в текущем виде - настораживают.
Аудиты использовались:
- TCCC AI (19 марта)
- AskSurf (сегодня)
P.S. Интересно, как вы смотрите на Move-стек в целом - есть ли у вас опыт работы с Sui или Aptos?
И вообще, как считаете: нужны ли блокчейны с Move смарт-контрактами?
P. P. S. И напоминаю про моё сообщество в ВК на всякий случай: https://vk.ru/blind_dev (начну вести).
😎 Незрячий web3 программист (подписаться)
Чат | бот
Меня попросили изучить его в комментах к позапрошлому посту. Делюсь тем, что выяснил.
Dubhe Engine - это не блокчейн и не токен. Это open-source инструментарий для разработчиков, которые строят полностью ончейн приложения на Move.
Три продукта: Dubhe Engine (генерация кода), Dubhe Channel (P2P real-time слой) и Dubhe OS (кросс-сетевая инфраструктура).
Поддерживаемые сети: Sui, Aptos, Rooch, Movement, Initia.
Ключевая идея - убрать 80% рутинного кода через Schema ORM и декларативное описание структуры. Разработчик описывает схему, движок генерирует смарт-контракты, SDK, API.
Себя сравнивают с MUD (Ethereum-аналог для fully on-chain игр), только на Move.
Команда: 3 из 5
LinkedIn-профили существуют (Hongqi Liu и Anakin Skandia указаны на Bitget), но сами профили пустые - без реального опыта и достижений.
Соцсети ведут активно: DubheEngine и 0xObeliskLabs публикуют технические детали в X, новости, сравнения с конкурентами - не просто хайп.
В Discord мне ответили на вопрос по токеномике быстро. В Telegram-чате проекта просто послали в Discord. Вопрос про команду проигнорировали.
Минусы за коммуникацию и не публичность.
Концепт: 4 из 5
Идея уникальная - "JavaScript Web3" для Move, только для разработчиков.
На Sui уже работают реальные продукты - Merak (AMM) и Numeron RPG (занял 4-е место на хакатоне).
Анализ конкурентов есть, анализа реального спроса нет.
Коин: 2 из 5
Токен $DUBHE не запущен. Есть $STARS - on-chain поинты за раннее участие и тестирование. По заявлению команды, их можно будет конвертировать в $DUBHE после TGE. Сейчас $STARS гуляет в третьесторонних пулах - сам проект от этого открещивается и явно не рекомендует покупать.
Токеномика опубликована в доках, но команда предупреждает, что финальной версии ещё нет.
Из того, что есть:
Команде выделяется 24% (Obelisk Labs 7% + Core Contributors 17%) - это много, норм считается до 10%. Инвесторам суммарно 15% (Seed + Series-A + Investors Reserve) - тоже выше 10%. Foundation под контролем проекта получает ещё 18%.
По разлокам: через год после TGE начнутся серьёзные выплаты команде и Foundation. Примерно с 13-го месяца будет разблокироваться около 2% в месяц от total supply - это в 2.5 раза выше нормального по моему мнению уровня в 0.8%.
Пик - на 24-м месяце: 4% за один месяц, когда заканчивается вестинг по CEX Lock.
+1 балл за систему поинтов и наличие черновика токеномики.
Код: 4 из 5
GitHub живой - последний коммит 30 марта, версия v1.2.0-pre.115, статус pre-mainnet. 18 контрибьюторов, 70 звёзд. В последнем крупном PR - внутренние фиксы безопасности: payment recharge, fee deduction, ownership transfer.
Публичного аудита от сторонней компании нет.
Риски
- Команда частично анонимна. Профили есть, но пустые.
- Токеномика сырая. Команде и Foundation суммарно уходит 42%, разлоки агрессивные.
- Публичного аудита безопасности нет. Для инфраструктурного продукта это существенно.
- Финансирование непрозрачно. Упоминаются Sui Foundation и "ecosystem VCs", но суммы и имена не раскрываются.
- $STARS торгуется на сторонних пулах без участия проекта - покупать не рекомендую.
Итог
13 из 20 баллов.
Проект технически интересный и живой. Не хайп, а реальный tooling с 3 годами разработки и рабочими приложениями поверх. Для тех, кто строит на Move - стоит смотреть.
Для широкой аудитории - пока не очень понятно, зачем это нужно. Нет работающего токена - нет прямого инвестиционного интереса. Когда токен появится - смотреть условия заново, потому что токеномика явно будет меняться. А вот разлоки в текущем виде - настораживают.
Аудиты использовались:
- TCCC AI (19 марта)
- AskSurf (сегодня)
P.S. Интересно, как вы смотрите на Move-стек в целом - есть ли у вас опыт работы с Sui или Aptos?
И вообще, как считаете: нужны ли блокчейны с Move смарт-контрактами?
P. P. S. И напоминаю про моё сообщество в ВК на всякий случай: https://vk.ru/blind_dev (начну вести).
😎 Незрячий web3 программист (подписаться)
Чат | бот
👍7❤3🔥1
Ещё 4 созданных мной скилла, но теперь для разработчиков и создателей проектов
Считаю это важным, так как по мнению некоторых аналитиков в следующие 5 лет может появиться миллиардер, который единолично создаст проект при помощи ИИ. А вдруг такой появится благодаря моему посту 🙂. Конечно шучу, но в каждой шутке...
1. Coding. Моя основа.
Minimax - постановка задач, codex - план и разработка с тестированием.
Можете его изменять под себя, меняя модели и их роль.
Выполняется всё в рамках субагента, что удобно и с точки зрения продолжения других задач.
Есть все нужные стадии: постановка задачи, план, поэтапная реализация, тестирование.
2. accessibility-auditor-skill. Второй по важности и значимости скилл.
Во всяком случае для меня, так как я незрячий: использую программу экранного доступа, которая озвучивает мне всё.
Но к сожалению многие сайты и приложения обладают плохой доступностью.
Вот я и подумал, что стоит создать скилл для ИИ-агентов, который поможет решать эту проблему максимально легко.
Скилл позволит проанализировать все недостатки.
А далее с помощью coding или другого скилла можно исправить обнаруженное.
3. Github-and-vercel-deploy. Мне было лень скачивать GitHub CLI и Vercel CLI (софт для соответствующих сервисов с консольным вводом), поэтому попросил ИИ сделать мне скилл для работы с API.
Он реализовал, и теперь лишние приложения не нужны.
Будет вам полезен, если публикуете репозитории на Гитхабе и деплоете сайты на Vercel.
4. NVDA-skill. Моя программа экранного доступа называется NVDA.
У неё есть дополнения.
Я не знал Python, поэтому сделал скилл для их создания с помощью ИИ.
Впрочем, об этом отдельно писал в этом посте.
Какие скиллы из перечисленных мной вас заинтересовали? Что будете использовать?
😎 Незрячий web3 программист (подписаться)
Чат | бот
Считаю это важным, так как по мнению некоторых аналитиков в следующие 5 лет может появиться миллиардер, который единолично создаст проект при помощи ИИ. А вдруг такой появится благодаря моему посту 🙂. Конечно шучу, но в каждой шутке...
1. Coding. Моя основа.
Minimax - постановка задач, codex - план и разработка с тестированием.
Можете его изменять под себя, меняя модели и их роль.
Выполняется всё в рамках субагента, что удобно и с точки зрения продолжения других задач.
Есть все нужные стадии: постановка задачи, план, поэтапная реализация, тестирование.
2. accessibility-auditor-skill. Второй по важности и значимости скилл.
Во всяком случае для меня, так как я незрячий: использую программу экранного доступа, которая озвучивает мне всё.
Но к сожалению многие сайты и приложения обладают плохой доступностью.
Вот я и подумал, что стоит создать скилл для ИИ-агентов, который поможет решать эту проблему максимально легко.
Скилл позволит проанализировать все недостатки.
А далее с помощью coding или другого скилла можно исправить обнаруженное.
3. Github-and-vercel-deploy. Мне было лень скачивать GitHub CLI и Vercel CLI (софт для соответствующих сервисов с консольным вводом), поэтому попросил ИИ сделать мне скилл для работы с API.
Он реализовал, и теперь лишние приложения не нужны.
Будет вам полезен, если публикуете репозитории на Гитхабе и деплоете сайты на Vercel.
4. NVDA-skill. Моя программа экранного доступа называется NVDA.
У неё есть дополнения.
Я не знал Python, поэтому сделал скилл для их создания с помощью ИИ.
Впрочем, об этом отдельно писал в этом посте.
Какие скиллы из перечисленных мной вас заинтересовали? Что будете использовать?
😎 Незрячий web3 программист (подписаться)
Чат | бот
2👏11👍4🔥3❤2
4К+ без иллюзий: чек-лист не знает будущего
За 3 года я анализировал много проектов по своей методике. И со временем заметил неприятную вещь: даже качественные порой оказываются слабыми.
Потому что мой чек-лист не гарантирует, что проект сохранит свой уровень в будущем.
Например, когда изучал Superform, проект был классным!
Команда - 4 из 5, концепт - 5 из 5, код - 5 из 5, коин - 3 из 5, практика - 5 из 5.
Но далее развитие затянули и токен выпускали так долго, будто проверяли рынок на терпение. В итоге сейчас TVL всего 35,06 МЛН $. Да и проект, судя по текущим метрикам, мало кому интересен.
Это видно и по позиции токена $UP: на момент написания поста он находится на 1178 месте в Coingecko.
Да, от ATH токен просел не критично, и пик был совсем недавно. Но риск всё равно остаётся высоким из-за будущих разлоков.
Несмотря на позитив, стоило обратить внимание на токеномику: она тогда получила 3 из 5. Но я подумал, что остальное перевесит.
Вот только нет - Superform не оправдал тех ожиданий, которые он создавал у меня на момент анализа.
Вижу как минимум три возможные причины:
1. Я ошибся при оценке. Это тоже стоит учитывать при изучении проекта: любой может ошибиться.
2. Уровень изменился позже.
Например, многие участники команды ушли, были какие-то скрытые договорённости или иные факторы.
Но важно уточнить: текущее внутреннее состояние проекта я отдельно не исследовал.
3. Либо спрос на их продукт оказался низким - на протокол доходности, в том числе кроссчейн.
Итог:
Анализ по 4К+ нужен не для предсказания будущего, а для снижения вероятности грубой ошибки. Это полезный инструмент, но не гарантия прибыли.
А у вас было так, что проект казался качественным, но со временем всё равно не оправдал ожиданий?
P. S. На скрине - результат выполнения скрипта с рейтингом проектов на основе списка статей из Teletype.
#аналитика
😎 Незрячий web3 программист (подписаться)
Чат | бот
За 3 года я анализировал много проектов по своей методике. И со временем заметил неприятную вещь: даже качественные порой оказываются слабыми.
Потому что мой чек-лист не гарантирует, что проект сохранит свой уровень в будущем.
Например, когда изучал Superform, проект был классным!
Команда - 4 из 5, концепт - 5 из 5, код - 5 из 5, коин - 3 из 5, практика - 5 из 5.
Но далее развитие затянули и токен выпускали так долго, будто проверяли рынок на терпение. В итоге сейчас TVL всего 35,06 МЛН $. Да и проект, судя по текущим метрикам, мало кому интересен.
Это видно и по позиции токена $UP: на момент написания поста он находится на 1178 месте в Coingecko.
Да, от ATH токен просел не критично, и пик был совсем недавно. Но риск всё равно остаётся высоким из-за будущих разлоков.
Несмотря на позитив, стоило обратить внимание на токеномику: она тогда получила 3 из 5. Но я подумал, что остальное перевесит.
Вот только нет - Superform не оправдал тех ожиданий, которые он создавал у меня на момент анализа.
Вижу как минимум три возможные причины:
1. Я ошибся при оценке. Это тоже стоит учитывать при изучении проекта: любой может ошибиться.
2. Уровень изменился позже.
Например, многие участники команды ушли, были какие-то скрытые договорённости или иные факторы.
Но важно уточнить: текущее внутреннее состояние проекта я отдельно не исследовал.
3. Либо спрос на их продукт оказался низким - на протокол доходности, в том числе кроссчейн.
Итог:
Анализ по 4К+ нужен не для предсказания будущего, а для снижения вероятности грубой ошибки. Это полезный инструмент, но не гарантия прибыли.
А у вас было так, что проект казался качественным, но со временем всё равно не оправдал ожиданий?
P. S. На скрине - результат выполнения скрипта с рейтингом проектов на основе списка статей из Teletype.
#аналитика
😎 Незрячий web3 программист (подписаться)
Чат | бот
6👍10❤3👌3
TCCC AI стал глубже анализировать проекты. Ниже — 3 главных обновления, которые я добавил в сервис
Недавно я уже рассказывал о своём сервисе аналитики проектов TCCC AI: там один ИИ делает аудит, а второй фильтрует результат.
За это время я заметно его усилил.
Самое важное обновление - это верификация по документации.
Раньше TCCC AI получал анализ проекта от ИИ, фильтровал его вторым ИИ и оформлял в итоговую страницу.
На этом процесс заканчивался. Из-за этого могли оставаться неточности. Например, из-за старых постов или других источников данных.
Теперь после основной аналитики появилась отдельная верификация по документации проекта.
То есть сервис не только делает аудит, но потом ещё и сверяет ключевые данные с docs проекта.
Для защиты от лишней воды и маркетинга сервис извлекает именно конкретные данные. Но полностью исключить шум всё равно нельзя.
Документация тоже может устаревать, но это уже само по себе показатель качества проекта.
Можно было бы добавить сверку дат, но это ненадёжно: разделы в docs часто обновляются неравномерно.
Процесс:
1. Находим docs через ссылку на сайте или поддомен docs.{project}.
2. Скачиваем.
3. Документацию разбиваем по заголовкам и сверяем с соответствующими частями аудита.
Так верификация получается точнее и при этом не расходует лишние токены.
4. Получаем результат и добавляем блок в итоговый результат.
Как вам?
Примером анализа является новая версия про Ambient.
Вторым серьёзным улучшением назову ValueVerse.
Это сервис app.valueverse.ai, который даёт дополнительный слой оценки токена: не только базовые метрики, но и сигналы спроса.
Да: проектов там пока немного. Но тем не менее они есть. Да и в будущем могут добавить ещё.
В TCCC AI теперь появился отдельный блок после раздела Coin (по токену). Там отображаются факторы двумя списками. А если у ValueVerse есть числовые данные, показываются и они.
Пример: анализ Pendle (в этой версии ещё без документации). Раздел: "Token value signals from ValueVerse".
ВАЖНО: этот блок не влияет на аналитический вывод.
P. S. Создателю ValueVerse большая благодарность. Готов также дать партнёрский статус для дохода от аналитики.
И ещё я внедрил на сайт возможность запускать сразу несколько разборов (в боте не делал).
В дашборде для этого есть вкладка Several audits (несколько аудитов).
Можно вставить список URL и токенов — по одному проекту на строку.
Это удобно, если есть несколько проектов, и не хочется делать множество одиночных запусков аналитики.
Всё.
Как вам такие обновления?
И можете писать проекты, разбор которых хотели бы увидеть у меня в канале.
P. S. В случае проблем пишите в @blind_dev_chat
И буду рад лайку с репостом твита про обновления:
https://x.com/Denis_skripnik/status/2041893852764635468
😎 Незрячий web3 программист (подписаться)
Чат | бот
Недавно я уже рассказывал о своём сервисе аналитики проектов TCCC AI: там один ИИ делает аудит, а второй фильтрует результат.
За это время я заметно его усилил.
Самое важное обновление - это верификация по документации.
Раньше TCCC AI получал анализ проекта от ИИ, фильтровал его вторым ИИ и оформлял в итоговую страницу.
На этом процесс заканчивался. Из-за этого могли оставаться неточности. Например, из-за старых постов или других источников данных.
Теперь после основной аналитики появилась отдельная верификация по документации проекта.
То есть сервис не только делает аудит, но потом ещё и сверяет ключевые данные с docs проекта.
Для защиты от лишней воды и маркетинга сервис извлекает именно конкретные данные. Но полностью исключить шум всё равно нельзя.
Документация тоже может устаревать, но это уже само по себе показатель качества проекта.
Можно было бы добавить сверку дат, но это ненадёжно: разделы в docs часто обновляются неравномерно.
Процесс:
1. Находим docs через ссылку на сайте или поддомен docs.{project}.
2. Скачиваем.
3. Документацию разбиваем по заголовкам и сверяем с соответствующими частями аудита.
Так верификация получается точнее и при этом не расходует лишние токены.
4. Получаем результат и добавляем блок в итоговый результат.
Как вам?
Примером анализа является новая версия про Ambient.
Вторым серьёзным улучшением назову ValueVerse.
Это сервис app.valueverse.ai, который даёт дополнительный слой оценки токена: не только базовые метрики, но и сигналы спроса.
Да: проектов там пока немного. Но тем не менее они есть. Да и в будущем могут добавить ещё.
В TCCC AI теперь появился отдельный блок после раздела Coin (по токену). Там отображаются факторы двумя списками. А если у ValueVerse есть числовые данные, показываются и они.
Пример: анализ Pendle (в этой версии ещё без документации). Раздел: "Token value signals from ValueVerse".
ВАЖНО: этот блок не влияет на аналитический вывод.
P. S. Создателю ValueVerse большая благодарность. Готов также дать партнёрский статус для дохода от аналитики.
И ещё я внедрил на сайт возможность запускать сразу несколько разборов (в боте не делал).
В дашборде для этого есть вкладка Several audits (несколько аудитов).
Можно вставить список URL и токенов — по одному проекту на строку.
Это удобно, если есть несколько проектов, и не хочется делать множество одиночных запусков аналитики.
Всё.
Как вам такие обновления?
И можете писать проекты, разбор которых хотели бы увидеть у меня в канале.
P. S. В случае проблем пишите в @blind_dev_chat
И буду рад лайку с репостом твита про обновления:
https://x.com/Denis_skripnik/status/2041893852764635468
😎 Незрячий web3 программист (подписаться)
Чат | бот
👍12❤2🔥1
ИИ-агенты уже умеют многое. Но чем дольше ими пользуешься, тем сильнее понимаешь: сильной модели мало, если сам агент неудобный
И я сейчас не про спор, какая модель умнее.
Я про более практичные вещи:
• можно ли нормально разделять контексты;
• видно ли, какой моделью работает агент;
• понятно ли, когда включился fallback (автоматическое переключение на запасную модель);
• ясно ли, что делает субагент;
• не превращается ли диалог с ботом в одну длинную кашу.
Последнее время я смотрел на это не только как пользователь, но и как человек, который может предлагать изменения в коде проектов с открытым кодом.
Речь про Hermes и OpenClaw - софт для работы с ИИ-агентами.
Начну с Hermes.
Одна из самых полезных идей, которую я туда предложил, - темы в личке Telegram-бота.
Когда у тебя один чат с агентом, туда быстро сваливается всё подряд: код, контент, эксперименты, тесты. И через время это больше похоже не на рабочий диалог, а на кладовку.
Контекст смешивается, и пользоваться ботом становится тяжелее.
Если же есть темы, всё уже выглядит намного чище:
• одна тема под один проект;
• другая под другой;
• третья под отдельный режим или навык.
Бот остаётся один, но внутри появляется нормальная структура.
Для обычного пользователя это вполне практическое улучшение:
меньше путаницы, проще держать фокус, легче возвращаться к нужной задаче.
Это для меня один из самых удачных кейсов за последнее время:
мою реализацию тем в личке забрали в основной репозиторий с сохранением авторства. Итоговый PR: https://github.com/NousResearch/hermes-agent/pull/3163
Ещё в Hermes я предлагал такие UX-улучшения:
• подпись к voice-сообщению вместо отдельного текста;
• отображение модели у субагента;
• отдельную модель для отдельной темы;
• уведомления о fallback.
Но они пока не приняты.
Когда агентом пользуешься каждый день, такие вещи быстро перестают казаться мелочами.
Теперь про OpenClaw.
Там мне не хватало другой вещи - прозрачности.
Если запускается субагент, это лучше явно показывать пользователю.
Если система тихо переключилась на fallback-модель, это тоже лучше не прятать.
Иначе работать становится очень неудобно. Пишешь код или что-то обсуждаешь, а потом в какой-то момент понимаешь: ответы резко стали хуже. И пользователь узнаёт о переключении не из интерфейса, а по симптомам.
Наиболее сильно мне запомнился случай, когда я делал правки в OpenClaw с ChatGPT, но у него закончились лимиты. В результате произошло тихое переключение на Minimax. А она программировать нормально не умеет. После чего начинается отдельный квест: понять, что она там насобирала 🙂.
Итог - синтаксическая ошибка, из-за которой приложение перестало запускаться. Пришлось разбираться вручную.
Поэтому я считаю важным, чтобы агент явно сообщал о переходе на fallback-модель и показывал, какая модель выбрана для субагента.
Но эти предложения пока не вошли в основной репозиторий.
Итог:
ИИ действительно сильно ускоряет такую работу.
С ним проще собрать черновик, быстрее проверить гипотезу и быстрее дойти до рабочего варианта.
Но в деталях он всё ещё часто ошибается.
Особенно неприятно, когда в процессе незаметно включается fallback на более слабую модель.
Тогда хорошая идея легко превращается в сырой PR, который потом всё равно приходится допиливать вручную.
Мне интересно не просто писать код или отправлять pull request'ы ради галочки.
Гораздо интереснее улучшать реальный опыт работы с ИИ-агентами:
чтобы ими было удобнее пользоваться,
чтобы было меньше скрытой магии,
чтобы было больше прозрачности.
Потому что сами модели уже часто сильные.
А вот UX (удобство использования) местами всё ещё сырой.
И именно такие вещи часто решают, будешь ли ты реально пользоваться таким агентом каждый день или просто иногда запускать его как игрушку.
А вам в ИИ-агентах чего не хватает больше всего:
прозрачности, управления или просто удобства?
😎 Незрячий web3 программист (подписаться)
Чат | бот
И я сейчас не про спор, какая модель умнее.
Я про более практичные вещи:
• можно ли нормально разделять контексты;
• видно ли, какой моделью работает агент;
• понятно ли, когда включился fallback (автоматическое переключение на запасную модель);
• ясно ли, что делает субагент;
• не превращается ли диалог с ботом в одну длинную кашу.
Последнее время я смотрел на это не только как пользователь, но и как человек, который может предлагать изменения в коде проектов с открытым кодом.
Речь про Hermes и OpenClaw - софт для работы с ИИ-агентами.
Начну с Hermes.
Одна из самых полезных идей, которую я туда предложил, - темы в личке Telegram-бота.
Когда у тебя один чат с агентом, туда быстро сваливается всё подряд: код, контент, эксперименты, тесты. И через время это больше похоже не на рабочий диалог, а на кладовку.
Контекст смешивается, и пользоваться ботом становится тяжелее.
Если же есть темы, всё уже выглядит намного чище:
• одна тема под один проект;
• другая под другой;
• третья под отдельный режим или навык.
Бот остаётся один, но внутри появляется нормальная структура.
Для обычного пользователя это вполне практическое улучшение:
меньше путаницы, проще держать фокус, легче возвращаться к нужной задаче.
Это для меня один из самых удачных кейсов за последнее время:
мою реализацию тем в личке забрали в основной репозиторий с сохранением авторства. Итоговый PR: https://github.com/NousResearch/hermes-agent/pull/3163
Ещё в Hermes я предлагал такие UX-улучшения:
• подпись к voice-сообщению вместо отдельного текста;
• отображение модели у субагента;
• отдельную модель для отдельной темы;
• уведомления о fallback.
Но они пока не приняты.
Когда агентом пользуешься каждый день, такие вещи быстро перестают казаться мелочами.
Теперь про OpenClaw.
Там мне не хватало другой вещи - прозрачности.
Если запускается субагент, это лучше явно показывать пользователю.
Если система тихо переключилась на fallback-модель, это тоже лучше не прятать.
Иначе работать становится очень неудобно. Пишешь код или что-то обсуждаешь, а потом в какой-то момент понимаешь: ответы резко стали хуже. И пользователь узнаёт о переключении не из интерфейса, а по симптомам.
Наиболее сильно мне запомнился случай, когда я делал правки в OpenClaw с ChatGPT, но у него закончились лимиты. В результате произошло тихое переключение на Minimax. А она программировать нормально не умеет. После чего начинается отдельный квест: понять, что она там насобирала 🙂.
Итог - синтаксическая ошибка, из-за которой приложение перестало запускаться. Пришлось разбираться вручную.
Поэтому я считаю важным, чтобы агент явно сообщал о переходе на fallback-модель и показывал, какая модель выбрана для субагента.
Но эти предложения пока не вошли в основной репозиторий.
Итог:
ИИ действительно сильно ускоряет такую работу.
С ним проще собрать черновик, быстрее проверить гипотезу и быстрее дойти до рабочего варианта.
Но в деталях он всё ещё часто ошибается.
Особенно неприятно, когда в процессе незаметно включается fallback на более слабую модель.
Тогда хорошая идея легко превращается в сырой PR, который потом всё равно приходится допиливать вручную.
Мне интересно не просто писать код или отправлять pull request'ы ради галочки.
Гораздо интереснее улучшать реальный опыт работы с ИИ-агентами:
чтобы ими было удобнее пользоваться,
чтобы было меньше скрытой магии,
чтобы было больше прозрачности.
Потому что сами модели уже часто сильные.
А вот UX (удобство использования) местами всё ещё сырой.
И именно такие вещи часто решают, будешь ли ты реально пользоваться таким агентом каждый день или просто иногда запускать его как игрушку.
А вам в ИИ-агентах чего не хватает больше всего:
прозрачности, управления или просто удобства?
😎 Незрячий web3 программист (подписаться)
Чат | бот
👍13🔥7❤4
На что я смотрю в токеномике проекта в первую очередь
Про токеномику я уже писал не раз. Решил наконец коротко собрать, на что смотрю в первую очередь.
Самое важное для меня - какой у проекта продукт. Да-да: не токен, а продукт.
Если он слабый, хорошая токеномика не спасёт.
Он должен создавать спрос на токен через утилиты (способы использования токена) - это следующий ключевой момент.
Например, стейкинг с упором на ДАО уже исторически считается слабым фактором спроса, потому что не всем это интересно, да и мало связано с продуктом.
А вот выкупы или распределение стейкерам части выручки - другое дело.
Но, конечно, важно и начальное распределение токена:
Если команде дали 30% токенов, а через год разлочат 10% от общего количества, ничего не поможет проекту.
10% команде и 10% инвесторам я считаю нормальным ориентиром, потому что это снижает давление на токен.
В этом случае риск уже заметно ниже. Конечно, если не разблокируют всю долю одним махом.
Но поскольку редко встречаются доли <= 10%, на практике 15% для меня ещё выглядит допустимо.
Критически важно обращать внимание на назначение доли.
Часто бывает так, что указаны:
1. team - 15%;
2. Foundation - 20%.
3. Core contributors - 10%.
Кажется, что это разные категории, но по факту это 35-45% команде!
А что по наградам из ДАО казначейства?
С одной стороны, 20-30-40% токенов в казначействе выглядят неплохо: это и развитие, и потенциальная децентрализация.
Но чаще всего всё приходит к неэффективному распределению:
- Либо голосует мало кто, и небольшая группа выплачивает себе / своим партнёрам.
- Либо поддерживают проекты и разработки, но их создатели потом продают токены и уходят. Либо продолжают работать, но без результата, что для проекта тоже плохо.
А вы на что в токеномике смотрите в первую очередь и почему?
#аналитика
😎 Незрячий web3 программист (подписаться)
Чат | бот
Про токеномику я уже писал не раз. Решил наконец коротко собрать, на что смотрю в первую очередь.
Самое важное для меня - какой у проекта продукт. Да-да: не токен, а продукт.
Если он слабый, хорошая токеномика не спасёт.
Он должен создавать спрос на токен через утилиты (способы использования токена) - это следующий ключевой момент.
Например, стейкинг с упором на ДАО уже исторически считается слабым фактором спроса, потому что не всем это интересно, да и мало связано с продуктом.
А вот выкупы или распределение стейкерам части выручки - другое дело.
Но, конечно, важно и начальное распределение токена:
Если команде дали 30% токенов, а через год разлочат 10% от общего количества, ничего не поможет проекту.
10% команде и 10% инвесторам я считаю нормальным ориентиром, потому что это снижает давление на токен.
В этом случае риск уже заметно ниже. Конечно, если не разблокируют всю долю одним махом.
Но поскольку редко встречаются доли <= 10%, на практике 15% для меня ещё выглядит допустимо.
Критически важно обращать внимание на назначение доли.
Часто бывает так, что указаны:
1. team - 15%;
2. Foundation - 20%.
3. Core contributors - 10%.
Кажется, что это разные категории, но по факту это 35-45% команде!
А что по наградам из ДАО казначейства?
С одной стороны, 20-30-40% токенов в казначействе выглядят неплохо: это и развитие, и потенциальная децентрализация.
Но чаще всего всё приходит к неэффективному распределению:
- Либо голосует мало кто, и небольшая группа выплачивает себе / своим партнёрам.
- Либо поддерживают проекты и разработки, но их создатели потом продают токены и уходят. Либо продолжают работать, но без результата, что для проекта тоже плохо.
А вы на что в токеномике смотрите в первую очередь и почему?
#аналитика
😎 Незрячий web3 программист (подписаться)
Чат | бот
1👍9
Посмотрел Zoo Finance. Проект выглядит интересно, но при проверке там быстро начинаются вопросы
Решил пройтись по нему по своей обычной схеме: команда, концепт, коин, код, риски + практика.
Команда:
У проекта есть страница компании в LinkedIn, указана штаб-квартира в Бостоне.
Из публичных участников я увидел двух: Zhuangzhuang Chang (Co-Founder / CEO) и Joey Wong (COO).
Соцсети тоже живые. Плюс я писал им в Discord, и мне всё же ответили на вопросы, пусть и не сразу.
Команда не анонимная. Но полной прозрачности по всем ключевым участникам я пока всё равно не увидел. Поэтому здесь у меня 4 из 5.
Концепт:
Zoo Finance решает вполне понятную задачу: ликвидность для заблокированных активов.
То есть речь про вестинг, награды с нод, потоки доходности и другие истории, где актив у пользователя уже есть, но использовать его сразу в полном объёме нельзя.
Zoo Finance позволяет получать торгуемые токены под будущие разлоки или доходность без нарушения правил вестинга.
Они поддерживают 4 типа хранилищ: LVT-Vault (для вестинга), LNT-Vault (для нод), L-Vault (стейблкоин с маржинальным обеспечением) и B-Vault (для токенизации доходности PoL - Proof of liquidity).
По данным DefiLlama, TVL около 35 млн $, но roadmap внятно не раскрыт.
Есть партнёрства с Aethir и 0G.
Конкуренты тоже упоминаются, и это плюс.
Оценка 4 из 5.
Коин:
Нативного токена пока нет. Поэтому классическую токеномику здесь пока не оценить: ни утилиты, ни распределение, ни будущие разлоки.
Но известно об инвестициях в размере 10 МЛН $.
По данным Cryptorank, в проект вложились OKX Ventures, CMS Holdings, Bitrise Capital, Signum Capital и другие.
В итоге по коину 3 из 5.
Код:
Из документации я узнал, что был аудит CertiK.
На GitHub есть 18 репозиториев, но в основном это сайт, интерфейсы, NFT-ноды и связанная инфраструктура.
Для меня главный минус тут в том, что код основных смарт-контрактов публично не виден.
По коду здесь у меня 2 из 5.
Риски:
1. Ограниченная открытость core-части.
2. В аудите отдельно отмечался риск централизации, связанный с админскими полномочиями. А значит, часть доверия к системе всё равно остаётся на стороне команды.
3. Сложность самой модели. Чем больше составных механик внутри проекта, тем внимательнее его приходится проверять.
Практика:
На сайте app.zoofi.io сверху показывается B-vault. Это хранилище доходности для PoL (Berachain).
В LNT Vault я увидел Reppo Solver Node и Aethir Checker Node.
Там можно завести и вывести NFT, получить vATH и сделать swap.
Поддерживается и "Put Option" с постепенной конвертацией.
В LVT-Vault - Filecoin 540-Locked Vault, Story IP 360-Locked Vault, SEI 360-Locked Vault.
По названиям уже понятно, что это vault'ы под вестинг токенов.
У Story можно, например, обменять, управлять ликвидностью или выбрать Put Option (постепенно переводить в IP) или Wrap IP в WIP.
У Filecoin есть только Put Option и swap с ликвидностью.
Оценка 4 из 5: мало предложений, но интерфейс более-менее понятный.
Мой вывод
У Zoo Finance есть понятный прикладной концепт.
Команда не выглядит анонимной, инвестиции есть, аудит тоже есть.
Но закрытость core-части, ограниченная техническая проверяемость и отдельно отмеченный риск централизации всё равно заставляют смотреть на проект осторожно.
Более быстрый аудит проекта под ваш запрос можно заказать на https://tcccai.xyz.
А если смотрели Zoo Finance сами, интересно, что вас там смутило или, наоборот, понравилось?
#аналитика
😎 Незрячий web3 программист (подписаться)
Чат | бот
Решил пройтись по нему по своей обычной схеме: команда, концепт, коин, код, риски + практика.
Команда:
У проекта есть страница компании в LinkedIn, указана штаб-квартира в Бостоне.
Из публичных участников я увидел двух: Zhuangzhuang Chang (Co-Founder / CEO) и Joey Wong (COO).
Соцсети тоже живые. Плюс я писал им в Discord, и мне всё же ответили на вопросы, пусть и не сразу.
Команда не анонимная. Но полной прозрачности по всем ключевым участникам я пока всё равно не увидел. Поэтому здесь у меня 4 из 5.
Концепт:
Zoo Finance решает вполне понятную задачу: ликвидность для заблокированных активов.
То есть речь про вестинг, награды с нод, потоки доходности и другие истории, где актив у пользователя уже есть, но использовать его сразу в полном объёме нельзя.
Zoo Finance позволяет получать торгуемые токены под будущие разлоки или доходность без нарушения правил вестинга.
Они поддерживают 4 типа хранилищ: LVT-Vault (для вестинга), LNT-Vault (для нод), L-Vault (стейблкоин с маржинальным обеспечением) и B-Vault (для токенизации доходности PoL - Proof of liquidity).
По данным DefiLlama, TVL около 35 млн $, но roadmap внятно не раскрыт.
Есть партнёрства с Aethir и 0G.
Конкуренты тоже упоминаются, и это плюс.
Оценка 4 из 5.
Коин:
Нативного токена пока нет. Поэтому классическую токеномику здесь пока не оценить: ни утилиты, ни распределение, ни будущие разлоки.
Но известно об инвестициях в размере 10 МЛН $.
По данным Cryptorank, в проект вложились OKX Ventures, CMS Holdings, Bitrise Capital, Signum Capital и другие.
В итоге по коину 3 из 5.
Код:
Из документации я узнал, что был аудит CertiK.
На GitHub есть 18 репозиториев, но в основном это сайт, интерфейсы, NFT-ноды и связанная инфраструктура.
Для меня главный минус тут в том, что код основных смарт-контрактов публично не виден.
По коду здесь у меня 2 из 5.
Риски:
1. Ограниченная открытость core-части.
2. В аудите отдельно отмечался риск централизации, связанный с админскими полномочиями. А значит, часть доверия к системе всё равно остаётся на стороне команды.
3. Сложность самой модели. Чем больше составных механик внутри проекта, тем внимательнее его приходится проверять.
Практика:
На сайте app.zoofi.io сверху показывается B-vault. Это хранилище доходности для PoL (Berachain).
В LNT Vault я увидел Reppo Solver Node и Aethir Checker Node.
Там можно завести и вывести NFT, получить vATH и сделать swap.
Поддерживается и "Put Option" с постепенной конвертацией.
В LVT-Vault - Filecoin 540-Locked Vault, Story IP 360-Locked Vault, SEI 360-Locked Vault.
По названиям уже понятно, что это vault'ы под вестинг токенов.
У Story можно, например, обменять, управлять ликвидностью или выбрать Put Option (постепенно переводить в IP) или Wrap IP в WIP.
У Filecoin есть только Put Option и swap с ликвидностью.
Оценка 4 из 5: мало предложений, но интерфейс более-менее понятный.
Мой вывод
У Zoo Finance есть понятный прикладной концепт.
Команда не выглядит анонимной, инвестиции есть, аудит тоже есть.
Но закрытость core-части, ограниченная техническая проверяемость и отдельно отмеченный риск централизации всё равно заставляют смотреть на проект осторожно.
Более быстрый аудит проекта под ваш запрос можно заказать на https://tcccai.xyz.
А если смотрели Zoo Finance сами, интересно, что вас там смутило или, наоборот, понравилось?
#аналитика
😎 Незрячий web3 программист (подписаться)
Чат | бот
1👍9😍1
Я запустил 2 канала, где ИИ-агент сам ищет информацию и публикует посты. Но продвигать их не может
Сначала у меня уже был скилл для поиска по X.
Позавчера я решил использовать его, чтобы находить аналитические посты о проектах.
В какой-то момент появилась мысль: если агент уже умеет находить нужную информацию, почему бы не поручить ему ещё и публикацию в канал?
Так я создал скилл для публикации в Telegram каналы.
И первым был создан @auditsFromX. Если интересна тема аналитики, можете подписаться на него 🙂.
Но дальше быстро выяснилось, что просто “найти пост и отправить его в канал” мало.
Пришлось допиливать публикацию:
• чтобы нормально поддерживались ссылки;
• чтобы не ломалось форматирование;
• чтобы можно было добавлять картинки;
• чтобы это всё выходило по cron в нужное время.
Далее вылезла ещё одна проблема.
Если пост длиннее 1024 символов, опубликовать картинку с текстом одним постом не получится.
Поэтому я настроил так, чтобы в таких случаях первым публиковалось изображение с анонсом, а вторым - подробности.
Канал уже реально можно вести почти на автопилоте.
Агент сам ищет материал, готовит публикацию и выкладывает её по расписанию!
Почему почти? Потому что стиль всё равно приходится время от времени допиливать.
Ещё я вспомнил, что мне самому интересна тема доступности интерфейсов.
Я часто читаю такие материалы, слежу за проблемами доступности и в целом хочу больше общаться с людьми из этой среды.
Так появился ещё один канал, уже про accessibility.
Если вам тоже интересна тема, можете подписаться: @accessibilityOfInterfaces
Там логика похожая:
• дал задачу искать посты по теме;
• получил пример;
• создал канал;
• добавил агента в админы;
• настроил cron;
• и публикации пошли автоматически.
Это уже не один случайный эксперимент, а повторяемая схема.
Ещё одну интересную штуку я сделал в моём давнем канале @blindAboutFiction.
Там я настроил более простой формат постов про книги: теперь они делаются на основе комментариев к циклам.
И получилось даже интереснее, чем когда я писал сам.
Важно, что такой формат не пересказывает сюжет слишком подробно.
А значит, подписчикам потом всё ещё интересно читать сами книги.
Но вот тут уже полной автоматизации не получилось.
ИИ-агент не смог нормально сам находить новые популярные циклы на Author.Today: инструмент, через который смотрю страницы, почему-то часть контента в каталоге пропускает. Браузер же дёргать для этого пока не хочу. Хотя может скоро и попробую такой вариант.
Поэтому эту часть всё ещё приходится запускать вручную через вызов скилла со ссылкой на цикл.
Но всё это работает не “само по себе”.
При публикации у меня используется другой скилл, который помогает держать мой стиль и убирать слишком явную ИИ-генерацию.
Сам по себе агент канал вести может.
Но только если вокруг него уже собрана нормальная система:
• поиск,
• публикация,
• форматирование,
• картинки,
• cron,
• и отдельная настройка стиля.
Из всего этого у меня вывод простой:
контентный автопилот уже вполне реальный.
Если нормально всё настроить, ИИ-агент действительно может сам искать информацию и публиковать посты в каналы.
Но важно помнить, что канал сам себя продвигать не будет. ИИ-агент этого тоже пока не умеет.
Поэтому рекламой, контактами с другими админами и остальным продвижением всё равно придётся заниматься вручную.
Что бы вы сами уже сейчас отдали ИИ в ведении канала, а что не отдали бы точно?
P. S. В этом канале темы и мысли я всё равно придумываю сам. ИИ максимум помогает мне потом чуть упростить текст, потому что я люблю местами усложнить 🙂
#ai #openclaw
😎 Незрячий web3 программист (подписаться)
Чат | бот
Сначала у меня уже был скилл для поиска по X.
Позавчера я решил использовать его, чтобы находить аналитические посты о проектах.
В какой-то момент появилась мысль: если агент уже умеет находить нужную информацию, почему бы не поручить ему ещё и публикацию в канал?
Так я создал скилл для публикации в Telegram каналы.
И первым был создан @auditsFromX. Если интересна тема аналитики, можете подписаться на него 🙂.
Но дальше быстро выяснилось, что просто “найти пост и отправить его в канал” мало.
Пришлось допиливать публикацию:
• чтобы нормально поддерживались ссылки;
• чтобы не ломалось форматирование;
• чтобы можно было добавлять картинки;
• чтобы это всё выходило по cron в нужное время.
Далее вылезла ещё одна проблема.
Если пост длиннее 1024 символов, опубликовать картинку с текстом одним постом не получится.
Поэтому я настроил так, чтобы в таких случаях первым публиковалось изображение с анонсом, а вторым - подробности.
Канал уже реально можно вести почти на автопилоте.
Агент сам ищет материал, готовит публикацию и выкладывает её по расписанию!
Почему почти? Потому что стиль всё равно приходится время от времени допиливать.
Ещё я вспомнил, что мне самому интересна тема доступности интерфейсов.
Я часто читаю такие материалы, слежу за проблемами доступности и в целом хочу больше общаться с людьми из этой среды.
Так появился ещё один канал, уже про accessibility.
Если вам тоже интересна тема, можете подписаться: @accessibilityOfInterfaces
Там логика похожая:
• дал задачу искать посты по теме;
• получил пример;
• создал канал;
• добавил агента в админы;
• настроил cron;
• и публикации пошли автоматически.
Это уже не один случайный эксперимент, а повторяемая схема.
Ещё одну интересную штуку я сделал в моём давнем канале @blindAboutFiction.
Там я настроил более простой формат постов про книги: теперь они делаются на основе комментариев к циклам.
И получилось даже интереснее, чем когда я писал сам.
Важно, что такой формат не пересказывает сюжет слишком подробно.
А значит, подписчикам потом всё ещё интересно читать сами книги.
Но вот тут уже полной автоматизации не получилось.
ИИ-агент не смог нормально сам находить новые популярные циклы на Author.Today: инструмент, через который смотрю страницы, почему-то часть контента в каталоге пропускает. Браузер же дёргать для этого пока не хочу. Хотя может скоро и попробую такой вариант.
Поэтому эту часть всё ещё приходится запускать вручную через вызов скилла со ссылкой на цикл.
Но всё это работает не “само по себе”.
При публикации у меня используется другой скилл, который помогает держать мой стиль и убирать слишком явную ИИ-генерацию.
Сам по себе агент канал вести может.
Но только если вокруг него уже собрана нормальная система:
• поиск,
• публикация,
• форматирование,
• картинки,
• cron,
• и отдельная настройка стиля.
Из всего этого у меня вывод простой:
контентный автопилот уже вполне реальный.
Если нормально всё настроить, ИИ-агент действительно может сам искать информацию и публиковать посты в каналы.
Но важно помнить, что канал сам себя продвигать не будет. ИИ-агент этого тоже пока не умеет.
Поэтому рекламой, контактами с другими админами и остальным продвижением всё равно придётся заниматься вручную.
Что бы вы сами уже сейчас отдали ИИ в ведении канала, а что не отдали бы точно?
P. S. В этом канале темы и мысли я всё равно придумываю сам. ИИ максимум помогает мне потом чуть упростить текст, потому что я люблю местами усложнить 🙂
#ai #openclaw
😎 Незрячий web3 программист (подписаться)
Чат | бот
1🔥10❤3
Как проверять смарт-контракт, если ты не Solidity-разработчик
Ещё 5 лет назад обычному пользователю сюда было почти не подступиться: разве что доверять сторонним аудитам. Сейчас это уже проще, хотя и не гарантирует защиту от взломов.
Если проект получил несколько аудитов от разных компаний, можно для начала проверить по ним:
1. Все ли смарт-контракты проверены? Передайте ИИ PDF-файлы аудитов и репозиторий со смарт-контрактами.
Я это делаю всегда, когда изучаю новый проект.
2. Не было ли существенных новых версий после проверки специалистами? Если да, там уже могли появиться новые уязвимости.
Но это не самый интересный метод.
Можно проверить и по-другому.
Подключаете к сайту проекта не основной кошелёк.
Запускаете транзакцию и копируете адрес смарт-контракта из кошелька.
Смотрите, какая сеть, и вставляете адрес в блок-эксплорер. Например, так:
https://arbiscan.io/address/0x...#code
И увидите код. Скопируйте его и дайте нейросети.
Если ИИ говорит, что это прокси-контракт (контракт-прокладка, который ведёт на основной), идёте в contract -> read contract. Дальше ищите функцию прокси-контракта, которая отвечает за адрес основного смарт-контракта. ChatGPT или другая нейросеть часто может подсказать, куда смотреть дальше.
Потом уже смотрите, что именно он нашёл, и используете это как дополнительный сигнал, а не как единственное основание для решения.
Но даже в этом случае я бы не отправлял в такие проекты больше 2% портфеля - это риск. Особенно сейчас, когда взломов всё больше.
А теперь более глубокий вариант анализа кода.
Есть Codex CLI и Claude Code - специальные приложения от нейросетей, которые позволяют анализировать код эффективнее.
Даёте им ссылки на explorer и GitHub (они обычно есть на сайте или в документации), и через несколько минут получаете разбор кода контракта.
Как минимум тем, кто лазит по разным новым проектам, это важная фича: можно заметить хотя бы часть опасных механик, например 100% комиссию, обмены в одну сторону или возможность вывода средств админами.
А вы вообще проверяете смарт-контракты перед входом в DeFi-проект или полагаетесь на аудиты?
#аналитика #AI
😎 Незрячий web3 программист (подписаться)
Чат | бот
Ещё 5 лет назад обычному пользователю сюда было почти не подступиться: разве что доверять сторонним аудитам. Сейчас это уже проще, хотя и не гарантирует защиту от взломов.
Если проект получил несколько аудитов от разных компаний, можно для начала проверить по ним:
1. Все ли смарт-контракты проверены? Передайте ИИ PDF-файлы аудитов и репозиторий со смарт-контрактами.
Я это делаю всегда, когда изучаю новый проект.
2. Не было ли существенных новых версий после проверки специалистами? Если да, там уже могли появиться новые уязвимости.
Но это не самый интересный метод.
Можно проверить и по-другому.
Подключаете к сайту проекта не основной кошелёк.
Запускаете транзакцию и копируете адрес смарт-контракта из кошелька.
Смотрите, какая сеть, и вставляете адрес в блок-эксплорер. Например, так:
https://arbiscan.io/address/0x...#code
И увидите код. Скопируйте его и дайте нейросети.
Если ИИ говорит, что это прокси-контракт (контракт-прокладка, который ведёт на основной), идёте в contract -> read contract. Дальше ищите функцию прокси-контракта, которая отвечает за адрес основного смарт-контракта. ChatGPT или другая нейросеть часто может подсказать, куда смотреть дальше.
Потом уже смотрите, что именно он нашёл, и используете это как дополнительный сигнал, а не как единственное основание для решения.
Но даже в этом случае я бы не отправлял в такие проекты больше 2% портфеля - это риск. Особенно сейчас, когда взломов всё больше.
А теперь более глубокий вариант анализа кода.
Есть Codex CLI и Claude Code - специальные приложения от нейросетей, которые позволяют анализировать код эффективнее.
Даёте им ссылки на explorer и GitHub (они обычно есть на сайте или в документации), и через несколько минут получаете разбор кода контракта.
Как минимум тем, кто лазит по разным новым проектам, это важная фича: можно заметить хотя бы часть опасных механик, например 100% комиссию, обмены в одну сторону или возможность вывода средств админами.
А вы вообще проверяете смарт-контракты перед входом в DeFi-проект или полагаетесь на аудиты?
#аналитика #AI
😎 Незрячий web3 программист (подписаться)
Чат | бот
1🔥9👏5❤2