Почему люди переоценивают аудиты? Избавляемся от ложного чувства безопасности.
Мы смотрим отчёты сами, читаем их у других. И, когда видим, что все проблемы исправлены, думаем: "Можно вкладываться". Как будто сам факт аудита автоматически снижает риск.
Но это не гарантия надёжности.
Аудит - это проверка конкретной версии кода в конкретный момент времени.
Я в своей аналитике тоже всегда упоминаю про аудиты в "Код" и даже повышаю оценку проекту в случае их наличия с исправленными проблемами.
Но последнее время стал обращать внимание на следующее:
1. Когда проходил аудит?
Из последнего: Edgex аудит был в 2024-2025 годах, а они периодически обновляются. Сейчас 2026!
Это уже нельзя считать актуально проверенным кодом.
2. Иногда пишут про аудиты, но на самом деле это не основные компоненты. Обычные люди не поймут. Поэтому важно скармливать файлы ИИ и спрашивать, основные компоненты проекта или нет.
Опять же, в Edgex был Starkex и мультисиг/роутер ввода-вывода.
Но сам код движка dex либо не аудировался, либо не публиковали об этом инфу.
А это критично.
Даже если мост и ввод-вывод проверены, это не означает, что вся логика исполнения ордеров и учёта позиций проходила полноценный аудит.
Ошибка в движке может не украсть средства напрямую, но привести к некорректным расчётам, заморозке операций и убыткам трейдеров или ELP.
Изучающие же аудит не обратят на это внимание, и для них будет полной неожиданностью такая дестабилизация.
3. ИИ ускоряет поиск уязвимостей.
Для справедливости скажу, что и пытаются найти их для исправления тоже. Тот же Виталик Бутерин об этом писал.
Но факт в том, что развитие ускоряется, и старые проекты с медленными обновлениями оказываются в зоне риска.
В 2025 году ИИ-инструмент помог обнаружить критическую уязвимость в действующем блокчейн-протоколе с потенциальным ущербом в несколько миллионов долларов — при том, что проект уже проходил аудит.
Также был случай с Balancer, но об этом уже 2 раза писал в разных постах.
4. Важна также репутация аудиторов: возможно они сами по себе делают некачественный анализ кода - это уже дополнительный глубокий анализ.
И важно, что ИИ может написать выжимку по аудитом. Но они не могут сказать вам про репутацию, соответствие текущей версии (особенно если нет Github) и насколько профессиональны аудиторы / проводились ли ИИ-аудиты кода.
Поэтому не стоит сильно полагаться на то, есть ли аудиты у проекта и сколько их: всегда важно соблюдать риск-менеджмент.
А вы изучаете код / аудиты проектов при выборе, куда инвестировать? Или для вас наличие аудита уже достаточный аргумент?
😎 Незрячий web3 программист (подписаться)
Чат | бот
Мы смотрим отчёты сами, читаем их у других. И, когда видим, что все проблемы исправлены, думаем: "Можно вкладываться". Как будто сам факт аудита автоматически снижает риск.
Но это не гарантия надёжности.
Аудит - это проверка конкретной версии кода в конкретный момент времени.
Я в своей аналитике тоже всегда упоминаю про аудиты в "Код" и даже повышаю оценку проекту в случае их наличия с исправленными проблемами.
Но последнее время стал обращать внимание на следующее:
1. Когда проходил аудит?
Из последнего: Edgex аудит был в 2024-2025 годах, а они периодически обновляются. Сейчас 2026!
Это уже нельзя считать актуально проверенным кодом.
2. Иногда пишут про аудиты, но на самом деле это не основные компоненты. Обычные люди не поймут. Поэтому важно скармливать файлы ИИ и спрашивать, основные компоненты проекта или нет.
Опять же, в Edgex был Starkex и мультисиг/роутер ввода-вывода.
Но сам код движка dex либо не аудировался, либо не публиковали об этом инфу.
А это критично.
Даже если мост и ввод-вывод проверены, это не означает, что вся логика исполнения ордеров и учёта позиций проходила полноценный аудит.
Ошибка в движке может не украсть средства напрямую, но привести к некорректным расчётам, заморозке операций и убыткам трейдеров или ELP.
Изучающие же аудит не обратят на это внимание, и для них будет полной неожиданностью такая дестабилизация.
3. ИИ ускоряет поиск уязвимостей.
Для справедливости скажу, что и пытаются найти их для исправления тоже. Тот же Виталик Бутерин об этом писал.
Но факт в том, что развитие ускоряется, и старые проекты с медленными обновлениями оказываются в зоне риска.
В 2025 году ИИ-инструмент помог обнаружить критическую уязвимость в действующем блокчейн-протоколе с потенциальным ущербом в несколько миллионов долларов — при том, что проект уже проходил аудит.
Также был случай с Balancer, но об этом уже 2 раза писал в разных постах.
4. Важна также репутация аудиторов: возможно они сами по себе делают некачественный анализ кода - это уже дополнительный глубокий анализ.
И важно, что ИИ может написать выжимку по аудитом. Но они не могут сказать вам про репутацию, соответствие текущей версии (особенно если нет Github) и насколько профессиональны аудиторы / проводились ли ИИ-аудиты кода.
Поэтому не стоит сильно полагаться на то, есть ли аудиты у проекта и сколько их: всегда важно соблюдать риск-менеджмент.
А вы изучаете код / аудиты проектов при выборе, куда инвестировать? Или для вас наличие аудита уже достаточный аргумент?
😎 Незрячий web3 программист (подписаться)
Чат | бот
👍12❤4
Tread.fi: инструмент алгоритмической торговли или ещё один терминал без уникальных фич? Анализ 4К+.
Узнал о Tread.fi, когда пользователи зарабатывали поинты за торговлю в Kinetiq.
Со временем я начал использовать его сам - для дельта-нейтральных стратегий на двух DEX.
Поэтому решил разобрать проект подробнее и понять, можно ли рассматривать его как основной инструмент для автоматизации торговли.
Читать в Teletype, читать в Paragraph.
Запустить веб приложение.
Общий итог
• Команда: 5 из 5: есть LinkedIn и большинство профессионалы. Есть неактивные Telegram и Youtube с блогом, но X и Discord активные. Более того: ответили на мои вопросы корректно и быстро! Это радует прям.
• Концепт: 3 из 5. Документация подробно описывает инфраструктуру алгоритмической торговли.
Это терминал с системой управления и исполнения ордеров (OEMS), алгоритмы исполнения (VWAP, TWAP и др. - это для крупных трейдеров), маршрутизация ордеров между площадками и API для интеграций.
Платформа поддерживает торговлю на централизованных биржах и perp DEX из одного интерфейса.
В документации также указаны комиссии и риски использования платформы.
Уникальной особенностью является система vCeFi, позволяющая публиковать подтверждённые ончейн метрики торговли с централизованных бирж.
При этом в документации отсутствуют анализ спроса и конкурентов, а сам сервис не является децентрализованным протоколом - это снижает устойчивость к цензуре и рискам отключения сервиса, поэтому минус.
• Коин: 3 из 5: токен и токеномика tread.fi не объявлены, но действует поинт программа Season 1, в рамках которой пользователи получают поинты за торговый объём через терминал Tread (может способствовать "wash-трейдингу").
Поинты распределяются еженедельно и используются для голосования за интеграции новых бирж.
Проект также получил инвестиции в размере $3.5 млн от фондов (GBV Capital, New Form Capital, Daedalus, Varys Capital и др.).
• Код: 1 из 5. Он закрыт, поэтому оценить архитектуру невозможно.
• Практика: 4 из 5: Интерфейс удобный и понятный, если разобраться в терминах. К тому же гибкий.
Но были случаи, когда я запускал дельта-нейтралку на двух дексах, а по факту позиции не открывались. Или наоборот - не закрывались. Алгоритмы тоже иногда нуждаются в присмотре 🙂.
Так что проверять все равно приходится (хотя бы через своего бота мониторинга дельта-нейтральных позиций).
И того, 16 из 25 баллов.
Уровень пока средний. Посмотрим, что будет после запуска токена: может улучшиться рейтинг (хотя вряд ли).
Читать в Teletype, читать в Paragraph.
Запустить веб приложение.
А вы используете сервисы алгоритмической торговли? Приходилось ли вам вручную проверять позиции после автоматической стратегии? Мне да, и это прям очень расстраивало.
😎 Незрячий web3 программист (подписаться)
Чат | бот
Узнал о Tread.fi, когда пользователи зарабатывали поинты за торговлю в Kinetiq.
Со временем я начал использовать его сам - для дельта-нейтральных стратегий на двух DEX.
Поэтому решил разобрать проект подробнее и понять, можно ли рассматривать его как основной инструмент для автоматизации торговли.
Читать в Teletype, читать в Paragraph.
Запустить веб приложение.
Общий итог
• Команда: 5 из 5: есть LinkedIn и большинство профессионалы. Есть неактивные Telegram и Youtube с блогом, но X и Discord активные. Более того: ответили на мои вопросы корректно и быстро! Это радует прям.
• Концепт: 3 из 5. Документация подробно описывает инфраструктуру алгоритмической торговли.
Это терминал с системой управления и исполнения ордеров (OEMS), алгоритмы исполнения (VWAP, TWAP и др. - это для крупных трейдеров), маршрутизация ордеров между площадками и API для интеграций.
Платформа поддерживает торговлю на централизованных биржах и perp DEX из одного интерфейса.
В документации также указаны комиссии и риски использования платформы.
Уникальной особенностью является система vCeFi, позволяющая публиковать подтверждённые ончейн метрики торговли с централизованных бирж.
При этом в документации отсутствуют анализ спроса и конкурентов, а сам сервис не является децентрализованным протоколом - это снижает устойчивость к цензуре и рискам отключения сервиса, поэтому минус.
• Коин: 3 из 5: токен и токеномика tread.fi не объявлены, но действует поинт программа Season 1, в рамках которой пользователи получают поинты за торговый объём через терминал Tread (может способствовать "wash-трейдингу").
Поинты распределяются еженедельно и используются для голосования за интеграции новых бирж.
Проект также получил инвестиции в размере $3.5 млн от фондов (GBV Capital, New Form Capital, Daedalus, Varys Capital и др.).
• Код: 1 из 5. Он закрыт, поэтому оценить архитектуру невозможно.
• Практика: 4 из 5: Интерфейс удобный и понятный, если разобраться в терминах. К тому же гибкий.
Но были случаи, когда я запускал дельта-нейтралку на двух дексах, а по факту позиции не открывались. Или наоборот - не закрывались. Алгоритмы тоже иногда нуждаются в присмотре 🙂.
Так что проверять все равно приходится (хотя бы через своего бота мониторинга дельта-нейтральных позиций).
И того, 16 из 25 баллов.
Уровень пока средний. Посмотрим, что будет после запуска токена: может улучшиться рейтинг (хотя вряд ли).
Читать в Teletype, читать в Paragraph.
Запустить веб приложение.
А вы используете сервисы алгоритмической торговли? Приходилось ли вам вручную проверять позиции после автоматической стратегии? Мне да, и это прям очень расстраивало.
😎 Незрячий web3 программист (подписаться)
Чат | бот
1👍13❤1
Настолько устал заходить на сайт Polymarket, что решил: будет мне бот! И вам тоже 🙂.
Представляю Polymarket trading bot - инструмент для работы с Polymarket прямо в Telegram
2 недели вайд-кодинга и тестов + ещё одна с исправлением нюансов: проверял сам и через ИИ. Функционал протестирован и готов к использованию.
Возможно, потребуется прокси (настраивается в конфиге), так как Polymarket блокирует торговлю в многих странах.
Один человек уже тоже использует бота, и даже заработал благодаря ему!
Функционал:
1. смотреть события и рынки по категориям
2. управлять ордерами и позициями
Поддерживаются рыночные, лимитные и сплит-ордера. Ну и конечно раздел с позициями
3. запускать стратегию (сплит-ордер со стопом -10% и тейк-профитом 30% - настраивается)
4. получать уведомления об изменении цен по событиям
5. Отправлять ссылку на Polymarket страницу события или рынка - бот откроет нужные данные. И вы сможете торговать.
6. Получать подходящие рынки для запуска стратегии.
7. Экспортировать сгенерированный ботом кошелёк и выводить средства на нужный адрес.
Я не стал добавлять поддержку импорта, чтоб свой основной никто не импортировал.
Мне нравится, что бот позволяет работать с Polymarket без лишней ручной рутины и переключений между интерфейсами.
Риски:
Волатильность в Polymarket, технические баги, ошибки при настройке. Всё протестировано, но всякое бывает.
Код открыт - вы можете менять бота под себя.
GitHub с инструкциями по установке и использованию в README: denis-skripnik/polymarket-trading-bot
Дисклеймер: все равно храните не более $ 100 или не более 0.1% портфеля в боте на всякий случай.
А вам удобно работать с Polymarket в браузере? И вообще: делаете ли ставки на события?
Делитесь: какой функционал добавить?
😎 Незрячий web3 программист (подписаться)
Чат | бот
Представляю Polymarket trading bot - инструмент для работы с Polymarket прямо в Telegram
2 недели вайд-кодинга и тестов + ещё одна с исправлением нюансов: проверял сам и через ИИ. Функционал протестирован и готов к использованию.
Возможно, потребуется прокси (настраивается в конфиге), так как Polymarket блокирует торговлю в многих странах.
Один человек уже тоже использует бота, и даже заработал благодаря ему!
Функционал:
1. смотреть события и рынки по категориям
2. управлять ордерами и позициями
Поддерживаются рыночные, лимитные и сплит-ордера. Ну и конечно раздел с позициями
3. запускать стратегию (сплит-ордер со стопом -10% и тейк-профитом 30% - настраивается)
4. получать уведомления об изменении цен по событиям
5. Отправлять ссылку на Polymarket страницу события или рынка - бот откроет нужные данные. И вы сможете торговать.
6. Получать подходящие рынки для запуска стратегии.
7. Экспортировать сгенерированный ботом кошелёк и выводить средства на нужный адрес.
Я не стал добавлять поддержку импорта, чтоб свой основной никто не импортировал.
Мне нравится, что бот позволяет работать с Polymarket без лишней ручной рутины и переключений между интерфейсами.
Риски:
Волатильность в Polymarket, технические баги, ошибки при настройке. Всё протестировано, но всякое бывает.
Код открыт - вы можете менять бота под себя.
GitHub с инструкциями по установке и использованию в README: denis-skripnik/polymarket-trading-bot
Дисклеймер: все равно храните не более $ 100 или не более 0.1% портфеля в боте на всякий случай.
А вам удобно работать с Polymarket в браузере? И вообще: делаете ли ставки на события?
Делитесь: какой функционал добавить?
😎 Незрячий web3 программист (подписаться)
Чат | бот
1🔥18👍6❤5
С восьмым марта, с международным женским днём!
Поздравляю вас, уважаемые женщины!
Желаю, чтоб у вас в душе всегда была весна.
Чтоб счастливы были всегда.
Пусть будет улыбка с утра до ночи.
А также было отличным здоровье ваше и близких.
Пусть у вас будет множество позитивных впечатлений,
и оставались всегда молодыми и красивыми.
Я, конечно, плохо вижу внешность, но красоту души чувствую.
Так вот её сохранения и приумножения вам желаю.
😎 Незрячий web3 программист (подписаться)
Чат | бот
Поздравляю вас, уважаемые женщины!
Желаю, чтоб у вас в душе всегда была весна.
Чтоб счастливы были всегда.
Пусть будет улыбка с утра до ночи.
А также было отличным здоровье ваше и близких.
Пусть у вас будет множество позитивных впечатлений,
и оставались всегда молодыми и красивыми.
Я, конечно, плохо вижу внешность, но красоту души чувствую.
Так вот её сохранения и приумножения вам желаю.
😎 Незрячий web3 программист (подписаться)
Чат | бот
2❤25
2 ИИ провели аудит ETH Strategy по 4К: сравниваю ответы и проверяю.
А также изучил функционал, добавив оценку по практике.
Использовал Parallel AI и AskSurf.
Этот пост публикую в рамках темы 4К+ анализа проектов с ИИ. Ваши из комментариев - на следующих неделях.
Что за проект?
ETH Strategy - это DeFi-протокол казначейства на Ethereum, который даёт экспозицию с кредитным плечом на ETH без рисков ликвидации. Идея - DeFi-аналог MicroStrategy (MSTR).
Протокол работает так: пользователи покупают Long Bonds (конвертируемые ноты), отдают USDC и получают CDT (debt token) + NFT option. Это 0% процентный долг - протокол берёт в долг бесплатно, потому что даёт опцион.
Казна растёт через выпуск облигаций и lending (размещает ETH в Morpho, получая проценты).
Цена STRAT: $0.14 (-83.81% от максимума), Market Cap: ~$690K.
Команда:
- AskSurf: 3/5 (соцсети есть, но без имён)
- Parallel: 2/5 (полная анонимность)
Оба сошлись - команды нет в LinkedIn.
Концепт:
- AskSurf: 4/5
- Parallel: 5/5
Оба признают уникальность - DeFi-аналог MSTR.
Интересно, что по данным DefiLlama, TVL основного хранилища 3.8 МЛН $ - это не много, но и не мало. При этом, он не падает, и даже растёт (на 2% за месяц).
На сайте написано, что у них вложено 11778 ETH - это вообще около 23,5 МЛН $.
А mGAV - 0.80X, Net Leverage - 1.15X.
Доходность ETH с момента запуска - +6.8%.
Коин:
- AskSurf: 3/5
- Parallel: 2/5
Самое интересное! Parallel нашёл то, чего нет у AskSurf: 75.5% токенов разлочится за 2 месяца - это огромный риск. AskSurf просто не нашёл данных.
Критичный момент по токеномике:
Ни я в документации, ни оба ИИ не нашли данных о том, кому сколько распределили на TGE. Есть только Total Supply (107.87M) и Circ Supply (4.86M = 4.5%). Кто владеет остальными 95.5% - непрозрачно. Это красный флаг.
Код:
- AskSurf: 2/5 (только токен открыт)
- Parallel: 5/5 (якобы есть GitHub)
Тут Parallel СГЛАЗИЛ 🙂! Нашёл GitHub, но это оказался ДРУГОЙ ПРОЕКТ - $ETHXR, а не $STRAT. Это разные токены. В docs.ethstrat.xyz нет ссылки на GitHub репозитория - только аудит Nethermind.
Что упустили оба ИИ:
ESPN - отдельный vault для доходности (Perpetual Note). ESPN уже прошёл аудит Nethermind. Аудит core protocol (2 штуки) обещают опубликовать при запуске permissionless bonding.
Итог:
- AskSurf: 3/5
- Parallel: 14/20 (~3.5/5), но с ошибкой в коде
AskSurf оказался честнее - сказал что код закрыт, и это правда. Parallel ошибся с GitHub.
Главный риск: непрозрачная токеномика + анонимная команда.
Дополнение - практика:
Зашёл в их веб приложение - довольно удобно всё:
На STRAT - стейкинг и онстейкинг токена.
На ESPN (хранилище) есть минт и Redeem. APR - 18.01%.
В Mint надо отправить USDS, чтоб получить ESPN.
USDS покупать можно в CoW Swap.
Считаю это минусом, что не поддерживают USDC и другие стейблы.
Так вот: купил, обновил страницу, указал сумму, нажал "Approve".
После подтверждения транзакции кнопка стала "Deposit USDS".
Странно, что в ESPN не пишет, сколько получу. Но в кошельке увидел, что на 0.016851 (примерно на 1.82 $) - норм.
Approve, кстати, был на нормальную сумму, что указана. А то часто многие протоколы берут разрешение на максимум токенов, из-за чего пользователи потом страдают.
Redeem - стандартная форма с указанием количества ESPN.
Но в USDS не пишут, сколько получу - минус.
(скриншоты будут в первом комменте)
В итоге, поставлю за практику оценку 4 из 5: удобно и понятно, но не выводит сумму получения.
Как думаете, стоит ли доверять проекту без раскрытия команды и распределения токенов?
😎 Незрячий web3 программист (подписаться)
Чат | бот
А также изучил функционал, добавив оценку по практике.
Использовал Parallel AI и AskSurf.
Этот пост публикую в рамках темы 4К+ анализа проектов с ИИ. Ваши из комментариев - на следующих неделях.
Что за проект?
ETH Strategy - это DeFi-протокол казначейства на Ethereum, который даёт экспозицию с кредитным плечом на ETH без рисков ликвидации. Идея - DeFi-аналог MicroStrategy (MSTR).
Протокол работает так: пользователи покупают Long Bonds (конвертируемые ноты), отдают USDC и получают CDT (debt token) + NFT option. Это 0% процентный долг - протокол берёт в долг бесплатно, потому что даёт опцион.
Казна растёт через выпуск облигаций и lending (размещает ETH в Morpho, получая проценты).
Цена STRAT: $0.14 (-83.81% от максимума), Market Cap: ~$690K.
Команда:
- AskSurf: 3/5 (соцсети есть, но без имён)
- Parallel: 2/5 (полная анонимность)
Оба сошлись - команды нет в LinkedIn.
Концепт:
- AskSurf: 4/5
- Parallel: 5/5
Оба признают уникальность - DeFi-аналог MSTR.
Интересно, что по данным DefiLlama, TVL основного хранилища 3.8 МЛН $ - это не много, но и не мало. При этом, он не падает, и даже растёт (на 2% за месяц).
На сайте написано, что у них вложено 11778 ETH - это вообще около 23,5 МЛН $.
А mGAV - 0.80X, Net Leverage - 1.15X.
Доходность ETH с момента запуска - +6.8%.
Коин:
- AskSurf: 3/5
- Parallel: 2/5
Самое интересное! Parallel нашёл то, чего нет у AskSurf: 75.5% токенов разлочится за 2 месяца - это огромный риск. AskSurf просто не нашёл данных.
Критичный момент по токеномике:
Ни я в документации, ни оба ИИ не нашли данных о том, кому сколько распределили на TGE. Есть только Total Supply (107.87M) и Circ Supply (4.86M = 4.5%). Кто владеет остальными 95.5% - непрозрачно. Это красный флаг.
Код:
- AskSurf: 2/5 (только токен открыт)
- Parallel: 5/5 (якобы есть GitHub)
Тут Parallel СГЛАЗИЛ 🙂! Нашёл GitHub, но это оказался ДРУГОЙ ПРОЕКТ - $ETHXR, а не $STRAT. Это разные токены. В docs.ethstrat.xyz нет ссылки на GitHub репозитория - только аудит Nethermind.
Что упустили оба ИИ:
ESPN - отдельный vault для доходности (Perpetual Note). ESPN уже прошёл аудит Nethermind. Аудит core protocol (2 штуки) обещают опубликовать при запуске permissionless bonding.
Итог:
- AskSurf: 3/5
- Parallel: 14/20 (~3.5/5), но с ошибкой в коде
AskSurf оказался честнее - сказал что код закрыт, и это правда. Parallel ошибся с GitHub.
Главный риск: непрозрачная токеномика + анонимная команда.
Дополнение - практика:
Зашёл в их веб приложение - довольно удобно всё:
На STRAT - стейкинг и онстейкинг токена.
На ESPN (хранилище) есть минт и Redeem. APR - 18.01%.
В Mint надо отправить USDS, чтоб получить ESPN.
USDS покупать можно в CoW Swap.
Считаю это минусом, что не поддерживают USDC и другие стейблы.
Так вот: купил, обновил страницу, указал сумму, нажал "Approve".
После подтверждения транзакции кнопка стала "Deposit USDS".
Странно, что в ESPN не пишет, сколько получу. Но в кошельке увидел, что на 0.016851 (примерно на 1.82 $) - норм.
Approve, кстати, был на нормальную сумму, что указана. А то часто многие протоколы берут разрешение на максимум токенов, из-за чего пользователи потом страдают.
Redeem - стандартная форма с указанием количества ESPN.
Но в USDS не пишут, сколько получу - минус.
(скриншоты будут в первом комменте)
В итоге, поставлю за практику оценку 4 из 5: удобно и понятно, но не выводит сумму получения.
Как думаете, стоит ли доверять проекту без раскрытия команды и распределения токенов?
😎 Незрячий web3 программист (подписаться)
Чат | бот
1👍8❤4
Я не знал Python, но смог написать 2 дополнения для NVDA благодаря своему скиллу для ИИ!
NVDA - программа экранного доступа. Она помогает мне и другим незрячим читать тексты и взаимодействовать с приложениями, озвучивая их.
Картинки - только через ИИ распознавание.
Так вот. У NVDA есть дополнения - мини-программы на Python, расширяющие функционал.
Например, я использую Часы (уведомляет каждый час о времени), синтезаторы речи, улучшение доступности Unigram и т. п.
Для меня основной язык - JS. Python же всё собирался изучать, но так и не взялся.
А тут появились ассистенты и Ide с ИИ-моделями, которым можно подключить скилл.
И я подумал:
"А почему бы не создать скилл, который будет за меня создавать дополнения?"
И сделал nvda-skill.
Для этого получил всю документацию при помощи ИИ, затем другой создал одно дополнение и дополнил инструкцию, доведя до финальной версии.
После этого я разработал:
1. ai-translator - дополнение для перевода текстов с одного языка на другой и наоборот.
Используются ИИ-модели.
Поддерживаются провайдеры: openrouter, Nous, OpenAi.
2. И Todoist for NVDA.
Самое прикольное, что это дополнение - полноценное приложение для работы с Todoist!
Есть ли официальное - не знаю. Но на сайт не хочется заходить.
Поэтому сначала создал Telegram бота, а теперь вот и дополнение.
В настройках расширения указывается API ключ и время повторных напоминаний о задачах сегодняшнего дня.
Основное окно открывается по windows+shift+t.
В нём: проекты, поиск задач и их список. Можно их создавать, изменять (текст, теги и срок) и удалять.
В нужное время придёт уведомление о задаче с кнопками "Выполнил" и "Ок".
Если нажмёте "Ок", в указанное время потом придёт напоминание о неотмеченных задачах за сегодня.
На скрине - главное окно дополнения Todoist for NVDA.
А вы научились вайд-кодить приложения на языках программирования, которые не знаете? Создавали ли интересные вам приложения вообще без навыков кодинга?
😎 Незрячий web3 программист (подписаться)
Чат | бот
NVDA - программа экранного доступа. Она помогает мне и другим незрячим читать тексты и взаимодействовать с приложениями, озвучивая их.
Картинки - только через ИИ распознавание.
Так вот. У NVDA есть дополнения - мини-программы на Python, расширяющие функционал.
Например, я использую Часы (уведомляет каждый час о времени), синтезаторы речи, улучшение доступности Unigram и т. п.
Для меня основной язык - JS. Python же всё собирался изучать, но так и не взялся.
А тут появились ассистенты и Ide с ИИ-моделями, которым можно подключить скилл.
И я подумал:
"А почему бы не создать скилл, который будет за меня создавать дополнения?"
И сделал nvda-skill.
Для этого получил всю документацию при помощи ИИ, затем другой создал одно дополнение и дополнил инструкцию, доведя до финальной версии.
После этого я разработал:
1. ai-translator - дополнение для перевода текстов с одного языка на другой и наоборот.
Используются ИИ-модели.
Поддерживаются провайдеры: openrouter, Nous, OpenAi.
2. И Todoist for NVDA.
Самое прикольное, что это дополнение - полноценное приложение для работы с Todoist!
Есть ли официальное - не знаю. Но на сайт не хочется заходить.
Поэтому сначала создал Telegram бота, а теперь вот и дополнение.
В настройках расширения указывается API ключ и время повторных напоминаний о задачах сегодняшнего дня.
Основное окно открывается по windows+shift+t.
В нём: проекты, поиск задач и их список. Можно их создавать, изменять (текст, теги и срок) и удалять.
В нужное время придёт уведомление о задаче с кнопками "Выполнил" и "Ок".
Если нажмёте "Ок", в указанное время потом придёт напоминание о неотмеченных задачах за сегодня.
На скрине - главное окно дополнения Todoist for NVDA.
А вы научились вайд-кодить приложения на языках программирования, которые не знаете? Создавали ли интересные вам приложения вообще без навыков кодинга?
😎 Незрячий web3 программист (подписаться)
Чат | бот
2🔥22👍13
Когда стоит выйти из позиции и не мучиться? Мой опыт после потерь на токенах в течение 5-7 лет.
Я мало что покупал. Основной источник прибыли - ретродропы.
Но и с полученными токенами важно уметь работать, иначе всё обесценится.
В начале я получал токены на $ 100 и больше, держал их и в итоге терял.
Самый яркий пример - $AEVO, который просел в 100 раз. Хорошо, что хоть половину зафиксировал.
А ведь в первые годы деятельности в крипте я и вовсе не продавал! Какой наивный был...
Было печально смотреть, как довольно существенная сумма токена одного протокола рестейкинга превратилась в пыль...
А потом думаешь:
"Хоть бы выросло!"
Но не растёт.
С течением времени я разработал систему спокойной фиксации, которая не обнуляет вероятность обесценивания части капитала, но позволяет спокойнее относиться к этому.
Начну со стратегии для аэрдропов, а потом перейду к инвестициям - они разные.
По аэрдропам:
1. На TGE фиксируем 50%.
Да: я $LIT продал рано, так как потом был рост. Но не жалею: мог бы упустить начало падения ниже. Что и произошло со второй половиной. Хорошо потом часть продолжил фиксировать при уменьшении цены.
2. Если цена падает на 10-20%, фиксируем ещё 10-20%. Если проект не очень интересный - до 25%.
3. При падении на 50% - оставшуюся часть.
4. Если идёт долгий рост ($HYPE), фиксируем на росте x2 по 20%-50% (в зависимости от того, сколько готовы потерять).
Да: есть стейкинг, но он не даст вам больше дохода, чем если бы вы держали или продавали.
Если хотите, можете часть оставить для DAO, если проект нравится.
Так вы заработаете, если будет существенный рост.
А также поддержите развитие проекта, участвуя в ДАО.
Стратегия для инвестиций:
Опыта меньше, так как практически ничего не покупал. Но логика похожа.
1. Смотрите на рынок и волатильность.
Странно надеяться, что будет рост x2, если рынок падает или во флэте, да и проект не особо успешен.
2. Исходя из этого продумываем фиксацию.
При хорошем росте фиксируем 50% на 100% прибыли. При не очень хорошем - на +10-20%.
3. При падении ориентируемся на волатильность. Высокая - держим до -30-50%. Низкая - выходим на -10-20%.
Но также важно осознавать, сколько вы готовы потерять.
Второй вариант - ориентироваться на соотношение в портфеле:
1. Выделяем на каждую категорию определённый процент. В том числе на рисковые 1-2-5% в зависимости от готовности к риску.
2. При увеличении цены фиксируем, ребалансируя в более надёжные категории.
3. При падении на 20%-50% фиксируем в другие рисковые или, если готовы к обнулению выделенной доли на проект - оставляем на долгосрочный холд.
При продаже на dex, используем twap-ордера (исполняемые частями раз в определённое время) или вручную делим сумму на несколько частей. Это чтоб не попасть на проскальзывание, сведя прибыль к нулю.
А вы при каких условиях фиксируете убытки?
😎 Незрячий web3 программист (подписаться)
Чат | бот
Я мало что покупал. Основной источник прибыли - ретродропы.
Но и с полученными токенами важно уметь работать, иначе всё обесценится.
В начале я получал токены на $ 100 и больше, держал их и в итоге терял.
Самый яркий пример - $AEVO, который просел в 100 раз. Хорошо, что хоть половину зафиксировал.
А ведь в первые годы деятельности в крипте я и вовсе не продавал! Какой наивный был...
Было печально смотреть, как довольно существенная сумма токена одного протокола рестейкинга превратилась в пыль...
А потом думаешь:
"Хоть бы выросло!"
Но не растёт.
С течением времени я разработал систему спокойной фиксации, которая не обнуляет вероятность обесценивания части капитала, но позволяет спокойнее относиться к этому.
Начну со стратегии для аэрдропов, а потом перейду к инвестициям - они разные.
По аэрдропам:
1. На TGE фиксируем 50%.
Да: я $LIT продал рано, так как потом был рост. Но не жалею: мог бы упустить начало падения ниже. Что и произошло со второй половиной. Хорошо потом часть продолжил фиксировать при уменьшении цены.
2. Если цена падает на 10-20%, фиксируем ещё 10-20%. Если проект не очень интересный - до 25%.
3. При падении на 50% - оставшуюся часть.
4. Если идёт долгий рост ($HYPE), фиксируем на росте x2 по 20%-50% (в зависимости от того, сколько готовы потерять).
Да: есть стейкинг, но он не даст вам больше дохода, чем если бы вы держали или продавали.
Если хотите, можете часть оставить для DAO, если проект нравится.
Так вы заработаете, если будет существенный рост.
А также поддержите развитие проекта, участвуя в ДАО.
Стратегия для инвестиций:
Опыта меньше, так как практически ничего не покупал. Но логика похожа.
1. Смотрите на рынок и волатильность.
Странно надеяться, что будет рост x2, если рынок падает или во флэте, да и проект не особо успешен.
2. Исходя из этого продумываем фиксацию.
При хорошем росте фиксируем 50% на 100% прибыли. При не очень хорошем - на +10-20%.
3. При падении ориентируемся на волатильность. Высокая - держим до -30-50%. Низкая - выходим на -10-20%.
Но также важно осознавать, сколько вы готовы потерять.
Второй вариант - ориентироваться на соотношение в портфеле:
1. Выделяем на каждую категорию определённый процент. В том числе на рисковые 1-2-5% в зависимости от готовности к риску.
2. При увеличении цены фиксируем, ребалансируя в более надёжные категории.
3. При падении на 20%-50% фиксируем в другие рисковые или, если готовы к обнулению выделенной доли на проект - оставляем на долгосрочный холд.
При продаже на dex, используем twap-ордера (исполняемые частями раз в определённое время) или вручную делим сумму на несколько частей. Это чтоб не попасть на проскальзывание, сведя прибыль к нулю.
А вы при каких условиях фиксируете убытки?
😎 Незрячий web3 программист (подписаться)
Чат | бот
7👍15❤6
Optimum - децентрализованный memory-слой для любого блокчейна
Разобрал проект по системе 4К+: команда, концепт, коин, код. Использовал два ИИ-инструмента для проверки.
Современные блокчейны медленно распространяют данные между нодами. Optimum решает это - ускоряет gossip (распространение блоков/транзакций) и добавляет децентрализованную память с низкой задержкой для dApps, AI-проектов и trading."
Да: есть высокопроизводительные блокчейны, но они чаще всего централизованы (ноды близко, а то и вовсе их меньше 10).
Команда: 5/5
Проф. Мюриэль Медард (MIT, соавтор RLNC), д-р Кишори Конвар (ex-Meta, Goldman Sachs), Кент Лин (ex-GSRV). Все с верифицированными LinkedIn.
Соцсети активны: X 54K, Discord ~82K.
Концепт: 4/5
Уникальная технология RLNC для ускорения gossip в 5-6 раз. DeRAM - децентрализованная память с низкой задержкой.
Есть анализ конкурентов (сравнение с GossipSub). Минус - нет анализа спроса.
Коин: 2/5
Токена нет. Проект получил $11M seed от 1kx, Robot Ventures, Animoca Brands и др.
Токеномика не опубликована - неизвестно распределение и разлоки.
Код: 4/5
Открытый GitHub (mump2p-cli, dev-setup-guide). Активная разработка 2025-2026. Минус - нет публичных аудитов безопасности.
Итог: 15/20 (AskSurf) / 14/20 (Parallel)
Риски:
• Нет аудитов - кастомный p2p-протокол требует проверки
• Токеномика «чёрный ящик» - следите за анонсами
• Не путайте с Optimus AI или другими похожими проектами
• Заявлена поддержка «любого блокчейна», но нет SDK для конкретных сетей
• Не ясна юнит-экономика нод: кто платит за трафик Flexnodes и как формируются стимулы без запущенного токена
Проект с элитной MIT-командой и интересной технологией. Но это ранняя стадия - нет токена, нет аудитов. Для валидаторов: изучайте документацию на docs.getoptimum.xyz и тестируйте devnet.
Данные по рискам взяты из моего проекта tccc-ai (находится в разработке).
Практика:
Здесь нет веб приложения, поэтому нечего оценивать.
Но про способы участия я уже написал ранее.
А вы уже тестировали инфраструктурные проекты на ранней стадии? Какой опыт?
P. S. Обзор написан по просьбе одного из подписчиков - благодарю за идею!
P. P. S. Можете написать, о чём хотите почитать.
😎 Незрячий web3 программист (подписаться)
Чат | бот
Разобрал проект по системе 4К+: команда, концепт, коин, код. Использовал два ИИ-инструмента для проверки.
Современные блокчейны медленно распространяют данные между нодами. Optimum решает это - ускоряет gossip (распространение блоков/транзакций) и добавляет децентрализованную память с низкой задержкой для dApps, AI-проектов и trading."
Да: есть высокопроизводительные блокчейны, но они чаще всего централизованы (ноды близко, а то и вовсе их меньше 10).
Команда: 5/5
Проф. Мюриэль Медард (MIT, соавтор RLNC), д-р Кишори Конвар (ex-Meta, Goldman Sachs), Кент Лин (ex-GSRV). Все с верифицированными LinkedIn.
Соцсети активны: X 54K, Discord ~82K.
Концепт: 4/5
Уникальная технология RLNC для ускорения gossip в 5-6 раз. DeRAM - децентрализованная память с низкой задержкой.
Есть анализ конкурентов (сравнение с GossipSub). Минус - нет анализа спроса.
Коин: 2/5
Токена нет. Проект получил $11M seed от 1kx, Robot Ventures, Animoca Brands и др.
Токеномика не опубликована - неизвестно распределение и разлоки.
Код: 4/5
Открытый GitHub (mump2p-cli, dev-setup-guide). Активная разработка 2025-2026. Минус - нет публичных аудитов безопасности.
Итог: 15/20 (AskSurf) / 14/20 (Parallel)
Риски:
• Нет аудитов - кастомный p2p-протокол требует проверки
• Токеномика «чёрный ящик» - следите за анонсами
• Не путайте с Optimus AI или другими похожими проектами
• Заявлена поддержка «любого блокчейна», но нет SDK для конкретных сетей
• Не ясна юнит-экономика нод: кто платит за трафик Flexnodes и как формируются стимулы без запущенного токена
Проект с элитной MIT-командой и интересной технологией. Но это ранняя стадия - нет токена, нет аудитов. Для валидаторов: изучайте документацию на docs.getoptimum.xyz и тестируйте devnet.
Данные по рискам взяты из моего проекта tccc-ai (находится в разработке).
Практика:
Здесь нет веб приложения, поэтому нечего оценивать.
Но про способы участия я уже написал ранее.
А вы уже тестировали инфраструктурные проекты на ранней стадии? Какой опыт?
P. S. Обзор написан по просьбе одного из подписчиков - благодарю за идею!
P. P. S. Можете написать, о чём хотите почитать.
😎 Незрячий web3 программист (подписаться)
Чат | бот
👍9❤1
Как я за 7 часов без зрения сделал полноценный сайт-портфолио!
В начале марта узнал про один скилл для веб-дизайна. Стало интересно попробовать, получится ли у меня, будучи незрячим, сделать полноценный сайт.
А то раньше приходилось использовать шаблоны, да и все равно был риск, что всё полетит...
Итог - сделал web3blind.xyz за часов 7.
Там рассказываю о себе и основных направлениях деятельности: web3, разработка, работа с ИИ-моделями и агентами. Есть FAQ и чат.
Раньше бы такое заняло несколько дней!
В рамках урока делали просто веб-сайт с контентом и дизайном.
Но мне стало интересно реализовать многоязычность (поддержку Русского и Английского).
Из-за этого усложнил себе всё:
Почему-то ИИ-модель не хотела грамотно добавлять и изменять контент на двух языках!
То на Английском забудет написать перевод, то выведет его не так...
Но этого можно было бы избежать, если бы следовал своему рабочему процессу с планированием и прочим.
Вот только тогда вдохновение и желание были настолько сильными, что не следовал этому правилу.
Результат - заняло больше времени, чем могло бы.
Хотя конечно стоит и правильные нейросети выбирать. Иначе будет плохое качество.
Как ни странно, GPT 5.3 Codex не умел делать нормальный дизайн, в то время как Minimax - да.
GPT codex почему-то сделал полностью чёрную страницу и кое-что ещё испортил. Потом пришлось в Minimax править. Видимо, Codex — фанат готики 🙂.
Хотя для сложных задач кодинга Minimax не очень.
Итог:
Стоит всегда изучать, какие модели для чего годятся. Также необходимо делать качественные промпты и действовать поэтапно.
P. S. Самое прикольное, что удалось без кода и библиотек сделать и чат с ассистентом для ответов на вопросы.
Конечно это не особо профессиональный вариант. Тут нет БД ответов, данных обо мне и переадресации ко мне. Но пока так.
Что дальше будет с сайтом?
Я либо его расширю до многостраничного и обновлю ИИ-чат, либо сделаю полноценный портал web3blind с ЛК пользователей, моими статьями и постами, заданиями и прочим - думаю.
Как вам сайт, и какие пути его расширения вы видие? Чем бы пользовались на моём веб-ресурсе (чтение статей, анализ проектов, работа с сервисами, выполнение заданий, другое)?
Делали ли сайты при помощи ИИ, как впечатления?
P. P. S. Сегодня долго мои боты не работали:
Telegram в РФ заблокировали - пришлось перевозить на новый сервер.
😎 Незрячий web3 программист (подписаться)
Чат | бот
В начале марта узнал про один скилл для веб-дизайна. Стало интересно попробовать, получится ли у меня, будучи незрячим, сделать полноценный сайт.
А то раньше приходилось использовать шаблоны, да и все равно был риск, что всё полетит...
Итог - сделал web3blind.xyz за часов 7.
Там рассказываю о себе и основных направлениях деятельности: web3, разработка, работа с ИИ-моделями и агентами. Есть FAQ и чат.
Раньше бы такое заняло несколько дней!
В рамках урока делали просто веб-сайт с контентом и дизайном.
Но мне стало интересно реализовать многоязычность (поддержку Русского и Английского).
Из-за этого усложнил себе всё:
Почему-то ИИ-модель не хотела грамотно добавлять и изменять контент на двух языках!
То на Английском забудет написать перевод, то выведет его не так...
Но этого можно было бы избежать, если бы следовал своему рабочему процессу с планированием и прочим.
Вот только тогда вдохновение и желание были настолько сильными, что не следовал этому правилу.
Результат - заняло больше времени, чем могло бы.
Хотя конечно стоит и правильные нейросети выбирать. Иначе будет плохое качество.
Как ни странно, GPT 5.3 Codex не умел делать нормальный дизайн, в то время как Minimax - да.
GPT codex почему-то сделал полностью чёрную страницу и кое-что ещё испортил. Потом пришлось в Minimax править. Видимо, Codex — фанат готики 🙂.
Хотя для сложных задач кодинга Minimax не очень.
Итог:
Стоит всегда изучать, какие модели для чего годятся. Также необходимо делать качественные промпты и действовать поэтапно.
P. S. Самое прикольное, что удалось без кода и библиотек сделать и чат с ассистентом для ответов на вопросы.
Конечно это не особо профессиональный вариант. Тут нет БД ответов, данных обо мне и переадресации ко мне. Но пока так.
Что дальше будет с сайтом?
Я либо его расширю до многостраничного и обновлю ИИ-чат, либо сделаю полноценный портал web3blind с ЛК пользователей, моими статьями и постами, заданиями и прочим - думаю.
Как вам сайт, и какие пути его расширения вы видие? Чем бы пользовались на моём веб-ресурсе (чтение статей, анализ проектов, работа с сервисами, выполнение заданий, другое)?
Делали ли сайты при помощи ИИ, как впечатления?
P. P. S. Сегодня долго мои боты не работали:
Telegram в РФ заблокировали - пришлось перевозить на новый сервер.
😎 Незрячий web3 программист (подписаться)
Чат | бот
5👍30🔥15❤2
Можно ли вообще доверять аналитикам? Всегда стоит проводить проверку
Я писал, что за ИИ надо проверять. Но если вы читаете чью-то аналитику, стоит это делать тоже.
Автор статьи или поста может заблуждаться, получить оплату за рекламу проекта и так далее...
Не говоря уж о том, что человек может влюбиться в проект из-за его технических особенностей, сообщества или чего ещё. А вы будете думать, читая контент, что вам дают гем (очень прибыльную идею).
В итоге, доверяя аналитикам, вы можете потерять средства.
Как проверять?
Изучать предлагаемое самостоятельно: качество, ссылки, документацию, определять риски.
Можно опираться на мою схему 4К+ (проверять команду, концепт, коин, код + делать практику на небольшую сумму с отдельного кошелька).
Трейдинговые же сигналы и аналитические посты про рынок - опасны:
Ситуация может измениться, автор может заблуждаться, он может намеренно говорить неправду или даже оказаться скамером.
По поводу последнего - некоторые якобы аналитики рассказывают про малоизвестные токены, зарабатывая на их пампе за счёт своей аудитории.
Факторы плохой торговой аналитики:
1. Если владелец канала не обучает, а просто даёт сигналы - красный флаг.
Особенно, если не объясняет, почему считает, что сделка хорошая.
2. Нет понимания / описания понимания рыночной ситуации. Это значит, что автор поверхностный.
Он либо сам не понимает её = предлагаемое скорее всего будет плохого качества. Либо вовсе хочет заработать на памп-дамп схеме.
3. Если он давит на эмоции: "Покупайте скорее! Этот актив вырастит в 2 раза" - красный флаг. Это повышает вероятность обмана.
В целом, думаю в случае активной торговли лучше всего самому обучаться, а не следовать кому-то.
Например, в одном канале, где я подписан, писали:
"$BTC вряд ли упадёт ниже 80 000" - тогда он стоил 83К.
В результате скоро обвалился сильно.
И от такого не застрахован никто: даже профессиональный трейдер-аналитик.
Я сам плохо понимаю в трейдинге, поэтому очень редко торгую.
Но есть 1 канал и 2 чата практиков в этой сфере, за которыми слежу.
Доверяете ли вы аналитикам? Проверяете ли их?
😎 Незрячий web3 программист (подписаться)
Чат | бот
Я писал, что за ИИ надо проверять. Но если вы читаете чью-то аналитику, стоит это делать тоже.
Автор статьи или поста может заблуждаться, получить оплату за рекламу проекта и так далее...
Не говоря уж о том, что человек может влюбиться в проект из-за его технических особенностей, сообщества или чего ещё. А вы будете думать, читая контент, что вам дают гем (очень прибыльную идею).
В итоге, доверяя аналитикам, вы можете потерять средства.
Как проверять?
Изучать предлагаемое самостоятельно: качество, ссылки, документацию, определять риски.
Можно опираться на мою схему 4К+ (проверять команду, концепт, коин, код + делать практику на небольшую сумму с отдельного кошелька).
Трейдинговые же сигналы и аналитические посты про рынок - опасны:
Ситуация может измениться, автор может заблуждаться, он может намеренно говорить неправду или даже оказаться скамером.
По поводу последнего - некоторые якобы аналитики рассказывают про малоизвестные токены, зарабатывая на их пампе за счёт своей аудитории.
Факторы плохой торговой аналитики:
1. Если владелец канала не обучает, а просто даёт сигналы - красный флаг.
Особенно, если не объясняет, почему считает, что сделка хорошая.
2. Нет понимания / описания понимания рыночной ситуации. Это значит, что автор поверхностный.
Он либо сам не понимает её = предлагаемое скорее всего будет плохого качества. Либо вовсе хочет заработать на памп-дамп схеме.
3. Если он давит на эмоции: "Покупайте скорее! Этот актив вырастит в 2 раза" - красный флаг. Это повышает вероятность обмана.
В целом, думаю в случае активной торговли лучше всего самому обучаться, а не следовать кому-то.
Например, в одном канале, где я подписан, писали:
"$BTC вряд ли упадёт ниже 80 000" - тогда он стоил 83К.
В результате скоро обвалился сильно.
И от такого не застрахован никто: даже профессиональный трейдер-аналитик.
Я сам плохо понимаю в трейдинге, поэтому очень редко торгую.
Но есть 1 канал и 2 чата практиков в этой сфере, за которыми слежу.
Доверяете ли вы аналитикам? Проверяете ли их?
😎 Незрячий web3 программист (подписаться)
Чат | бот
2👍10❤4🔥4👏2
Анализ web3 проектов с ИИ в моём новом сервисе! Вам останется лишь прочитать и проверить.
Он анализирует команду, концепт, коин, код (активность разработки и наличие аудитов), а также пишет риски и вывод.
1. Сначала один ИИ анализирует.
Думал сделать две нейронки для лучшего качества. Но вторая не выдаёт API по глубокому анализу — да и хуже стала последнее время.
2. Фильтрующий — убирает непроверенные факты и пишет некоторую инфу на основе данных.
Благодаря одному пользователю нашёл сегодня ещё один баг:
Платежи с сайта не сохранялись в базе данных, из-за чего всё зависело от фронтенда (страниц сайта).
Исправил: теперь есть сохранение, а также реализовано автоматическое подтверждение платежа.
Промокод на 30 активаций со скидкой 80%:
TCCCOM82
Укажите его при заказе аудита на сайте или в боте, и стоимость будет $ 1 вместо $ 5.
Способы использования:
1. Сайт https://tcccai.xyz
Создайте аккаунт через Telegram, e-mail + пароль или кошелька.
А далее отправьте ссылку сайта проекта и токен (если есть). И не забудьте указать промокод! Оплатите и, примерно через 10-40 минут, получите результат.
2. Бот @tccc_ai_bot
Запустите, введите url проекта и токен через пробел с $ (или без токена), укажите наличие промокода, укажите его и оплатите.
Примеры аудита:
Ambient L1, Tria и Ondo.
Буду рад отзывам и предложениям по улучшению.
P. S. Бета версия: могут быть баги. В случае их обнаружения пишите в аккаунт по ссылке на сайте или в @blind_dev_chat
😎 Незрячий web3 программист (подписаться)
Чат | бот
Он анализирует команду, концепт, коин, код (активность разработки и наличие аудитов), а также пишет риски и вывод.
1. Сначала один ИИ анализирует.
Думал сделать две нейронки для лучшего качества. Но вторая не выдаёт API по глубокому анализу — да и хуже стала последнее время.
2. Фильтрующий — убирает непроверенные факты и пишет некоторую инфу на основе данных.
Благодаря одному пользователю нашёл сегодня ещё один баг:
Платежи с сайта не сохранялись в базе данных, из-за чего всё зависело от фронтенда (страниц сайта).
Исправил: теперь есть сохранение, а также реализовано автоматическое подтверждение платежа.
Промокод на 30 активаций со скидкой 80%:
TCCCOM82
Укажите его при заказе аудита на сайте или в боте, и стоимость будет $ 1 вместо $ 5.
Способы использования:
1. Сайт https://tcccai.xyz
Создайте аккаунт через Telegram, e-mail + пароль или кошелька.
А далее отправьте ссылку сайта проекта и токен (если есть). И не забудьте указать промокод! Оплатите и, примерно через 10-40 минут, получите результат.
2. Бот @tccc_ai_bot
Запустите, введите url проекта и токен через пробел с $ (или без токена), укажите наличие промокода, укажите его и оплатите.
Примеры аудита:
Ambient L1, Tria и Ondo.
Буду рад отзывам и предложениям по улучшению.
P. S. Бета версия: могут быть баги. В случае их обнаружения пишите в аккаунт по ссылке на сайте или в @blind_dev_chat
😎 Незрячий web3 программист (подписаться)
Чат | бот
1👍11🔥4
Gearbox попытался стать кредитным слоем для всего DeFi. Получилось? Анализ команды, концепта, коина, кода + практики
Давно хотел разобрать Gearbox - проект, который предоставляет DeFi-кредитование через изолированные аккаунты. Посмотрим, что под капотом.
(Аудио версия прикреплена. Приятного прослушивания, если не хотите читать)
Читать в Teletype, читать в Paragraph.
Открыть web app.
Общий итог
• Команда: 3 из 5: ссылки на участников команды нет - пришлось поискать. Но информация всё же есть в интернете.
В соцсетях редко, но публикуют.
Например, в X 20 дней назад и в Discord 11. Но на вопросы отвечают и корректно.
• Концепт: 3 из 5: технически сильный проект с подробной документацией и продуманной архитектурой.
Децентрализация управления на уровне - трёхуровневое DAO, мультисиги (мультиподписные кошельки) с известными людьми из экосистемы, таймлоки (задержки перед выполнением операции).
Но формального анализа спроса нет в документации.
Пользовательских инструкций мало - доки больше для разработчиков и кураторов.
TVL -89% от максимума, комиссии -84%, выручка -76%.
Единственная точка роста - Monad, но я думаю, что вряд ли это надолго.
Потому что инсентивы редко дают долгосрочный приток.
• Коин: 2 из 5: токеномика есть и прозрачная — всё описано в GitHub. Но распределение вызывает вопросы: команда + компания 31.5% - красный флаг.
Хотя инвесторам около 9% - норма.
Разлоки закончились в 2024 - давления нет, но исторически темп был 1.1% в месяц (выше порога 0.8% в месяц).
Инвесторы известные - Galaxy, Stani Kulechov, Placeholder, Zee Prime.
Утилиты слабые - голосование и влияние на ставки, но прямого revenue sharing нет, спрос на токен это не формирует.
Децентрализация холдеров средняя — 32% в казне DAO, но без неё топ-9 кошельков держат 25%.
• Код: 4 из 5: код открыт, и есть основное ПО. Но нет открытого кода адаптеров к другим протоколам. Аудиты есть, и их много. Все важные ошибки были исправлены.
Баг-баунти же смешные даже по сравнению с текущим TVL - всего $ 200 000 за критические баги в смарт-контрактах!
• Практика: 3 из 5: интерфейс удобный и понятный, но не всё всем доступно. Например, фарминг с плечом требует кредитоваться минимум на 10 WETH!
Также на странице пулов (доходность) нет фильтра по сетям - это тоже создаёт неудобство.
Общий балл: 15 из 25.
На уровне многих проектов, но сильным и перспективным его не назову.
Сам вряд ли буду пользоваться. Хотя идея изолированных аккаунтов с кредитом на определённые протоколы - очень интересная.
Но реализация подкачала... Я ожидал, что они в частности позволят обменивать на Uniswap с плечом, например.
Но нет - только доход и leveraged farming. Скучно.
Читать в Teletype, читать в Paragraph.
Открыть web app.
А вы пользовались Gearbox? Если да, как давно, и что там делали?
😎 Незрячий web3 программист (подписаться)
Чат | бот
Давно хотел разобрать Gearbox - проект, который предоставляет DeFi-кредитование через изолированные аккаунты. Посмотрим, что под капотом.
(Аудио версия прикреплена. Приятного прослушивания, если не хотите читать)
Читать в Teletype, читать в Paragraph.
Открыть web app.
Общий итог
• Команда: 3 из 5: ссылки на участников команды нет - пришлось поискать. Но информация всё же есть в интернете.
В соцсетях редко, но публикуют.
Например, в X 20 дней назад и в Discord 11. Но на вопросы отвечают и корректно.
• Концепт: 3 из 5: технически сильный проект с подробной документацией и продуманной архитектурой.
Децентрализация управления на уровне - трёхуровневое DAO, мультисиги (мультиподписные кошельки) с известными людьми из экосистемы, таймлоки (задержки перед выполнением операции).
Но формального анализа спроса нет в документации.
Пользовательских инструкций мало - доки больше для разработчиков и кураторов.
TVL -89% от максимума, комиссии -84%, выручка -76%.
Единственная точка роста - Monad, но я думаю, что вряд ли это надолго.
Потому что инсентивы редко дают долгосрочный приток.
• Коин: 2 из 5: токеномика есть и прозрачная — всё описано в GitHub. Но распределение вызывает вопросы: команда + компания 31.5% - красный флаг.
Хотя инвесторам около 9% - норма.
Разлоки закончились в 2024 - давления нет, но исторически темп был 1.1% в месяц (выше порога 0.8% в месяц).
Инвесторы известные - Galaxy, Stani Kulechov, Placeholder, Zee Prime.
Утилиты слабые - голосование и влияние на ставки, но прямого revenue sharing нет, спрос на токен это не формирует.
Децентрализация холдеров средняя — 32% в казне DAO, но без неё топ-9 кошельков держат 25%.
• Код: 4 из 5: код открыт, и есть основное ПО. Но нет открытого кода адаптеров к другим протоколам. Аудиты есть, и их много. Все важные ошибки были исправлены.
Баг-баунти же смешные даже по сравнению с текущим TVL - всего $ 200 000 за критические баги в смарт-контрактах!
• Практика: 3 из 5: интерфейс удобный и понятный, но не всё всем доступно. Например, фарминг с плечом требует кредитоваться минимум на 10 WETH!
Также на странице пулов (доходность) нет фильтра по сетям - это тоже создаёт неудобство.
Общий балл: 15 из 25.
На уровне многих проектов, но сильным и перспективным его не назову.
Сам вряд ли буду пользоваться. Хотя идея изолированных аккаунтов с кредитом на определённые протоколы - очень интересная.
Но реализация подкачала... Я ожидал, что они в частности позволят обменивать на Uniswap с плечом, например.
Но нет - только доход и leveraged farming. Скучно.
Читать в Teletype, читать в Paragraph.
Открыть web app.
А вы пользовались Gearbox? Если да, как давно, и что там делали?
😎 Незрячий web3 программист (подписаться)
Чат | бот
1👍9
4 скиллов для ИИ-агентов, полезных всем. Ими и сам пользуюсь
Уже 2 месяца как погрузился в тему ИИ-агентов.
Что-то находил у знакомых и в одном сообществе, но что-то сам создавал.
Скиллы - .md файлы и скрипты, содержащие инструкции для ИИ-агента, например, OpenClaw или Hermes.
Начнём с того, что может понадобиться каждому:
1. plan-times. Пожалуй, самый важный скилл!
Конечно бесит, когда просишь ИИ "В следующую среду будет созвон", а она путает дни, и ставит не туда. Или когда путается во времени, говоря, что 10 октября вне срока до 11 ноября.
Этот скилл позволяет агенту не путаться во всём этом. Он указывает на сегодняшний день недели и дату, и уже от неё строит путь во времени.
Главное не забывать про упоминание скилла или настроить его использование по умолчанию при работе со временем.
2. safe-update. Безопасное обновление OpenClaw.
Иногда у людей бывало так, что после обновы всё падало, и приходилось возиться несколько дней, восстанавливая.
Не желая этим заниматься, создал скилл для безопасного обновления.
Он изучает будущие обновления, текущее состояние со скиллами и плагинами, находит несовместимости, делает бекап, обновляет, проверяет работоспособность всего.
3. getdocs. Часто нужно скачать документацию какого-то проекта.
Благодаря этому скиллу такое становится возможным!
Просто пишем:
/docs manyfiles {URL}
И ИИ-агент передаст скиллу url, запустит нужную команду, получит файлы и потом сможет их изучать локально!
Можно и onefile указывать вместо manyfiles - тогда вся документация будет в одном .md, но для OpenClaw и аналогов будет полезнее структурированная документация.
4. dashboard-skill. Создаёт классные дашборды.
Они состоят из html и json файла.
Открываете .html, импортируете .json и можете работать!
После окончания, если надо передать другому, экспортируете и отправляете.
Так я сделал себе более удобный вариант плана постов.
А до этого в качестве теста сделал удобную форму брифа.
А уже на следующей неделе опубликую полезное создателям проектов. Ждите 🙂.
А вы используете OpenClaw, Hermes или аналог? Какими скиллами пользуетесь, и какие из созданных мной вас заинтересовали?
#ai #skills
😎 Незрячий web3 программист (подписаться)
Чат | бот
Уже 2 месяца как погрузился в тему ИИ-агентов.
Что-то находил у знакомых и в одном сообществе, но что-то сам создавал.
Скиллы - .md файлы и скрипты, содержащие инструкции для ИИ-агента, например, OpenClaw или Hermes.
Начнём с того, что может понадобиться каждому:
1. plan-times. Пожалуй, самый важный скилл!
Конечно бесит, когда просишь ИИ "В следующую среду будет созвон", а она путает дни, и ставит не туда. Или когда путается во времени, говоря, что 10 октября вне срока до 11 ноября.
Этот скилл позволяет агенту не путаться во всём этом. Он указывает на сегодняшний день недели и дату, и уже от неё строит путь во времени.
Главное не забывать про упоминание скилла или настроить его использование по умолчанию при работе со временем.
2. safe-update. Безопасное обновление OpenClaw.
Иногда у людей бывало так, что после обновы всё падало, и приходилось возиться несколько дней, восстанавливая.
Не желая этим заниматься, создал скилл для безопасного обновления.
Он изучает будущие обновления, текущее состояние со скиллами и плагинами, находит несовместимости, делает бекап, обновляет, проверяет работоспособность всего.
3. getdocs. Часто нужно скачать документацию какого-то проекта.
Благодаря этому скиллу такое становится возможным!
Просто пишем:
/docs manyfiles {URL}
И ИИ-агент передаст скиллу url, запустит нужную команду, получит файлы и потом сможет их изучать локально!
Можно и onefile указывать вместо manyfiles - тогда вся документация будет в одном .md, но для OpenClaw и аналогов будет полезнее структурированная документация.
4. dashboard-skill. Создаёт классные дашборды.
Они состоят из html и json файла.
Открываете .html, импортируете .json и можете работать!
После окончания, если надо передать другому, экспортируете и отправляете.
Так я сделал себе более удобный вариант плана постов.
А до этого в качестве теста сделал удобную форму брифа.
А уже на следующей неделе опубликую полезное создателям проектов. Ждите 🙂.
А вы используете OpenClaw, Hermes или аналог? Какими скиллами пользуетесь, и какие из созданных мной вас заинтересовали?
#ai #skills
😎 Незрячий web3 программист (подписаться)
Чат | бот
GitHub
GitHub - denis-skripnik/plan-times
Contribute to denis-skripnik/plan-times development by creating an account on GitHub.
👍13🔥7❤4
Интеллектуальный фастфуд: почему мы перестали читать документацию
Вспоминаю 2024-2025 год, когда в разных сообществах присылали десятки проектов за неделю.
Я тогда думал: "Да куда столько!? Я же не смогу оценить все проекты и выбрать крутые!"
В итоге оказалось, что практически все из них не были успешны. Но сам факт, что такое было.
Да: уже с 2023 года появилась возможность отправлять запросы к Chat GPT.
Но он не всегда точно выдавал информацию, так как загрузить и скормить ему кучу файлов документации было невозможно.
Да и в целом времени стало не хватать из-за большого количества дел и объёма информации.
Сейчас же стало проще, так как появилась возможность использования ИИ-моделей в редакторах типа Cursor и vsCode.
Это позволяет скачать доки и отправить на изучение.
Но всё равно большинство, уверен, делают это неправильно.
Если сказать ИИ "Прочитай документацию … и скажи о проекте", модель и даст только общую информацию.
Поэтому хочу подчеркнуть: составляйте подробные промпты.
Например, о том, какие разделы хотите изучить. Или ответы на какие вопросы.
Меня всегда интересует, есть ли в документации проекта анализ спроса и конкурентов, описание, тех. подробности и другие данные. Можете изучить, заказав аналитику на tcccai.xyz или в посте о проекте.
Это даёт более точный ответ.
Вы наверняка спросите:
"А почему нельзя дать ссылку на документацию, попросив, чтоб модель нашла инфу оттуда в интернете?"
Ответ простой: по url ИИ может упустить что-то важное, какие-то страницы.
Причины: ограничения поискового инструмента и контекста (HTML-код занимает больше места, чем Markdown), а также сложность обработки некоторых страниц.
Скачав же файлы, вы формируете конкретную .md (файлы Markdown) базу данных о проекте.
Кстати, лайфхак:
Эти данные можно использовать и для создания ИИ-консультанта о вашем любимом проекте, став значимее в глазах команды.
Интеллектуальный фастфуд - это плохо, так как снижает качество анализа проектов. Но мы можем уменьшить вред от него, используя нейронки грамотно.
Напоминаю, что в рамках предыдущего поста про 4 созданных мной скилла, я упоминал getdocs. Он и позволит вам скачивать документацию.
А вы как обрабатываете документацию? Как отправляете ИИ?
😎 Незрячий web3 программист (подписаться)
Чат | бот
Вспоминаю 2024-2025 год, когда в разных сообществах присылали десятки проектов за неделю.
Я тогда думал: "Да куда столько!? Я же не смогу оценить все проекты и выбрать крутые!"
В итоге оказалось, что практически все из них не были успешны. Но сам факт, что такое было.
Да: уже с 2023 года появилась возможность отправлять запросы к Chat GPT.
Но он не всегда точно выдавал информацию, так как загрузить и скормить ему кучу файлов документации было невозможно.
Да и в целом времени стало не хватать из-за большого количества дел и объёма информации.
Сейчас же стало проще, так как появилась возможность использования ИИ-моделей в редакторах типа Cursor и vsCode.
Это позволяет скачать доки и отправить на изучение.
Но всё равно большинство, уверен, делают это неправильно.
Если сказать ИИ "Прочитай документацию … и скажи о проекте", модель и даст только общую информацию.
Поэтому хочу подчеркнуть: составляйте подробные промпты.
Например, о том, какие разделы хотите изучить. Или ответы на какие вопросы.
Меня всегда интересует, есть ли в документации проекта анализ спроса и конкурентов, описание, тех. подробности и другие данные. Можете изучить, заказав аналитику на tcccai.xyz или в посте о проекте.
Это даёт более точный ответ.
Вы наверняка спросите:
"А почему нельзя дать ссылку на документацию, попросив, чтоб модель нашла инфу оттуда в интернете?"
Ответ простой: по url ИИ может упустить что-то важное, какие-то страницы.
Причины: ограничения поискового инструмента и контекста (HTML-код занимает больше места, чем Markdown), а также сложность обработки некоторых страниц.
Скачав же файлы, вы формируете конкретную .md (файлы Markdown) базу данных о проекте.
Кстати, лайфхак:
Эти данные можно использовать и для создания ИИ-консультанта о вашем любимом проекте, став значимее в глазах команды.
Интеллектуальный фастфуд - это плохо, так как снижает качество анализа проектов. Но мы можем уменьшить вред от него, используя нейронки грамотно.
Напоминаю, что в рамках предыдущего поста про 4 созданных мной скилла, я упоминал getdocs. Он и позволит вам скачивать документацию.
А вы как обрабатываете документацию? Как отправляете ИИ?
😎 Незрячий web3 программист (подписаться)
Чат | бот
1👍10🔥4❤1💯1
Разбираю Dubhe Engine (Obelisk Labs) - убирает 80% рутины при создании Move-проектов
Меня попросили изучить его в комментах к позапрошлому посту. Делюсь тем, что выяснил.
Dubhe Engine - это не блокчейн и не токен. Это open-source инструментарий для разработчиков, которые строят полностью ончейн приложения на Move.
Три продукта: Dubhe Engine (генерация кода), Dubhe Channel (P2P real-time слой) и Dubhe OS (кросс-сетевая инфраструктура).
Поддерживаемые сети: Sui, Aptos, Rooch, Movement, Initia.
Ключевая идея - убрать 80% рутинного кода через Schema ORM и декларативное описание структуры. Разработчик описывает схему, движок генерирует смарт-контракты, SDK, API.
Себя сравнивают с MUD (Ethereum-аналог для fully on-chain игр), только на Move.
Команда: 3 из 5
LinkedIn-профили существуют (Hongqi Liu и Anakin Skandia указаны на Bitget), но сами профили пустые - без реального опыта и достижений.
Соцсети ведут активно: DubheEngine и 0xObeliskLabs публикуют технические детали в X, новости, сравнения с конкурентами - не просто хайп.
В Discord мне ответили на вопрос по токеномике быстро. В Telegram-чате проекта просто послали в Discord. Вопрос про команду проигнорировали.
Минусы за коммуникацию и не публичность.
Концепт: 4 из 5
Идея уникальная - "JavaScript Web3" для Move, только для разработчиков.
На Sui уже работают реальные продукты - Merak (AMM) и Numeron RPG (занял 4-е место на хакатоне).
Анализ конкурентов есть, анализа реального спроса нет.
Коин: 2 из 5
Токен $DUBHE не запущен. Есть $STARS - on-chain поинты за раннее участие и тестирование. По заявлению команды, их можно будет конвертировать в $DUBHE после TGE. Сейчас $STARS гуляет в третьесторонних пулах - сам проект от этого открещивается и явно не рекомендует покупать.
Токеномика опубликована в доках, но команда предупреждает, что финальной версии ещё нет.
Из того, что есть:
Команде выделяется 24% (Obelisk Labs 7% + Core Contributors 17%) - это много, норм считается до 10%. Инвесторам суммарно 15% (Seed + Series-A + Investors Reserve) - тоже выше 10%. Foundation под контролем проекта получает ещё 18%.
По разлокам: через год после TGE начнутся серьёзные выплаты команде и Foundation. Примерно с 13-го месяца будет разблокироваться около 2% в месяц от total supply - это в 2.5 раза выше нормального по моему мнению уровня в 0.8%.
Пик - на 24-м месяце: 4% за один месяц, когда заканчивается вестинг по CEX Lock.
+1 балл за систему поинтов и наличие черновика токеномики.
Код: 4 из 5
GitHub живой - последний коммит 30 марта, версия v1.2.0-pre.115, статус pre-mainnet. 18 контрибьюторов, 70 звёзд. В последнем крупном PR - внутренние фиксы безопасности: payment recharge, fee deduction, ownership transfer.
Публичного аудита от сторонней компании нет.
Риски
- Команда частично анонимна. Профили есть, но пустые.
- Токеномика сырая. Команде и Foundation суммарно уходит 42%, разлоки агрессивные.
- Публичного аудита безопасности нет. Для инфраструктурного продукта это существенно.
- Финансирование непрозрачно. Упоминаются Sui Foundation и "ecosystem VCs", но суммы и имена не раскрываются.
- $STARS торгуется на сторонних пулах без участия проекта - покупать не рекомендую.
Итог
13 из 20 баллов.
Проект технически интересный и живой. Не хайп, а реальный tooling с 3 годами разработки и рабочими приложениями поверх. Для тех, кто строит на Move - стоит смотреть.
Для широкой аудитории - пока не очень понятно, зачем это нужно. Нет работающего токена - нет прямого инвестиционного интереса. Когда токен появится - смотреть условия заново, потому что токеномика явно будет меняться. А вот разлоки в текущем виде - настораживают.
Аудиты использовались:
- TCCC AI (19 марта)
- AskSurf (сегодня)
P.S. Интересно, как вы смотрите на Move-стек в целом - есть ли у вас опыт работы с Sui или Aptos?
И вообще, как считаете: нужны ли блокчейны с Move смарт-контрактами?
P. P. S. И напоминаю про моё сообщество в ВК на всякий случай: https://vk.ru/blind_dev (начну вести).
😎 Незрячий web3 программист (подписаться)
Чат | бот
Меня попросили изучить его в комментах к позапрошлому посту. Делюсь тем, что выяснил.
Dubhe Engine - это не блокчейн и не токен. Это open-source инструментарий для разработчиков, которые строят полностью ончейн приложения на Move.
Три продукта: Dubhe Engine (генерация кода), Dubhe Channel (P2P real-time слой) и Dubhe OS (кросс-сетевая инфраструктура).
Поддерживаемые сети: Sui, Aptos, Rooch, Movement, Initia.
Ключевая идея - убрать 80% рутинного кода через Schema ORM и декларативное описание структуры. Разработчик описывает схему, движок генерирует смарт-контракты, SDK, API.
Себя сравнивают с MUD (Ethereum-аналог для fully on-chain игр), только на Move.
Команда: 3 из 5
LinkedIn-профили существуют (Hongqi Liu и Anakin Skandia указаны на Bitget), но сами профили пустые - без реального опыта и достижений.
Соцсети ведут активно: DubheEngine и 0xObeliskLabs публикуют технические детали в X, новости, сравнения с конкурентами - не просто хайп.
В Discord мне ответили на вопрос по токеномике быстро. В Telegram-чате проекта просто послали в Discord. Вопрос про команду проигнорировали.
Минусы за коммуникацию и не публичность.
Концепт: 4 из 5
Идея уникальная - "JavaScript Web3" для Move, только для разработчиков.
На Sui уже работают реальные продукты - Merak (AMM) и Numeron RPG (занял 4-е место на хакатоне).
Анализ конкурентов есть, анализа реального спроса нет.
Коин: 2 из 5
Токен $DUBHE не запущен. Есть $STARS - on-chain поинты за раннее участие и тестирование. По заявлению команды, их можно будет конвертировать в $DUBHE после TGE. Сейчас $STARS гуляет в третьесторонних пулах - сам проект от этого открещивается и явно не рекомендует покупать.
Токеномика опубликована в доках, но команда предупреждает, что финальной версии ещё нет.
Из того, что есть:
Команде выделяется 24% (Obelisk Labs 7% + Core Contributors 17%) - это много, норм считается до 10%. Инвесторам суммарно 15% (Seed + Series-A + Investors Reserve) - тоже выше 10%. Foundation под контролем проекта получает ещё 18%.
По разлокам: через год после TGE начнутся серьёзные выплаты команде и Foundation. Примерно с 13-го месяца будет разблокироваться около 2% в месяц от total supply - это в 2.5 раза выше нормального по моему мнению уровня в 0.8%.
Пик - на 24-м месяце: 4% за один месяц, когда заканчивается вестинг по CEX Lock.
+1 балл за систему поинтов и наличие черновика токеномики.
Код: 4 из 5
GitHub живой - последний коммит 30 марта, версия v1.2.0-pre.115, статус pre-mainnet. 18 контрибьюторов, 70 звёзд. В последнем крупном PR - внутренние фиксы безопасности: payment recharge, fee deduction, ownership transfer.
Публичного аудита от сторонней компании нет.
Риски
- Команда частично анонимна. Профили есть, но пустые.
- Токеномика сырая. Команде и Foundation суммарно уходит 42%, разлоки агрессивные.
- Публичного аудита безопасности нет. Для инфраструктурного продукта это существенно.
- Финансирование непрозрачно. Упоминаются Sui Foundation и "ecosystem VCs", но суммы и имена не раскрываются.
- $STARS торгуется на сторонних пулах без участия проекта - покупать не рекомендую.
Итог
13 из 20 баллов.
Проект технически интересный и живой. Не хайп, а реальный tooling с 3 годами разработки и рабочими приложениями поверх. Для тех, кто строит на Move - стоит смотреть.
Для широкой аудитории - пока не очень понятно, зачем это нужно. Нет работающего токена - нет прямого инвестиционного интереса. Когда токен появится - смотреть условия заново, потому что токеномика явно будет меняться. А вот разлоки в текущем виде - настораживают.
Аудиты использовались:
- TCCC AI (19 марта)
- AskSurf (сегодня)
P.S. Интересно, как вы смотрите на Move-стек в целом - есть ли у вас опыт работы с Sui или Aptos?
И вообще, как считаете: нужны ли блокчейны с Move смарт-контрактами?
P. P. S. И напоминаю про моё сообщество в ВК на всякий случай: https://vk.ru/blind_dev (начну вести).
😎 Незрячий web3 программист (подписаться)
Чат | бот
👍7❤3🔥1
Ещё 4 созданных мной скилла, но теперь для разработчиков и создателей проектов
Считаю это важным, так как по мнению некоторых аналитиков в следующие 5 лет может появиться миллиардер, который единолично создаст проект при помощи ИИ. А вдруг такой появится благодаря моему посту 🙂. Конечно шучу, но в каждой шутке...
1. Coding. Моя основа.
Minimax - постановка задач, codex - план и разработка с тестированием.
Можете его изменять под себя, меняя модели и их роль.
Выполняется всё в рамках субагента, что удобно и с точки зрения продолжения других задач.
Есть все нужные стадии: постановка задачи, план, поэтапная реализация, тестирование.
2. accessibility-auditor-skill. Второй по важности и значимости скилл.
Во всяком случае для меня, так как я незрячий: использую программу экранного доступа, которая озвучивает мне всё.
Но к сожалению многие сайты и приложения обладают плохой доступностью.
Вот я и подумал, что стоит создать скилл для ИИ-агентов, который поможет решать эту проблему максимально легко.
Скилл позволит проанализировать все недостатки.
А далее с помощью coding или другого скилла можно исправить обнаруженное.
3. Github-and-vercel-deploy. Мне было лень скачивать GitHub CLI и Vercel CLI (софт для соответствующих сервисов с консольным вводом), поэтому попросил ИИ сделать мне скилл для работы с API.
Он реализовал, и теперь лишние приложения не нужны.
Будет вам полезен, если публикуете репозитории на Гитхабе и деплоете сайты на Vercel.
4. NVDA-skill. Моя программа экранного доступа называется NVDA.
У неё есть дополнения.
Я не знал Python, поэтому сделал скилл для их создания с помощью ИИ.
Впрочем, об этом отдельно писал в этом посте.
Какие скиллы из перечисленных мной вас заинтересовали? Что будете использовать?
😎 Незрячий web3 программист (подписаться)
Чат | бот
Считаю это важным, так как по мнению некоторых аналитиков в следующие 5 лет может появиться миллиардер, который единолично создаст проект при помощи ИИ. А вдруг такой появится благодаря моему посту 🙂. Конечно шучу, но в каждой шутке...
1. Coding. Моя основа.
Minimax - постановка задач, codex - план и разработка с тестированием.
Можете его изменять под себя, меняя модели и их роль.
Выполняется всё в рамках субагента, что удобно и с точки зрения продолжения других задач.
Есть все нужные стадии: постановка задачи, план, поэтапная реализация, тестирование.
2. accessibility-auditor-skill. Второй по важности и значимости скилл.
Во всяком случае для меня, так как я незрячий: использую программу экранного доступа, которая озвучивает мне всё.
Но к сожалению многие сайты и приложения обладают плохой доступностью.
Вот я и подумал, что стоит создать скилл для ИИ-агентов, который поможет решать эту проблему максимально легко.
Скилл позволит проанализировать все недостатки.
А далее с помощью coding или другого скилла можно исправить обнаруженное.
3. Github-and-vercel-deploy. Мне было лень скачивать GitHub CLI и Vercel CLI (софт для соответствующих сервисов с консольным вводом), поэтому попросил ИИ сделать мне скилл для работы с API.
Он реализовал, и теперь лишние приложения не нужны.
Будет вам полезен, если публикуете репозитории на Гитхабе и деплоете сайты на Vercel.
4. NVDA-skill. Моя программа экранного доступа называется NVDA.
У неё есть дополнения.
Я не знал Python, поэтому сделал скилл для их создания с помощью ИИ.
Впрочем, об этом отдельно писал в этом посте.
Какие скиллы из перечисленных мной вас заинтересовали? Что будете использовать?
😎 Незрячий web3 программист (подписаться)
Чат | бот
2👏11👍4🔥3❤2
4К+ без иллюзий: чек-лист не знает будущего
За 3 года я анализировал много проектов по своей методике. И со временем заметил неприятную вещь: даже качественные порой оказываются слабыми.
Потому что мой чек-лист не гарантирует, что проект сохранит свой уровень в будущем.
Например, когда изучал Superform, проект был классным!
Команда - 4 из 5, концепт - 5 из 5, код - 5 из 5, коин - 3 из 5, практика - 5 из 5.
Но далее развитие затянули и токен выпускали так долго, будто проверяли рынок на терпение. В итоге сейчас TVL всего 35,06 МЛН $. Да и проект, судя по текущим метрикам, мало кому интересен.
Это видно и по позиции токена $UP: на момент написания поста он находится на 1178 месте в Coingecko.
Да, от ATH токен просел не критично, и пик был совсем недавно. Но риск всё равно остаётся высоким из-за будущих разлоков.
Несмотря на позитив, стоило обратить внимание на токеномику: она тогда получила 3 из 5. Но я подумал, что остальное перевесит.
Вот только нет - Superform не оправдал тех ожиданий, которые он создавал у меня на момент анализа.
Вижу как минимум три возможные причины:
1. Я ошибся при оценке. Это тоже стоит учитывать при изучении проекта: любой может ошибиться.
2. Уровень изменился позже.
Например, многие участники команды ушли, были какие-то скрытые договорённости или иные факторы.
Но важно уточнить: текущее внутреннее состояние проекта я отдельно не исследовал.
3. Либо спрос на их продукт оказался низким - на протокол доходности, в том числе кроссчейн.
Итог:
Анализ по 4К+ нужен не для предсказания будущего, а для снижения вероятности грубой ошибки. Это полезный инструмент, но не гарантия прибыли.
А у вас было так, что проект казался качественным, но со временем всё равно не оправдал ожиданий?
P. S. На скрине - результат выполнения скрипта с рейтингом проектов на основе списка статей из Teletype.
#аналитика
😎 Незрячий web3 программист (подписаться)
Чат | бот
За 3 года я анализировал много проектов по своей методике. И со временем заметил неприятную вещь: даже качественные порой оказываются слабыми.
Потому что мой чек-лист не гарантирует, что проект сохранит свой уровень в будущем.
Например, когда изучал Superform, проект был классным!
Команда - 4 из 5, концепт - 5 из 5, код - 5 из 5, коин - 3 из 5, практика - 5 из 5.
Но далее развитие затянули и токен выпускали так долго, будто проверяли рынок на терпение. В итоге сейчас TVL всего 35,06 МЛН $. Да и проект, судя по текущим метрикам, мало кому интересен.
Это видно и по позиции токена $UP: на момент написания поста он находится на 1178 месте в Coingecko.
Да, от ATH токен просел не критично, и пик был совсем недавно. Но риск всё равно остаётся высоким из-за будущих разлоков.
Несмотря на позитив, стоило обратить внимание на токеномику: она тогда получила 3 из 5. Но я подумал, что остальное перевесит.
Вот только нет - Superform не оправдал тех ожиданий, которые он создавал у меня на момент анализа.
Вижу как минимум три возможные причины:
1. Я ошибся при оценке. Это тоже стоит учитывать при изучении проекта: любой может ошибиться.
2. Уровень изменился позже.
Например, многие участники команды ушли, были какие-то скрытые договорённости или иные факторы.
Но важно уточнить: текущее внутреннее состояние проекта я отдельно не исследовал.
3. Либо спрос на их продукт оказался низким - на протокол доходности, в том числе кроссчейн.
Итог:
Анализ по 4К+ нужен не для предсказания будущего, а для снижения вероятности грубой ошибки. Это полезный инструмент, но не гарантия прибыли.
А у вас было так, что проект казался качественным, но со временем всё равно не оправдал ожиданий?
P. S. На скрине - результат выполнения скрипта с рейтингом проектов на основе списка статей из Teletype.
#аналитика
😎 Незрячий web3 программист (подписаться)
Чат | бот
6👍10❤3👌3
TCCC AI стал глубже анализировать проекты. Ниже — 3 главных обновления, которые я добавил в сервис
Недавно я уже рассказывал о своём сервисе аналитики проектов TCCC AI: там один ИИ делает аудит, а второй фильтрует результат.
За это время я заметно его усилил.
Самое важное обновление - это верификация по документации.
Раньше TCCC AI получал анализ проекта от ИИ, фильтровал его вторым ИИ и оформлял в итоговую страницу.
На этом процесс заканчивался. Из-за этого могли оставаться неточности. Например, из-за старых постов или других источников данных.
Теперь после основной аналитики появилась отдельная верификация по документации проекта.
То есть сервис не только делает аудит, но потом ещё и сверяет ключевые данные с docs проекта.
Для защиты от лишней воды и маркетинга сервис извлекает именно конкретные данные. Но полностью исключить шум всё равно нельзя.
Документация тоже может устаревать, но это уже само по себе показатель качества проекта.
Можно было бы добавить сверку дат, но это ненадёжно: разделы в docs часто обновляются неравномерно.
Процесс:
1. Находим docs через ссылку на сайте или поддомен docs.{project}.
2. Скачиваем.
3. Документацию разбиваем по заголовкам и сверяем с соответствующими частями аудита.
Так верификация получается точнее и при этом не расходует лишние токены.
4. Получаем результат и добавляем блок в итоговый результат.
Как вам?
Примером анализа является новая версия про Ambient.
Вторым серьёзным улучшением назову ValueVerse.
Это сервис app.valueverse.ai, который даёт дополнительный слой оценки токена: не только базовые метрики, но и сигналы спроса.
Да: проектов там пока немного. Но тем не менее они есть. Да и в будущем могут добавить ещё.
В TCCC AI теперь появился отдельный блок после раздела Coin (по токену). Там отображаются факторы двумя списками. А если у ValueVerse есть числовые данные, показываются и они.
Пример: анализ Pendle (в этой версии ещё без документации). Раздел: "Token value signals from ValueVerse".
ВАЖНО: этот блок не влияет на аналитический вывод.
P. S. Создателю ValueVerse большая благодарность. Готов также дать партнёрский статус для дохода от аналитики.
И ещё я внедрил на сайт возможность запускать сразу несколько разборов (в боте не делал).
В дашборде для этого есть вкладка Several audits (несколько аудитов).
Можно вставить список URL и токенов — по одному проекту на строку.
Это удобно, если есть несколько проектов, и не хочется делать множество одиночных запусков аналитики.
Всё.
Как вам такие обновления?
И можете писать проекты, разбор которых хотели бы увидеть у меня в канале.
P. S. В случае проблем пишите в @blind_dev_chat
И буду рад лайку с репостом твита про обновления:
https://x.com/Denis_skripnik/status/2041893852764635468
😎 Незрячий web3 программист (подписаться)
Чат | бот
Недавно я уже рассказывал о своём сервисе аналитики проектов TCCC AI: там один ИИ делает аудит, а второй фильтрует результат.
За это время я заметно его усилил.
Самое важное обновление - это верификация по документации.
Раньше TCCC AI получал анализ проекта от ИИ, фильтровал его вторым ИИ и оформлял в итоговую страницу.
На этом процесс заканчивался. Из-за этого могли оставаться неточности. Например, из-за старых постов или других источников данных.
Теперь после основной аналитики появилась отдельная верификация по документации проекта.
То есть сервис не только делает аудит, но потом ещё и сверяет ключевые данные с docs проекта.
Для защиты от лишней воды и маркетинга сервис извлекает именно конкретные данные. Но полностью исключить шум всё равно нельзя.
Документация тоже может устаревать, но это уже само по себе показатель качества проекта.
Можно было бы добавить сверку дат, но это ненадёжно: разделы в docs часто обновляются неравномерно.
Процесс:
1. Находим docs через ссылку на сайте или поддомен docs.{project}.
2. Скачиваем.
3. Документацию разбиваем по заголовкам и сверяем с соответствующими частями аудита.
Так верификация получается точнее и при этом не расходует лишние токены.
4. Получаем результат и добавляем блок в итоговый результат.
Как вам?
Примером анализа является новая версия про Ambient.
Вторым серьёзным улучшением назову ValueVerse.
Это сервис app.valueverse.ai, который даёт дополнительный слой оценки токена: не только базовые метрики, но и сигналы спроса.
Да: проектов там пока немного. Но тем не менее они есть. Да и в будущем могут добавить ещё.
В TCCC AI теперь появился отдельный блок после раздела Coin (по токену). Там отображаются факторы двумя списками. А если у ValueVerse есть числовые данные, показываются и они.
Пример: анализ Pendle (в этой версии ещё без документации). Раздел: "Token value signals from ValueVerse".
ВАЖНО: этот блок не влияет на аналитический вывод.
P. S. Создателю ValueVerse большая благодарность. Готов также дать партнёрский статус для дохода от аналитики.
И ещё я внедрил на сайт возможность запускать сразу несколько разборов (в боте не делал).
В дашборде для этого есть вкладка Several audits (несколько аудитов).
Можно вставить список URL и токенов — по одному проекту на строку.
Это удобно, если есть несколько проектов, и не хочется делать множество одиночных запусков аналитики.
Всё.
Как вам такие обновления?
И можете писать проекты, разбор которых хотели бы увидеть у меня в канале.
P. S. В случае проблем пишите в @blind_dev_chat
И буду рад лайку с репостом твита про обновления:
https://x.com/Denis_skripnik/status/2041893852764635468
😎 Незрячий web3 программист (подписаться)
Чат | бот
👍12❤2🔥1
ИИ-агенты уже умеют многое. Но чем дольше ими пользуешься, тем сильнее понимаешь: сильной модели мало, если сам агент неудобный
И я сейчас не про спор, какая модель умнее.
Я про более практичные вещи:
• можно ли нормально разделять контексты;
• видно ли, какой моделью работает агент;
• понятно ли, когда включился fallback (автоматическое переключение на запасную модель);
• ясно ли, что делает субагент;
• не превращается ли диалог с ботом в одну длинную кашу.
Последнее время я смотрел на это не только как пользователь, но и как человек, который может предлагать изменения в коде проектов с открытым кодом.
Речь про Hermes и OpenClaw - софт для работы с ИИ-агентами.
Начну с Hermes.
Одна из самых полезных идей, которую я туда предложил, - темы в личке Telegram-бота.
Когда у тебя один чат с агентом, туда быстро сваливается всё подряд: код, контент, эксперименты, тесты. И через время это больше похоже не на рабочий диалог, а на кладовку.
Контекст смешивается, и пользоваться ботом становится тяжелее.
Если же есть темы, всё уже выглядит намного чище:
• одна тема под один проект;
• другая под другой;
• третья под отдельный режим или навык.
Бот остаётся один, но внутри появляется нормальная структура.
Для обычного пользователя это вполне практическое улучшение:
меньше путаницы, проще держать фокус, легче возвращаться к нужной задаче.
Это для меня один из самых удачных кейсов за последнее время:
мою реализацию тем в личке забрали в основной репозиторий с сохранением авторства. Итоговый PR: https://github.com/NousResearch/hermes-agent/pull/3163
Ещё в Hermes я предлагал такие UX-улучшения:
• подпись к voice-сообщению вместо отдельного текста;
• отображение модели у субагента;
• отдельную модель для отдельной темы;
• уведомления о fallback.
Но они пока не приняты.
Когда агентом пользуешься каждый день, такие вещи быстро перестают казаться мелочами.
Теперь про OpenClaw.
Там мне не хватало другой вещи - прозрачности.
Если запускается субагент, это лучше явно показывать пользователю.
Если система тихо переключилась на fallback-модель, это тоже лучше не прятать.
Иначе работать становится очень неудобно. Пишешь код или что-то обсуждаешь, а потом в какой-то момент понимаешь: ответы резко стали хуже. И пользователь узнаёт о переключении не из интерфейса, а по симптомам.
Наиболее сильно мне запомнился случай, когда я делал правки в OpenClaw с ChatGPT, но у него закончились лимиты. В результате произошло тихое переключение на Minimax. А она программировать нормально не умеет. После чего начинается отдельный квест: понять, что она там насобирала 🙂.
Итог - синтаксическая ошибка, из-за которой приложение перестало запускаться. Пришлось разбираться вручную.
Поэтому я считаю важным, чтобы агент явно сообщал о переходе на fallback-модель и показывал, какая модель выбрана для субагента.
Но эти предложения пока не вошли в основной репозиторий.
Итог:
ИИ действительно сильно ускоряет такую работу.
С ним проще собрать черновик, быстрее проверить гипотезу и быстрее дойти до рабочего варианта.
Но в деталях он всё ещё часто ошибается.
Особенно неприятно, когда в процессе незаметно включается fallback на более слабую модель.
Тогда хорошая идея легко превращается в сырой PR, который потом всё равно приходится допиливать вручную.
Мне интересно не просто писать код или отправлять pull request'ы ради галочки.
Гораздо интереснее улучшать реальный опыт работы с ИИ-агентами:
чтобы ими было удобнее пользоваться,
чтобы было меньше скрытой магии,
чтобы было больше прозрачности.
Потому что сами модели уже часто сильные.
А вот UX (удобство использования) местами всё ещё сырой.
И именно такие вещи часто решают, будешь ли ты реально пользоваться таким агентом каждый день или просто иногда запускать его как игрушку.
А вам в ИИ-агентах чего не хватает больше всего:
прозрачности, управления или просто удобства?
😎 Незрячий web3 программист (подписаться)
Чат | бот
И я сейчас не про спор, какая модель умнее.
Я про более практичные вещи:
• можно ли нормально разделять контексты;
• видно ли, какой моделью работает агент;
• понятно ли, когда включился fallback (автоматическое переключение на запасную модель);
• ясно ли, что делает субагент;
• не превращается ли диалог с ботом в одну длинную кашу.
Последнее время я смотрел на это не только как пользователь, но и как человек, который может предлагать изменения в коде проектов с открытым кодом.
Речь про Hermes и OpenClaw - софт для работы с ИИ-агентами.
Начну с Hermes.
Одна из самых полезных идей, которую я туда предложил, - темы в личке Telegram-бота.
Когда у тебя один чат с агентом, туда быстро сваливается всё подряд: код, контент, эксперименты, тесты. И через время это больше похоже не на рабочий диалог, а на кладовку.
Контекст смешивается, и пользоваться ботом становится тяжелее.
Если же есть темы, всё уже выглядит намного чище:
• одна тема под один проект;
• другая под другой;
• третья под отдельный режим или навык.
Бот остаётся один, но внутри появляется нормальная структура.
Для обычного пользователя это вполне практическое улучшение:
меньше путаницы, проще держать фокус, легче возвращаться к нужной задаче.
Это для меня один из самых удачных кейсов за последнее время:
мою реализацию тем в личке забрали в основной репозиторий с сохранением авторства. Итоговый PR: https://github.com/NousResearch/hermes-agent/pull/3163
Ещё в Hermes я предлагал такие UX-улучшения:
• подпись к voice-сообщению вместо отдельного текста;
• отображение модели у субагента;
• отдельную модель для отдельной темы;
• уведомления о fallback.
Но они пока не приняты.
Когда агентом пользуешься каждый день, такие вещи быстро перестают казаться мелочами.
Теперь про OpenClaw.
Там мне не хватало другой вещи - прозрачности.
Если запускается субагент, это лучше явно показывать пользователю.
Если система тихо переключилась на fallback-модель, это тоже лучше не прятать.
Иначе работать становится очень неудобно. Пишешь код или что-то обсуждаешь, а потом в какой-то момент понимаешь: ответы резко стали хуже. И пользователь узнаёт о переключении не из интерфейса, а по симптомам.
Наиболее сильно мне запомнился случай, когда я делал правки в OpenClaw с ChatGPT, но у него закончились лимиты. В результате произошло тихое переключение на Minimax. А она программировать нормально не умеет. После чего начинается отдельный квест: понять, что она там насобирала 🙂.
Итог - синтаксическая ошибка, из-за которой приложение перестало запускаться. Пришлось разбираться вручную.
Поэтому я считаю важным, чтобы агент явно сообщал о переходе на fallback-модель и показывал, какая модель выбрана для субагента.
Но эти предложения пока не вошли в основной репозиторий.
Итог:
ИИ действительно сильно ускоряет такую работу.
С ним проще собрать черновик, быстрее проверить гипотезу и быстрее дойти до рабочего варианта.
Но в деталях он всё ещё часто ошибается.
Особенно неприятно, когда в процессе незаметно включается fallback на более слабую модель.
Тогда хорошая идея легко превращается в сырой PR, который потом всё равно приходится допиливать вручную.
Мне интересно не просто писать код или отправлять pull request'ы ради галочки.
Гораздо интереснее улучшать реальный опыт работы с ИИ-агентами:
чтобы ими было удобнее пользоваться,
чтобы было меньше скрытой магии,
чтобы было больше прозрачности.
Потому что сами модели уже часто сильные.
А вот UX (удобство использования) местами всё ещё сырой.
И именно такие вещи часто решают, будешь ли ты реально пользоваться таким агентом каждый день или просто иногда запускать его как игрушку.
А вам в ИИ-агентах чего не хватает больше всего:
прозрачности, управления или просто удобства?
😎 Незрячий web3 программист (подписаться)
Чат | бот
👍13🔥7❤4
На что я смотрю в токеномике проекта в первую очередь
Про токеномику я уже писал не раз. Решил наконец коротко собрать, на что смотрю в первую очередь.
Самое важное для меня - какой у проекта продукт. Да-да: не токен, а продукт.
Если он слабый, хорошая токеномика не спасёт.
Он должен создавать спрос на токен через утилиты (способы использования токена) - это следующий ключевой момент.
Например, стейкинг с упором на ДАО уже исторически считается слабым фактором спроса, потому что не всем это интересно, да и мало связано с продуктом.
А вот выкупы или распределение стейкерам части выручки - другое дело.
Но, конечно, важно и начальное распределение токена:
Если команде дали 30% токенов, а через год разлочат 10% от общего количества, ничего не поможет проекту.
10% команде и 10% инвесторам я считаю нормальным ориентиром, потому что это снижает давление на токен.
В этом случае риск уже заметно ниже. Конечно, если не разблокируют всю долю одним махом.
Но поскольку редко встречаются доли <= 10%, на практике 15% для меня ещё выглядит допустимо.
Критически важно обращать внимание на назначение доли.
Часто бывает так, что указаны:
1. team - 15%;
2. Foundation - 20%.
3. Core contributors - 10%.
Кажется, что это разные категории, но по факту это 35-45% команде!
А что по наградам из ДАО казначейства?
С одной стороны, 20-30-40% токенов в казначействе выглядят неплохо: это и развитие, и потенциальная децентрализация.
Но чаще всего всё приходит к неэффективному распределению:
- Либо голосует мало кто, и небольшая группа выплачивает себе / своим партнёрам.
- Либо поддерживают проекты и разработки, но их создатели потом продают токены и уходят. Либо продолжают работать, но без результата, что для проекта тоже плохо.
А вы на что в токеномике смотрите в первую очередь и почему?
#аналитика
😎 Незрячий web3 программист (подписаться)
Чат | бот
Про токеномику я уже писал не раз. Решил наконец коротко собрать, на что смотрю в первую очередь.
Самое важное для меня - какой у проекта продукт. Да-да: не токен, а продукт.
Если он слабый, хорошая токеномика не спасёт.
Он должен создавать спрос на токен через утилиты (способы использования токена) - это следующий ключевой момент.
Например, стейкинг с упором на ДАО уже исторически считается слабым фактором спроса, потому что не всем это интересно, да и мало связано с продуктом.
А вот выкупы или распределение стейкерам части выручки - другое дело.
Но, конечно, важно и начальное распределение токена:
Если команде дали 30% токенов, а через год разлочат 10% от общего количества, ничего не поможет проекту.
10% команде и 10% инвесторам я считаю нормальным ориентиром, потому что это снижает давление на токен.
В этом случае риск уже заметно ниже. Конечно, если не разблокируют всю долю одним махом.
Но поскольку редко встречаются доли <= 10%, на практике 15% для меня ещё выглядит допустимо.
Критически важно обращать внимание на назначение доли.
Часто бывает так, что указаны:
1. team - 15%;
2. Foundation - 20%.
3. Core contributors - 10%.
Кажется, что это разные категории, но по факту это 35-45% команде!
А что по наградам из ДАО казначейства?
С одной стороны, 20-30-40% токенов в казначействе выглядят неплохо: это и развитие, и потенциальная децентрализация.
Но чаще всего всё приходит к неэффективному распределению:
- Либо голосует мало кто, и небольшая группа выплачивает себе / своим партнёрам.
- Либо поддерживают проекты и разработки, но их создатели потом продают токены и уходят. Либо продолжают работать, но без результата, что для проекта тоже плохо.
А вы на что в токеномике смотрите в первую очередь и почему?
#аналитика
😎 Незрячий web3 программист (подписаться)
Чат | бот
1👍9