Блокнот Техника [📌📒📟]
1.17K subscribers
2.85K photos
241 videos
11 files
885 links
Блокнот. Заметки, наблюдения, мысли.

Open Source: Основано на открытых источниках.

Всë представленное здесь - только для ознакомления. Всë написанное - есть плод моих фантазий и мыслей.

Достоверность публикуемого не гарантируется. Проверяйте сами.
Download Telegram
#stats #stat #blocknote

Статистика блокнота от
2024-01-08

Виден повышенный интерес к определëнной информации, которую публикую в этом "Блокноте Техника".

По схожим признакам вижу, что популярность вызывают сообщения, которые описывают связи, которые ещë не "хайпили" в твиттере, редисе и телеге.

Это могут быть компиляции и сведение к общему вектору не очевидных связей уже известных в сети фактов. Так же подмечаю, что приведение пруфов для личного исследования читателем повышает интерес.

📔 @tech_di
🔥9👍6
#mem #xrpl #xrp

Напоминает механику "планетарной передачи"

📟 @tech_di
👍4🔥42
Forwarded from Τеxниκ Ди
Все так активно обсуждают манипуляции с ETF, что прям удивительно как сработал глобальный маркетинг на этом рынке.

Реальность более прозаична. До одобрения в SEC этого самого ETF - любые, даже грубые манипуляции на крипто-рынке всë ещë в том же полу-легальном статусе и всë ещë возможны.
👍6
#xrpl #number #address #doc

Адрес в XRPL со своими особенностями. Из него исключены символы, которые при записи разными шрифтами могут быть прочитаны неверно.

Многие уже заметили, что адреса в XRPL начинаются на строчную букву "r", однако немногие знают следующее:

Правильный адрес использует буквенно-цифровые символы, исключая число "0" заглавная буква "O", заглавная буква "I", и строчная буква "l"

https://xrpl.org/basic-data-types.html#addresses

С тем, что букву "O" могут попутать с числом "0", уже сломано не мало копий. Писал об этом как-то:
https://t.me/tech_di/1404
https://t.me/tech_di/1405
https://t.me/tech_di/1622

Обратить стоит внимание, что заглавная буква "И" (I) на английском и строчная "л" (l) выглядят одинаково даже в telegram. Поэтому мне нравятся программерские шрифты:

Здесь спасает немного моноширинный шрифт, который в телеге как раз используются для выделения кода:
буква И = I
буква л = l
...
Это присказка, а сказка в том, что обратил внимание на число, которое пока вызывает вопросы:

Включает контрольную сумму в 4 байта так, что вероятность генерации действительного адреса из случайных символов примерно равна 1 из 2^32


однако 2 в 32 степени -- это всего-то:
4 294 967 300

📌 @tech_di
👍6🤔2🔥1
#mem #y2024 #level

🌲
С Новым Годом!
Please open Telegram to view this post
VIEW IN TELEGRAM
😁6👍52
Это Всё (zvukoff.ru)
Ддт
#music

ДДТ
Это Всё
🔥3👍11
#hedera #council #hitachi

Hitachi America Ltd. присоединилась к Совету Hedera, привнеся с собой опыт в области промышленных решений и поставив перед собой цель в следующем году приступить к созданию проверенных концепций для сквозных цепочек поставок и решений в области устойчивого развития.

https://hedera.com/blog/hedera-council-adds-hitachi-america-ltd-as-newest-member-bringing-potential-for-real-world-industrial-solutions-built-on-hederas-dlt

📌 @tech_di
👍42
#hedera #ecosystem #hsuite #smart #node

На сети Hedera строится интересный проект:
HbarSuite (HSUITE)

https://hsuite.finance/

Заинтересовал проект меня тем, что предлагает технологию "Smart-Nodes как Сервис". Это что-то новенькое.

описание с сайта стартапа:
Если вы хотите создать собственный протокол DeFi или корпоративную частную сеть с использованием Blockchain/Web3 в качестве основы для неизменного хранения данных


Протоколы DeFi
DEX, NFT DEX, Cross-Chain DEX, Launchpad, стейкинг, MultiSig.


Частная Сеть
Выделенная децентрализованная сеть для корпоративных решений.


То есть, используя сеть Hedera с её нулевым карбоновым следом и 10000+ TPS предлагают стартапам или организациям развернуть "Staking As A Service" и/или "Smart-Node As A Service".

В Hedera внедрена EVM (эфириумная виртуальная машина), однако на ней лежат ограничения, которые достались по наследству от технологии EVM. По идее HSUITE решает их и предоставляет новый уровень гибкости. Без ограничений скорости, ограничений памяти и ограничений на сложность программного кода смарт-контрактов. И всё это на скоростях Hedera!

Смотрите последние пару скринов из их документации по Смарт-Нодам в сравнении Смарт-контрактами. Так же уже есть интеграция с IPFS. И есть мульти-подписи (что важно для организаций)

Полагаю эта технология будет востребована. В этой новой кормушке WEB3, как правило, "кто первый — того и тапки" 😁

На сайте проекта можно найти вход в децентрализованное рабочее приложение hbarsuite.app для примера. Уже готовый обменник + лаунчпад + NFT DEX + менеджер токенов для минта и управления, DAO и кроссчейн мост на Ethereum.

Не забываем, что используется EVM, а потому есть возможность автоматизировать связь с сетями эфира, банана, полигона и всяких там модных оптимизмов с суи.

На подобные разработки с нуля обычно нужно найти спецов, которые в дефиците и вложить приличную сумму. Поэтому считаю, что нароботки этих ребят будут пользоваться спросом.

Осталось только понять токеномику и место их токена HSUITE во всём этом деле.

📌 @tech_di
🔥15👍421
#crypto #rub #erc20 #dai

А это точно крипто-рубль?

На новой криптовалютной бирже ABCex.io начинается листинг крипторубля — токена стандарта ERC-20, привязанного к курсу национальной валюты. Об этом сообщил глава Indefibank Сергей Менделеев.

Подробнее на: https://bits.media/sozdateli-kriptorublya-zalistili-ego-na-novoy-birzhe-abcex-io/

Токенизированный крипторубль на базе Ethereum является самостоятельным инструментом для расчетов, никак не зависящим от разрабатываемого центробанком CBDC, подчеркивает глава Indefibank.

Эмиссия токена происходит через децентрализованный смарт-контракт по модели DAI. Общий объем эмиссии крипторубля должен будет зависеть от залога в долларовых стейблкоинах — USDT, USDC и DAI. 😂

---

Старые грабли: Залог для рубля в долоровых стейблах. И какой тогда это рубль? И рубль ли он вообще?

Некомерческий проект? Конечно, конечно, как же иначе 😆

📌 @tech_di
😁8👍3
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Нейросимволическая архитектура и ускорение обучения в 700 раз.

Пока весь мир сходит с ума на архитектуре Transformer, есть холодные умы, которые пытаются радикально снизить издержки на обучение в сотни раз, без специальных TPU, при этом понимать о том, почему и как черный ящик принимает решения.

Вадик Асадов прислал интереснейший проект с архетипичным названием Aдам и Ева
Это новая архитектура, которая в 700+ раз быстрее стандартных трансформеров. Коллеги научились делать N вместо N^2 по размеру данным и могут крутить все это хозяйство даже на CPU.

Отсюда два следствия.

Первое, нынешнее обучение LLM дико дорого: стоимость увеличивается квадратично с размером набора данных. Стоимость обучения за последние десять лет увеличилась в миллион раз. Даже OpenAI и другие уже сталкиваются с нехваткой оборудования ИИ. Чтобы полностью реализовать потенциал распространения ИИ, необходимо изучить альтернативные архитектуры ИИ, которые требуют значительно меньшей вычислительной мощности.

Другое законное желание - уметь понимать решения, принимаемые ИИ. Нейронные сети с их распределенным мышлением не интерпретируемые. Непонятно, почему они дают определенные ответы и как на их поведение можно влиять без переобучения всей модели.

Далее дам выжимку из описания, а почитать подробнее и записаться в вейт-лист, можете тут.
Я заинтригован.
https://adam-eva.ai/technology.html

Наши алгоритмы нейросимволического обучения основаны на принципе минимальной длины описания. Этот принцип гласит, что способность модели к точному прогнозированию возрастает с увеличением эффективности сжатия данных.

Мы используем стратегию глубокого сжатия данных, которая выполняется постепенно на нескольких слоях. Каждый слой сжимает данные в более широком временном масштабе, чем его предшественник, что отражает scale-free природу данных, наблюдаемую в естественных языках. Это сходство позволяет предположить, что наша архитектура может быть особенно эффективной для приложений ИИ на основе языка, используя структуру данных, схожую с человеческой лингвистической обработкой.

В нашей архитектуре каждый уровень независимо разрабатывает свой собственный формальный язык, выявляя повторяющиеся шаблоны в потоке входящих символов и эффективно сжимая их в более плотную последовательность часто встречающихся комбинаций, или "слов". Таким образом реализуется сжатие данных внутри слоев без потерь.

Между слоями мы применяем сжатие семантических данных с потерями, чтобы присвоить словам осмысленные интерпретации. Семантический контекст каждого слова отражается в векторах вероятности его соседей. Кластеризуя эти семантические векторы, мы определяем алфавит для последующего слоя, позволяя представить каждое слово как символ, кодирующий информацию в более длительном временном масштабе.

Каждый слой нашей модели состоит из нескольких heads, каждая из которых выступает в роли эксперта по кодированию слов из предыдущего слоя на основе определенной кластеризации. Такая multi-head система позволяет разнообразно интерпретировать данные, подобно multi-head вниманию в "Трансформерах".

Обучение модели представляет собой иерархический процесс. Она изучает ряд формальных языков, в которых слова низкого уровня абстрагируются в символы более высокого уровня. Понимание входного потока возникает в результате анализа снизу вверх всеми слоями, а формирование ответа - это процесс сверху вниз, когда каждый слой вносит свой вклад в реализацию общей стратегии.
👍3🤔1