#stats #stat #blocknote
Статистика блокнота от
2024-01-08
Виден повышенный интерес к определëнной информации, которую публикую в этом "Блокноте Техника".
По схожим признакам вижу, что популярность вызывают сообщения, которые описывают связи, которые ещë не "хайпили" в твиттере, редисе и телеге.
Это могут быть компиляции и сведение к общему вектору не очевидных связей уже известных в сети фактов. Так же подмечаю, что приведение пруфов для личного исследования читателем повышает интерес.
📔 @tech_di
Статистика блокнота от
2024-01-08
Виден повышенный интерес к определëнной информации, которую публикую в этом "Блокноте Техника".
По схожим признакам вижу, что популярность вызывают сообщения, которые описывают связи, которые ещë не "хайпили" в твиттере, редисе и телеге.
Это могут быть компиляции и сведение к общему вектору не очевидных связей уже известных в сети фактов. Так же подмечаю, что приведение пруфов для личного исследования читателем повышает интерес.
📔 @tech_di
🔥9👍6
Forwarded from Τеxниκ Ди
Все так активно обсуждают манипуляции с ETF, что прям удивительно как сработал глобальный маркетинг на этом рынке.
Реальность более прозаична. До одобрения в SEC этого самого ETF - любые, даже грубые манипуляции на крипто-рынке всë ещë в том же полу-легальном статусе и всë ещë возможны.
Реальность более прозаична. До одобрения в SEC этого самого ETF - любые, даже грубые манипуляции на крипто-рынке всë ещë в том же полу-легальном статусе и всë ещë возможны.
👍6
#xrpl #number #address #doc
Адрес в XRPL со своими особенностями. Из него исключены символы, которые при записи разными шрифтами могут быть прочитаны неверно.
Многие уже заметили, что адреса в XRPL начинаются на строчную букву "r", однако немногие знают следующее:
Правильный адрес использует буквенно-цифровые символы, исключая число "0" заглавная буква "O", заглавная буква "I", и строчная буква "l"
https://xrpl.org/basic-data-types.html#addresses
С тем, что букву "O" могут попутать с числом "0", уже сломано не мало копий. Писал об этом как-то:
https://t.me/tech_di/1404
https://t.me/tech_di/1405
https://t.me/tech_di/1622
Обратить стоит внимание, что заглавная буква "И" (I) на английском и строчная "л" (l) выглядят одинаково даже в telegram. Поэтому мне нравятся программерские шрифты:
Здесь спасает немного моноширинный шрифт, который в телеге как раз используются для выделения кода:
Это присказка, а сказка в том, что обратил внимание на число, которое пока вызывает вопросы:
однако 2 в 32 степени -- это всего-то:
📌 @tech_di
Адрес в XRPL со своими особенностями. Из него исключены символы, которые при записи разными шрифтами могут быть прочитаны неверно.
Многие уже заметили, что адреса в XRPL начинаются на строчную букву "r", однако немногие знают следующее:
Правильный адрес использует буквенно-цифровые символы, исключая число "0" заглавная буква "O", заглавная буква "I", и строчная буква "l"
https://xrpl.org/basic-data-types.html#addresses
С тем, что букву "O" могут попутать с числом "0", уже сломано не мало копий. Писал об этом как-то:
https://t.me/tech_di/1404
https://t.me/tech_di/1405
https://t.me/tech_di/1622
Обратить стоит внимание, что заглавная буква "И" (I) на английском и строчная "л" (l) выглядят одинаково даже в telegram. Поэтому мне нравятся программерские шрифты:
Здесь спасает немного моноширинный шрифт, который в телеге как раз используются для выделения кода:
буква И = I...
буква л = l
Это присказка, а сказка в том, что обратил внимание на число, которое пока вызывает вопросы:
Включает контрольную сумму в 4 байта так, что вероятность генерации действительного адреса из случайных символов примерно равна 1 из 2^32
однако 2 в 32 степени -- это всего-то:
4 294 967 300📌 @tech_di
👍6🤔2🔥1
Please open Telegram to view this post
VIEW IN TELEGRAM
😁6👍5 2
#hedera #council #hitachi
Hitachi America Ltd. присоединилась к Совету Hedera, привнеся с собой опыт в области промышленных решений и поставив перед собой цель в следующем году приступить к созданию проверенных концепций для сквозных цепочек поставок и решений в области устойчивого развития.
https://hedera.com/blog/hedera-council-adds-hitachi-america-ltd-as-newest-member-bringing-potential-for-real-world-industrial-solutions-built-on-hederas-dlt
📌 @tech_di
Hitachi America Ltd. присоединилась к Совету Hedera, привнеся с собой опыт в области промышленных решений и поставив перед собой цель в следующем году приступить к созданию проверенных концепций для сквозных цепочек поставок и решений в области устойчивого развития.
https://hedera.com/blog/hedera-council-adds-hitachi-america-ltd-as-newest-member-bringing-potential-for-real-world-industrial-solutions-built-on-hederas-dlt
📌 @tech_di
👍4 2
#hedera #ecosystem #hsuite #smart #node
На сети Hedera строится интересный проект:
HbarSuite (HSUITE)
https://hsuite.finance/
Заинтересовал проект меня тем, что предлагает технологию "Smart-Nodes как Сервис". Это что-то новенькое.
описание с сайта стартапа:
То есть, используя сеть Hedera с её нулевым карбоновым следом и 10000+ TPS предлагают стартапам или организациям развернуть "Staking As A Service" и/или "Smart-Node As A Service".
В Hedera внедрена EVM (эфириумная виртуальная машина), однако на ней лежат ограничения, которые достались по наследству от технологии EVM. По идее HSUITE решает их и предоставляет новый уровень гибкости. Без ограничений скорости, ограничений памяти и ограничений на сложность программного кода смарт-контрактов. И всё это на скоростях Hedera!
Смотрите последние пару скринов из их документации по Смарт-Нодам в сравнении Смарт-контрактами. Так же уже есть интеграция с IPFS. И есть мульти-подписи (что важно для организаций)
Полагаю эта технология будет востребована. В этой новой кормушке WEB3, как правило, "кто первый — того и тапки" 😁
На сайте проекта можно найти вход в децентрализованное рабочее приложение hbarsuite.app для примера. Уже готовый обменник + лаунчпад + NFT DEX + менеджер токенов для минта и управления, DAO и кроссчейн мост на Ethereum.
Не забываем, что используется EVM, а потому есть возможность автоматизировать связь с сетями эфира, банана, полигона и всяких там модных оптимизмов с суи.
На подобные разработки с нуля обычно нужно найти спецов, которые в дефиците и вложить приличную сумму. Поэтому считаю, что нароботки этих ребят будут пользоваться спросом.
Осталось только понять токеномику и место их токена HSUITE во всём этом деле.
📌 @tech_di
На сети Hedera строится интересный проект:
HbarSuite (HSUITE)
https://hsuite.finance/
Заинтересовал проект меня тем, что предлагает технологию "Smart-Nodes как Сервис". Это что-то новенькое.
описание с сайта стартапа:
Если вы хотите создать собственный протокол DeFi или корпоративную частную сеть с использованием Blockchain/Web3 в качестве основы для неизменного хранения данных
Протоколы DeFi
DEX, NFT DEX, Cross-Chain DEX, Launchpad, стейкинг, MultiSig.
Частная Сеть
Выделенная децентрализованная сеть для корпоративных решений.
То есть, используя сеть Hedera с её нулевым карбоновым следом и 10000+ TPS предлагают стартапам или организациям развернуть "Staking As A Service" и/или "Smart-Node As A Service".
В Hedera внедрена EVM (эфириумная виртуальная машина), однако на ней лежат ограничения, которые достались по наследству от технологии EVM. По идее HSUITE решает их и предоставляет новый уровень гибкости. Без ограничений скорости, ограничений памяти и ограничений на сложность программного кода смарт-контрактов. И всё это на скоростях Hedera!
Смотрите последние пару скринов из их документации по Смарт-Нодам в сравнении Смарт-контрактами. Так же уже есть интеграция с IPFS. И есть мульти-подписи (что важно для организаций)
Полагаю эта технология будет востребована. В этой новой кормушке WEB3, как правило, "кто первый — того и тапки" 😁
На сайте проекта можно найти вход в децентрализованное рабочее приложение hbarsuite.app для примера. Уже готовый обменник + лаунчпад + NFT DEX + менеджер токенов для минта и управления, DAO и кроссчейн мост на Ethereum.
Не забываем, что используется EVM, а потому есть возможность автоматизировать связь с сетями эфира, банана, полигона и всяких там модных оптимизмов с суи.
На подобные разработки с нуля обычно нужно найти спецов, которые в дефиците и вложить приличную сумму. Поэтому считаю, что нароботки этих ребят будут пользоваться спросом.
Осталось только понять токеномику и место их токена HSUITE во всём этом деле.
📌 @tech_di
🔥15👍4✍2 1
#crypto #rub #erc20 #dai
А это точно крипто-рубль?
На новой криптовалютной бирже ABCex.io начинается листинг крипторубля — токена стандарта ERC-20, привязанного к курсу национальной валюты. Об этом сообщил глава Indefibank Сергей Менделеев.
Подробнее на: https://bits.media/sozdateli-kriptorublya-zalistili-ego-na-novoy-birzhe-abcex-io/
Токенизированный крипторубль на базе Ethereum является самостоятельным инструментом для расчетов, никак не зависящим от разрабатываемого центробанком CBDC, подчеркивает глава Indefibank.
Эмиссия токена происходит через децентрализованный смарт-контракт по модели DAI. Общий объем эмиссии крипторубля должен будет зависеть от залога в долларовых стейблкоинах — USDT, USDC и DAI. 😂
---
Старые грабли: Залог для рубля в долоровых стейблах. И какой тогда это рубль? И рубль ли он вообще?
Некомерческий проект? Конечно, конечно, как же иначе 😆
📌 @tech_di
А это точно крипто-рубль?
На новой криптовалютной бирже ABCex.io начинается листинг крипторубля — токена стандарта ERC-20, привязанного к курсу национальной валюты. Об этом сообщил глава Indefibank Сергей Менделеев.
Подробнее на: https://bits.media/sozdateli-kriptorublya-zalistili-ego-na-novoy-birzhe-abcex-io/
Токенизированный крипторубль на базе Ethereum является самостоятельным инструментом для расчетов, никак не зависящим от разрабатываемого центробанком CBDC, подчеркивает глава Indefibank.
Эмиссия токена происходит через децентрализованный смарт-контракт по модели DAI. Общий объем эмиссии крипторубля должен будет зависеть от залога в долларовых стейблкоинах — USDT, USDC и DAI. 😂
---
Старые грабли: Залог для рубля в долоровых стейблах. И какой тогда это рубль? И рубль ли он вообще?
Некомерческий проект? Конечно, конечно, как же иначе 😆
📌 @tech_di
😁8👍3
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Нейросимволическая архитектура и ускорение обучения в 700 раз.
Пока весь мир сходит с ума на архитектуре Transformer, есть холодные умы, которые пытаются радикально снизить издержки на обучение в сотни раз, без специальных TPU, при этом понимать о том, почему и как черный ящик принимает решения.
Вадик Асадов прислал интереснейший проект с архетипичным названием Aдам и Ева
Это новая архитектура, которая в 700+ раз быстрее стандартных трансформеров. Коллеги научились делать N вместо N^2 по размеру данным и могут крутить все это хозяйство даже на CPU.
Отсюда два следствия.
Первое, нынешнее обучение LLM дико дорого: стоимость увеличивается квадратично с размером набора данных. Стоимость обучения за последние десять лет увеличилась в миллион раз. Даже OpenAI и другие уже сталкиваются с нехваткой оборудования ИИ. Чтобы полностью реализовать потенциал распространения ИИ, необходимо изучить альтернативные архитектуры ИИ, которые требуют значительно меньшей вычислительной мощности.
Другое законное желание - уметь понимать решения, принимаемые ИИ. Нейронные сети с их распределенным мышлением не интерпретируемые. Непонятно, почему они дают определенные ответы и как на их поведение можно влиять без переобучения всей модели.
Далее дам выжимку из описания, а почитать подробнее и записаться в вейт-лист, можете тут.
Я заинтригован.
https://adam-eva.ai/technology.html
Наши алгоритмы нейросимволического обучения основаны на принципе минимальной длины описания. Этот принцип гласит, что способность модели к точному прогнозированию возрастает с увеличением эффективности сжатия данных.
Мы используем стратегию глубокого сжатия данных, которая выполняется постепенно на нескольких слоях. Каждый слой сжимает данные в более широком временном масштабе, чем его предшественник, что отражает scale-free природу данных, наблюдаемую в естественных языках. Это сходство позволяет предположить, что наша архитектура может быть особенно эффективной для приложений ИИ на основе языка, используя структуру данных, схожую с человеческой лингвистической обработкой.
В нашей архитектуре каждый уровень независимо разрабатывает свой собственный формальный язык, выявляя повторяющиеся шаблоны в потоке входящих символов и эффективно сжимая их в более плотную последовательность часто встречающихся комбинаций, или "слов". Таким образом реализуется сжатие данных внутри слоев без потерь.
Между слоями мы применяем сжатие семантических данных с потерями, чтобы присвоить словам осмысленные интерпретации. Семантический контекст каждого слова отражается в векторах вероятности его соседей. Кластеризуя эти семантические векторы, мы определяем алфавит для последующего слоя, позволяя представить каждое слово как символ, кодирующий информацию в более длительном временном масштабе.
Каждый слой нашей модели состоит из нескольких heads, каждая из которых выступает в роли эксперта по кодированию слов из предыдущего слоя на основе определенной кластеризации. Такая multi-head система позволяет разнообразно интерпретировать данные, подобно multi-head вниманию в "Трансформерах".
Обучение модели представляет собой иерархический процесс. Она изучает ряд формальных языков, в которых слова низкого уровня абстрагируются в символы более высокого уровня. Понимание входного потока возникает в результате анализа снизу вверх всеми слоями, а формирование ответа - это процесс сверху вниз, когда каждый слой вносит свой вклад в реализацию общей стратегии.
Пока весь мир сходит с ума на архитектуре Transformer, есть холодные умы, которые пытаются радикально снизить издержки на обучение в сотни раз, без специальных TPU, при этом понимать о том, почему и как черный ящик принимает решения.
Вадик Асадов прислал интереснейший проект с архетипичным названием Aдам и Ева
Это новая архитектура, которая в 700+ раз быстрее стандартных трансформеров. Коллеги научились делать N вместо N^2 по размеру данным и могут крутить все это хозяйство даже на CPU.
Отсюда два следствия.
Первое, нынешнее обучение LLM дико дорого: стоимость увеличивается квадратично с размером набора данных. Стоимость обучения за последние десять лет увеличилась в миллион раз. Даже OpenAI и другие уже сталкиваются с нехваткой оборудования ИИ. Чтобы полностью реализовать потенциал распространения ИИ, необходимо изучить альтернативные архитектуры ИИ, которые требуют значительно меньшей вычислительной мощности.
Другое законное желание - уметь понимать решения, принимаемые ИИ. Нейронные сети с их распределенным мышлением не интерпретируемые. Непонятно, почему они дают определенные ответы и как на их поведение можно влиять без переобучения всей модели.
Далее дам выжимку из описания, а почитать подробнее и записаться в вейт-лист, можете тут.
Я заинтригован.
https://adam-eva.ai/technology.html
Наши алгоритмы нейросимволического обучения основаны на принципе минимальной длины описания. Этот принцип гласит, что способность модели к точному прогнозированию возрастает с увеличением эффективности сжатия данных.
Мы используем стратегию глубокого сжатия данных, которая выполняется постепенно на нескольких слоях. Каждый слой сжимает данные в более широком временном масштабе, чем его предшественник, что отражает scale-free природу данных, наблюдаемую в естественных языках. Это сходство позволяет предположить, что наша архитектура может быть особенно эффективной для приложений ИИ на основе языка, используя структуру данных, схожую с человеческой лингвистической обработкой.
В нашей архитектуре каждый уровень независимо разрабатывает свой собственный формальный язык, выявляя повторяющиеся шаблоны в потоке входящих символов и эффективно сжимая их в более плотную последовательность часто встречающихся комбинаций, или "слов". Таким образом реализуется сжатие данных внутри слоев без потерь.
Между слоями мы применяем сжатие семантических данных с потерями, чтобы присвоить словам осмысленные интерпретации. Семантический контекст каждого слова отражается в векторах вероятности его соседей. Кластеризуя эти семантические векторы, мы определяем алфавит для последующего слоя, позволяя представить каждое слово как символ, кодирующий информацию в более длительном временном масштабе.
Каждый слой нашей модели состоит из нескольких heads, каждая из которых выступает в роли эксперта по кодированию слов из предыдущего слоя на основе определенной кластеризации. Такая multi-head система позволяет разнообразно интерпретировать данные, подобно multi-head вниманию в "Трансформерах".
Обучение модели представляет собой иерархический процесс. Она изучает ряд формальных языков, в которых слова низкого уровня абстрагируются в символы более высокого уровня. Понимание входного потока возникает в результате анализа снизу вверх всеми слоями, а формирование ответа - это процесс сверху вниз, когда каждый слой вносит свой вклад в реализацию общей стратегии.
👍3🤔1