Интересное что-то
517 subscribers
2.72K photos
253 videos
139 files
4.52K links
Материалы и мысли, понадерганные отовсюду
Блог: https://t.me/asisakov_channel
Чат: https://t.me/youknowds_chat
Download Telegram
В основе современных криптографических систем лежит не только арифметика, но и элегантная геометрия эллиптических кривых.

Эллиптическая кривая задаётся уравнением вида:
y^2 = x^3 + ax + b.
при этом важно, чтобы дискриминант не обращался в ноль — это гарантирует гладкость кривой.

сама кривая есть на первой картинке

Здесь операция сложения точек на кривой определяется весьма своеобразно: для сложения двух разных точек P и Q проводится прямая через них, а затем найденная третья точка отражается относительно оси x.
На картинке показано как получается результат P+Q=R’

При удвоении точки применяется касательная, которая пересекается с кривой, и аналогично выполняется отражение.
На картинке 2*P=S’

Для криптографических применений, таких как формирование ключей, вычисления ведутся не над вещественными числами, а в конечных полях (например, GF(p)).

Если кратко, то конечное поле, это штука, где все операции выполняются по модулю p. То есть уравнение будет вида:
y^2 mod p = (x^3 + ax + b) mod p.

Точек в кадрате p*p будет p-1 или около того (я забыл если честно).

На второй картинке показан пример такого поля. И тут тоже есть геометрическая интерпретация для сложения.

Нахера нам эти поля и кривые?
В криптографии важно, чтобы все вычисления были дискретными (то есть, с целыми числами) и имели ограниченное число вариантов. Это позволяет избежать проблем с точностью и сделать вычисления эффективными.

Конечные поля позволяют нам выполнять операции по модулю, которые позволяют нам производить вычисления достаточно легко в одну сторону и почти не обратимо в обратную.

Вот пример:
3^3 mod 17 = 27 mod 17 = 10

При этом, если мы не знаем степень, то получить x можно только перебрав кучу не верных кандидатов:
3^x mod 17 = 12 — найдите x…

Если что, ответ 29 🙂

Аналогично, в эллиптических кривых используется операция, которая записывается как
Q = d * G,
где G — базовая точка, а d — приватный ключ (по сути тот самый x, который нереально найти при наших вычислительных ресурсах).

Эта операция представляет собой повторное сложение точки G с собой d раз и является аддитивным аналогом возведения в степень.

То есть у нас есть операция, которую легко выполнить в одну сторону, но почти не реально в другую сторону (при больших d и p (прям оооочень больших))

Эти операции лежат в основе ECDSA — алгоритма цифровой подписи на эллиптических кривых. При генерации ключей выбирается базовая точка G с большим простым порядком p. Приватный ключ d — случайное число, а публичный вычисляется как Q = d * G

пример на картинке 3.

Задача восстановления d по Q сводится к поиску дискретного логарифма — математической проблеме, которую решить практически невозможно без перебора (то что описано выше).

От криптографических примитивов мы переходим к тому, как всё это используется для создания целостных систем хранения данных.

А вот здесь тыц можно поиграть с элиптическими кривыми и посмотреть как появляются точки P, Q и R.

[4/8]
скам блокчейн — это децентрализованная распределённая база данных, где каждый участник сети имеет доступ к единому реестру. Представьте огромную бухгалтерскую книгу, которую невозможно подделать, ведь каждая страница (блок) содержит ссылку на предыдущую, создавая цепочку, где каждый новый блок зависит от данных предыдущего.

Каждый блок состоит из:
1. Заголовка: здесь записаны метаданные, такие как хэш предыдущего блока, временная метка, nonce (значение, используемое для достижения консенсуса, об этом будет ниже) и корень Merkle — сводный хэш всех транзакций в блоке.
2. Списка транзакций: каждая транзакция подписывается с использованием асимметричного шифрования, что гарантирует её подлинность. (например, ECDSA)

Эта структура позволяет обеспечить неизменяемость данных и защищает систему от несанкционированных изменений. Но чтобы все участники сети смогли договориться о том, какие блоки добавляются в цепочку, нужны специальные механизмы — алгоритмы консенсуса.

А вот здесь бам можете потыкаться в игрушечный блокчейн.

[5/8]
В децентрализованной сети нет центрального управляющего органа, поэтому все узлы должны прийти к единому решению о состоянии блокчейна. Для этого используются алгоритмы консенсуса. Два наиболее популярных подхода — Proof-of-Work (PoW) и Proof-of-Stake (PoS).

Proof-of-Work (PoW) на картинке 1.
Узлы, называемые майнерами, соревнуются в решении сложной математической задачи (например, нахождение подходящего nonce, чтобы хэш блока начинался с определённого количества нулей). Эта задача требует огромных вычислительных мощностей, что обеспечивает безопасность сети, но в то же время требует больших энергетических затрат. Представьте, что тысячи участников одновременно ищут иголку в стоге сена — тот, кто первым её найдёт, получает вознаграждение.

Proof-of-Stake (PoS) на картинке 2.
Здесь право на создание нового блока распределяется среди участников пропорционально количеству замороженных монет (stake). Шансы, как в лотерее, зависят от «ставки». Этот метод значительно снижает энергопотребление, но требует сложных механизмов защиты от некоторых специфических атак.

В обоих алгоритмах участники, которые создают валидные блоки и остальная часть сети их принимаем, получают «чаевые» за проделанную работу.

Алгоритмы консенсуса — это важный звено, связывающее криптографические методы с реальным функционированием блокчейна, и далее мы рассмотрим, как это применяется в известных криптовалютах.

Можете еще в комменты написать какой из этих алгоритмов консенсуса применяется в блокчейн демо из предыдущей части лонгрида.

[6/8]
Bitcoin стал первой криптовалютой, построенной на технологии блокчейн. Его суть проста, но гениальна:

Транзакции — это записи переводов средств между пользователями, напоминающие строки в банковской книге.

Блоки и цепочка блоков — каждая группа транзакций объединяется в блок, который связывается с предыдущим посредством хэша, создавая надёжную цепь.

Майнинг на основе PoW — майнеры решают криптографическую задачу, чтобы добавить новый блок, а победитель получает вознаграждение в виде новых битков.

Децентрализация — информация хранится одновременно на тысячах компьютеров по всему миру, что делает систему практически неуязвимой для централизованных атак.

Bitcoin продемонстрировал, как сочетание математических принципов, криптографических алгоритмов и распределённых вычислений может создать новую форму цифровых денег.

Но дальше еще круче…

[7/8]
Если Bitcoin — это цифровое золото, то Ethereum стал площадкой для создания целой вселенной децентрализованных приложений.

Помимо функции криптовалюты, Ethereum предлагает возможность запуска смарт-контрактов — программ, которые автоматически исполняются при соблюдении заданных условий.

Основные компоненты Ethereum:
Смарт-контракты: Автоматизированные соглашения, которые работают без посредников. Это как автоматический терминал, выдающий товар при внесении нужной суммы. Этот терминал не нужно контролировать, так как сеть сама обеспечит выполнение договоренностей.

Ethereum Virtual Machine (EVM): Виртуальная машина, которая обеспечивает единообразное выполнение кода на всех узлах сети.

Газ (Gas): Оплата за вычислительные ресурсы, необходимая для выполнения транзакций и смарт-контрактов. Чем сложнее операция, тем больше газа требуется. (тупо топливо для машинок)

Блоки и консенсус: Ethereum изначально использовал PoW, а затем перешёл на PoS, что позволило значительно снизить энергопотребление и повысить масштабируемость.

Таким образом, Ethereum расширил концепцию блокчейна, превратив его из простой системы учета транзакций в платформу для приложений, от финансовых сервисов до децентрализованных организаций и скама.

Теперь по сути можно делать много чего интересного после появления смарт-контрактов: платформа для автоматизированного страхования, система децентрализованного голосования, платформа для аренды недвижимости и так далее. Платформы и сервисы, где сама система будет обеспечивать честность транзакций/сделок.

Прикрепил еще файл с имплементацией игрушечной блокчейн системы. Можете потыкаться на досуге бам 🥰

[8/8]
EOS наконец-то
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯 тут китайцы manus нам показали…

tl;dr: на днях своего general AI мультиагента дропнули manus.im, который может и билеты вам заказать в казахстан, и исследование провести о том, куда все пиратские сайты делись, а на первых строчках в браузере почему-то рутюб.

пример на видео к посту: ресерч опен-сурса от deepseek ) не будем забывать первый китайский бум.

также говорят что они SOTA на бенчмарке GAIA (оценивает то, насколько модель способна справляться с различными задачами, требующими комплексного мышления и междисциплинарного подхода). Странно что показали только один бенч, как то и сомнительно вроде. Стоит еще учитывать, что почти половина вопросов в этом бенче направлена на браузинг и поиск ответов в инете.

на странице мануса уже много разных юзес кейсов и примеров использования от реальных пользователей. Обязательно гляньте, выглядит не плохо.

⚠️ НО! буквально вчера челик из твиттера получил доступ к файлам sanbox системы, где все это дело крутится. Запросил просто доступ к /opt/.manus/ через интерфейс. Под коробкой оказался claude sonnet и 29 инструментов и типа никаких мультиагентов. Вот тут можно прям глянуть че там напромптили в манусе… тык
Ну и понятно, что сразу там безопасность под вопросом, deepseek moment и все такое

⚠️ НО x2! “хакеру” ответил кофаундер мануса и достаточно ясно объяснил.
- sandbox доступна каждому юзеру, каждый может глянуть что находится внутри песочницы, каждая сессия изолирована
- код внутри песочницы служит лишь “приемником” команд от агентов уровнем выше.
- мультиагентность важная составляющая: есть агент Executor, который получает команды от юзера и потом взаимодействует с агентами типа Planner + Knowledge и тд. Эти агенты в свою очередь дают команды на агента в песочнице ??? Здесь я немного запутался, если кто то яснее поймет архитектуру — велком в комменты. Просто не совсем понятно, что за агент тогда описан в песочнице. Если это executor, то не понятно, каким образом он может быть “лишь приемником”.
- какие-то из их post-trained моделей будут литься в опен-сурс, но это и так сказали в демке.

Я еще не так много примеров глянул, но выглядит интересно. Если вдруг найдете прикольные демки, то давайте в комменты их накидаем 🤝

Попросился в збт, надеюсь окнут 🥰

P.S. ну и давайте вопрос закроем один. Если у кого-то возникли вопросы к названию, то оно произошло от “Mens et Manus” — с латыни “mind and hand”
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Записи выступлений ArchDays’24 появились и в VK Видео: https://vkvideo.ru/@archdaysconference/all
(ссылка для мобильного браузера)
Forwarded from LLM is all you need
#RAG #retriever

Глобально RAG-система состоит из двух больших частей: ретривер и LLM. И из них самая "дорогая" - генерация ответов LLM. Причем дороже она с большим перевесом. Но если ваша RAG-система натравлена на достаточно статичную документацию, то, скорее всего, многие вопросы по ней будут регулярно повторяться. И тогда, для экономии ресурсов, можно запилить кэш, в котором хранить наиболее частые вопросы/ответы.

Алгоритм такой:
- Получаем вопросов пользователя.
- Переводим его в вектор (с помощью bi-энкодера).
- Ищем в БД с кэшем (всех вопросов) похожий вопрос. Похожесть оцениваем по косинусному расстоянию.
- Если нашли достаточно похожий вопрос - возвращаем ранее данный на него ответ (берем его из той же БД с кэшем).
- Иначе идем по стандартному пути RAG'а. Только в конце еще сохраняем вопрос и ответ LLM в БД кэша.

Вся эта операция будет работать намного быстрее, чем генерация ответа LLM. Векторная БД вернет кэш все буквально за секунду. А например, какой-нибудь Deepseek R1 будет печатать ответ пару минут.

На хабре есть неплохая статья реализующая данный данный подход: Русский LLM-помощник (saiga) с кэшем, используя RAG (Retrieval-Augmented Generation)
Forwarded from Katser
🔝Концентрированный опыт внедрения DS/ML/AI в промышленных компаниях
Следим и слушаем "топов": Head of DS'ов, CDS'ов, CDO, директоров инноваций, директоров цифровых дочек холдингов и вендоров решений в промышленности.

Что мне интересно в таких материалах:
🟢Кейсы, включая постановки задач, DS метрики и экономические показатели/KPI всего DS направления
🟢Технические инсайты
🟢Фреймворки управления DS проектами
🟢Архитектуры отдельных решений и платформ
🟢Стратегии цифровизации и внедрения ИИ, путь компаний
🟢Актуальные тренды и технологии
🟢Софт скиллы, майндсет и опыт на разных позициях
🟢Барьеры и набитые шишки в процессе внедрения ИИ и инноваций

Примеры полезных выступлений/презентаций/интервью/подкастов:
🔴НЛМК. Искусственный Интеллект в металлургии. Анджей Аршавский [link]
🔴ММК. Опыт ММК. Интервью с Данилой Целикановым [link]
🔴Mechanica AI. Искусственный интеллект в металлургии. Александр Хайтин [link]
🔴РУСАЛ. Где можно и где нельзя без ML в промышленности. Михаил Граденко [link]
🔴Еврохим. Как устроена разработка ML-продуктов для производства ЕвроХима. Вячеслав Козицин [link]
🔴Сибур. Цифровая трансформация в СИБУРе. Василий Номоконов [link]
🔴Норникель. Искусственный интеллект в "Норникель" / Про фреймворки для управления проектами на миллиарды. Алексей Тестин [link]
🔴Норникель. Цифровые двойники оператора на производстве на примере компании из цветной металлургии. Антон Абраров [link]
🔴Северсталь. Как AI помогает зарабатывать миллионы одному из крупнейших заводов в стране. Светлана Потапова [link]
Стоит обращать внимание на дату материалов, потому что хоть и медленное, но развитие есть.

Еще мои мысли:
🔘Да, уровень материала разный: от МЛ моделей до управления цифровизацией, иногда слишком верхнеуровнево, иногда слишком конкретно, но я все это считаю полезным.
🔘Можно следить за компаниями, можно следить за личностями, так как многие руководители перемещаются (иногда не по своей воле) между компаниями и тиражируют свой опыт (как удачный, так и не очень).
🔘Знакомясь с материалами и зная внутрянку отраслей/компаний, понятно, что где-то преукрашено, где-то недосказано, но даже так материалы бесценны. Кстати, знание внутрянки и более реального состояния дел дает дополнительные инсайты о том, что работает, а что нет. Другими словами от "не повторяйте" до "а вот это надо слушать очень внимательно".
Please open Telegram to view this post
VIEW IN TELEGRAM
Продолжаем про экзотические методы тестирования гипотез. Классическая история - выкатили фичу без АБ, и нужно посчитать эффекты. Возможно, сразу вспомним про Causal Impact. Который поможет посчитать эффекты, но с некоторыми значительными допущениями, одно из них - предположение, что, кроме нашей новой фичи, больше ничто не оказывало значительное влияние.
Такое самое узкое место. Есть и другие. Это не блокирует использование метода, просто нужно держать в голове и плюсы, и минусы.

В статье описываются и другие методы поиска причинно-следственных связей в отсутствии АБ-теста.

А здесь видео с подробным разбором работы Causal Impact. Наглядную картинку использую отсюда. Если не ошибаюсь, на AHA в прошлом году Дмитрий выступал с докладом на эту тему.
ROADMAP: ГЛУБОКОЕ ОБУЧЕНИЕ (3/3) 😳

НУ ТЕПЕЕРЬ ТОООЧНО, я возвращаюсь на постоянную основу и буду радовать вас своей шизой. Сначала начал со старого - обновил роадмап по мат.стату, можете поглядеть, если только начинаете свой путь.

Давайте закончим с начатым (с роадмапи) и перейдем к интересному, что меня в последнее время очень сильно драйвит / о чем я в последнее время активно задумываюсь.

Что с глубоким обучением и как его ботать? 🤔

На самом деле, если вы дошли до этой части и раньше все заботали - вы герой. Время определяться с ориентацией.

Как и везде, для основы нужна база. Крепкий фундамент, на который потом по очереди будут наслаиваться различные области: от CV до NLP.

БАЗА:
1. Женя Соколов, ну а как же без него. Очень хороший, "мягкий" цикл лекций, идёт как по маслу и даёт все понимание происходящего. Однозначно рекомендовано к первому просмотру и к знакомству с глубоким обучением.
ССЫЛКА НА ЦИКЛ ЛЕКЦИЙ

2. Практика. Я бы рекомендовал закреплять лекции Жени лекциями ШАДа. Одно дело слушать, другое дело повторять за семинаристом и делать домашки, мастхев для новичков.

Ориентации:
Наверное, для себя я определяю несколько вариантов профессионального развития - NLP, CV, RecSys (ну и классика, но она уже разбиралась). По последнему - ничего сказать не могу, а вот по первым двум - с радостью.

NLP:
Курс Лены Войты с ШАД, суперский курс. Как основа, как "база" для NLP - точно пойдет, ведь раскрываются как и методы "ручек", так и доходчиво объясняют механизм внимания и современные архитектуры. Ежу (основному, как по мне, семинаристу, я бы выразил отдельный респект).

На самом деле, здесь бы я еще посоветовал обязательно подписаться на эти каналы, чтобы следить за трендами (что очень важно). Сиолошная, Denis Sexy IT и эй ай ньюз. Да, список хайповый, но дальше, поверьте мне, вы сами найдете для себя узкопрофильных авторов, которые будут радовать себя своим контентом.

Дальше уже - собеситься, работать, читать папиры и наслаждаться жизнью

CV:
Я не спец. по CV, но как сказал один мой товарищ, которому я очень сильно доверяю - "курсы по CV не имеет смысла делать, потому что есть ЭТО".

Ну и разумеется, пишите в комментах ресурсы по рекомендательным системам, чтоыб помочь себе и окружающим 😎

Шэры, реакции для вдохновения нужны, конечно же!

Первая часть по классике ML
Вторая часть по математике для собесов
Please open Telegram to view this post
VIEW IN TELEGRAM