Серфил LI и наткнулся на три поста бывших коллег из блока о том, что
Теперь можно покупать и продавать токенизированные ETF/акции. То есть настоящие мы тебе купить не дадим, но купленные кем-то и выпущенные под них токены — да.
Это, кстати, продолжение интересного тренда: US Treasuries начинают поддерживаться через стейблкоины (уже примерно 250 млрд ликвидности влито таким образом), что может серьёзно укрепить глобальную доминацию доллара. Какая ирония!
Теперь то же самое происходит со стоками и ETF, ждём роста всего рынка.
Продолжая сёрфить, понял, что, судя по всему, многие смотрят в одну сторону, потому что в @Wallet из недавнего поста тоже стали доступны токенизированные Stocks & ETFs.
Зашёл в криптокошелёк, а там:
United Kingdom is not supported by Crypto Wallet. We apologize for the inconvenience.
Спасибо пацаны, выручили, жаль только, что не добавили цитату Боба Марли: No woman, No cry.
С Озоном и книгой сработало, поэтому пишу чувакам из @Wallet : поправьте, чтобы хотя бы можно было документы прикладывать и получить разрешение, а не просто по локации/номеру банить. Все остальное то есть, чтобы использовать
Посвящаю этот пост Игорю
UPD: Появилась идея выпустить бонды на BTC Игоря и, понятное дело, токенизировать
we have received its MiCA license, a major step that allows us to provide crypto services across all 30
Теперь можно покупать и продавать токенизированные ETF/акции. То есть настоящие мы тебе купить не дадим, но купленные кем-то и выпущенные под них токены — да.
For the first time, tokenized U.S. stocks and ETFs are available directly
Это, кстати, продолжение интересного тренда: US Treasuries начинают поддерживаться через стейблкоины (уже примерно 250 млрд ликвидности влито таким образом), что может серьёзно укрепить глобальную доминацию доллара. Какая ирония!
Теперь то же самое происходит со стоками и ETF, ждём роста всего рынка.
Продолжая сёрфить, понял, что, судя по всему, многие смотрят в одну сторону, потому что в @Wallet из недавнего поста тоже стали доступны токенизированные Stocks & ETFs.
Зашёл в криптокошелёк, а там:
United Kingdom is not supported by Crypto Wallet. We apologize for the inconvenience.
Спасибо пацаны, выручили, жаль только, что не добавили цитату Боба Марли: No woman, No cry.
С Озоном и книгой сработало, поэтому пишу чувакам из @Wallet : поправьте, чтобы хотя бы можно было документы прикладывать и получить разрешение, а не просто по локации/номеру банить. Все остальное то есть, чтобы использовать
Посвящаю этот пост Игорю
UPD: Появилась идея выпустить бонды на BTC Игоря и, понятное дело, токенизировать
5😁90👍37❤20💩9🤡3⚡1💔1
Начал ходить на групповые занятия по джиу-джитсу в дополнение к частным урокам.
В партнёры для отработки выбрал себе самого здорового мужика, Оливера — 1.88 ростом, 115 кг весом.
Чуть позже начали вдвоём ходить к тренеру на персональные тренировки.
Из интересного: самый здоровый мужик в школе по ММА оказался инвестбанкиром, работающим в Сити.
Вот так Хайдеггер и Сократ в очередной раз оказались в нашем чате
В партнёры для отработки выбрал себе самого здорового мужика, Оливера — 1.88 ростом, 115 кг весом.
Чуть позже начали вдвоём ходить к тренеру на персональные тренировки.
Из интересного: самый здоровый мужик в школе по ММА оказался инвестбанкиром, работающим в Сити.
With a degree and then a master's in continental philosophy, my thesis was on Presocratic influence on Martin Heidegger's "Being and Time" – existentialism.
Вот так Хайдеггер и Сократ в очередной раз оказались в нашем чате
9😁227🔥61❤33👍17🎅5🎄4🗿4😱3
Сегодня провели первую ML Kata в рамках закрытия второго потока курса по МЛ Дизайну
- 6 команд по 3 человека
- 75 минут на решение одной задачи
- У всех одинаковый кейс: построить real-time fraud detection для PayFlow (100M транзакций/день)
- Структурированная канва с блоками: метрики, валидация, фичи, мониторинг, интеграция
Условия задачи:
* <200ms latency, 3000 TPS пиковая нагрузка
* 73 миллиарда записей за 2 года
* Жесткий дисбаланс классов (0.1% fraud)
* Метки приходят с задержкой 14 дней
* GDPR + требования к интерпретируемости
Что получилось: Три команды защитились, и каждая пришла к разному решению:
* Команда 1: консервативный подход с Random Forest и rule-based fallback
* Команда 2: фокус на temporal validation с окнами 12→15→17 месяцев
* Команда 3: Kafka + Spark Streaming с anomaly detection
Вывод: Даже с детальными подсказками и ограничениями команды находили разные trade-off’ы. Кто-то глубоко копал в валидацию, кто-то — в архитектуру, кто-то — в метрики.
Доработать:
- 75 минут (без жестких рельс) оказалось мало — никто не успел заполнить все блоки
- Команды забывали про системные метрики (latency, SLA)
- Нужно давать более жесткие рельсы, чтобы было легче сравнивать
- Закладывать больше времени
Что Вышло хорошо: Живое обсуждение после защит. Валидация, метрики, trade-off между количеством фичей и размером выборки
Планируем повторить, возможно, в формате стрима с переключением между комнатами, что-бы подглядывать, как команды работают в процессе, а затем сравнивать их решение и обсуждать вопросы со стороны
В целом, если найти спонсора, может получиться хороший соревновательный формат внутри корпораций/между корпорациями
- 6 команд по 3 человека
- 75 минут на решение одной задачи
- У всех одинаковый кейс: построить real-time fraud detection для PayFlow (100M транзакций/день)
- Структурированная канва с блоками: метрики, валидация, фичи, мониторинг, интеграция
Условия задачи:
* <200ms latency, 3000 TPS пиковая нагрузка
* 73 миллиарда записей за 2 года
* Жесткий дисбаланс классов (0.1% fraud)
* Метки приходят с задержкой 14 дней
* GDPR + требования к интерпретируемости
Что получилось: Три команды защитились, и каждая пришла к разному решению:
* Команда 1: консервативный подход с Random Forest и rule-based fallback
* Команда 2: фокус на temporal validation с окнами 12→15→17 месяцев
* Команда 3: Kafka + Spark Streaming с anomaly detection
Вывод: Даже с детальными подсказками и ограничениями команды находили разные trade-off’ы. Кто-то глубоко копал в валидацию, кто-то — в архитектуру, кто-то — в метрики.
Доработать:
- 75 минут (без жестких рельс) оказалось мало — никто не успел заполнить все блоки
- Команды забывали про системные метрики (latency, SLA)
- Нужно давать более жесткие рельсы, чтобы было легче сравнивать
- Закладывать больше времени
Что Вышло хорошо: Живое обсуждение после защит. Валидация, метрики, trade-off между количеством фичей и размером выборки
Планируем повторить, возможно, в формате стрима с переключением между комнатами, что-бы подглядывать, как команды работают в процессе, а затем сравнивать их решение и обсуждать вопросы со стороны
В целом, если найти спонсора, может получиться хороший соревновательный формат внутри корпораций/между корпорациями
3🔥295❤71👍60💩3🎄2❤🔥1👏1👨💻1🤪1
Компания по производству газировки, в которую я инвестировал — Gunna — перешла под внешнее управление and have marked down the company's share price to £0
Жаль, конечно, 10 фунтов, но ещё больше жаль вечной скидки в 25% как инвестору; возможно, эта скидка их и подвела.
Вряд-ли же потому, что они перестали выпускать лимонад Muscovite, заменив медведя, на осла Miss Mojita
Жаль, конечно, 10 фунтов, но ещё больше жаль вечной скидки в 25% как инвестору; возможно, эта скидка их и подвела.
Вряд-ли же потому, что они перестали выпускать лимонад Muscovite, заменив медведя, на осла Miss Mojita
1😁225🤡17❤14🤣8💔6🎄4🤮1💯1🤗1
Не перестает удивлять и где-то даже шокировать отношение инженеров к своему труду и современным инструментам.
Случай из практики. Код на спарке месяц не может отработать, уходит в тайм-аут, поэтому перешли на недели.
Смотрю на код, вижу, что это мешанина адхоков на 700+ строк, которая явно не проходила через код-ассистент.
То есть, казалось, то, что точно должно сработать.
Прогоняю базовый скан — результат.
Expected Overall Speedup: 5-10x (conservative estimate)
Альтернатива:
# Minimal Patch: Replace NOT IN with LEFT ANTI JOIN
Expected Speedup: 3-5x on bottleneck queries
Time to Implement: 10 minutes
Risk Level: LOW
Пришлось ввести новое правило:
1) Если есть код, который явно не проходил проверку через ассистента и занимает много времени (а такое обычно легко определить), мы должны прогнать его через ассистента, чтобы переписать код, выявить и приоритизировать узкие места, а также оценить общий прирост скорости и прирост по каждому узкому месту.
2) Затем попросить ассистента разложить изменения по узким местам, внедрять их по одному и тестировать на:
a) воспроизводимость результата;
b) оптимизацию
Думаю пора вводить следующее правило:
Мыть руки перед едой
Случай из практики. Код на спарке месяц не может отработать, уходит в тайм-аут, поэтому перешли на недели.
Смотрю на код, вижу, что это мешанина адхоков на 700+ строк, которая явно не проходила через код-ассистент.
То есть, казалось, то, что точно должно сработать.
Прогоняю базовый скан — результат.
Expected Overall Speedup: 5-10x (conservative estimate)
Альтернатива:
# Minimal Patch: Replace NOT IN with LEFT ANTI JOIN
Expected Speedup: 3-5x on bottleneck queries
Time to Implement: 10 minutes
Risk Level: LOW
Пришлось ввести новое правило:
1) Если есть код, который явно не проходил проверку через ассистента и занимает много времени (а такое обычно легко определить), мы должны прогнать его через ассистента, чтобы переписать код, выявить и приоритизировать узкие места, а также оценить общий прирост скорости и прирост по каждому узкому месту.
2) Затем попросить ассистента разложить изменения по узким местам, внедрять их по одному и тестировать на:
a) воспроизводимость результата;
b) оптимизацию
Думаю пора вводить следующее правило:
Мыть руки перед едой
19😁386👍107❤39🔥8😭5✍3🤡3😐2🎄2
По следам предыдущего поста:
Prior to SQL optimisation - 108.238 minutes to complete
Post-optimisation - 14.322 minutes.
Prior to SQL optimisation - 108.238 minutes to complete
Post-optimisation - 14.322 minutes.
3🔥128🤡33😁32👏14❤8😱5😢2🎄1
MACHINE LEARNING — рекомендуем крупнейший обучающий канал про ИИ и машинное обучение.
С помощью понятных картинок и коротких видео авторы объсняют сложные концепции и учат работать с продвинутыми ИИ‑агентами и топовыми LLM-моделями.
А здесь мы собрали целую мл-папку.
🔝 А здесь мы собрали целый кладезь полезных ИИ ресурсов для прокачки навыков.
Подпишитесь, чтобы ничего не пропустить: t.me/ai_machinelearning_big_data
С помощью понятных картинок и коротких видео авторы объсняют сложные концепции и учат работать с продвинутыми ИИ‑агентами и топовыми LLM-моделями.
А здесь мы собрали целую мл-папку.
🔝 А здесь мы собрали целый кладезь полезных ИИ ресурсов для прокачки навыков.
Подпишитесь, чтобы ничего не пропустить: t.me/ai_machinelearning_big_data
4😁111👍71❤67🤡37🥴30💩8🔥7😭4
Забавно, что outage Cloudflare был из-за SQL.
X (formerly Twitter)
swyx 🇸🇬 (@swyx) on X
cloudflare outage was due to one bad SQL statement that baked in an assumption it shouldnt have
can you spot the bug here? no. because SQL does not Make Wrong Code Look Wrong.
sometimes i wonder how many SEVs, performance issues and privacy leaks happen…
can you spot the bug here? no. because SQL does not Make Wrong Code Look Wrong.
sometimes i wonder how many SEVs, performance issues and privacy leaks happen…
😁102😱8❤5🤡4👀3🗿3
Революционный стартап о думающих машинах выпустил ещё одну статью о том, как максимально эффективно обучать модель поменьше, используя знания из модели побольше.
Забавно, что Мира Мурати в первую очередь продакт (судя по опыту, но продукта что-то пока не видно.
On-Policy Distillation
В целом-то неплохо, на уровне аспирантов физтеха
Забавно, что Мира Мурати в первую очередь продакт (судя по опыту, но продукта что-то пока не видно.
On-Policy Distillation
В целом-то неплохо, на уровне аспирантов физтеха
Thinking Machines Lab
On-Policy Distillation
On-policy, dense supervision is a useful tool for distillation
1😁126👾11❤7💅7👻4🤡2
Мой любимый СТО Алексей Гусаков, который жмет от груди 195 кг, недавно занявший с командой Яндекса 3-е место на 1/4 ICPC вне конкурса) и товарищи собираются 11 декабря на ML Global Recap.
Онлайн и физически, чтобы обсудить свои и чужие выступления на NeurIPS, RecSys, ICLR и ряде других конференций, а с ними и текущие тренды в рекомендательных технологиях, компьютерном зрении, технологиях распознавания речи и NLP.
Онлайн и физически, чтобы обсудить свои и чужие выступления на NeurIPS, RecSys, ICLR и ряде других конференций, а с ними и текущие тренды в рекомендательных технологиях, компьютерном зрении, технологиях распознавания речи и NLP.
Yandex ML Global Recal'25
Встреча Яндекса для ML-сообщества 11 декабря 2025
2🤡142❤68🔥22💩14👍11👎4😁2💋2👏1
Forwarded from partially unsupervised
Классический ML был довольно творческой штукой. Придумать хитрую фичу из сырых данных, нашаманить нестандартную аугментацию, собрать гибрид из знакомых блоков. Нестандартные подходы часто вознаграждались.
С AI agents всё строго наоборот: нужно оставаться ближе к канону.
Да, при должно усердии можно заставить агента делать любые причуды. Хочешь промпты на сербохорватском? Пожалуйста. Свой формат tool calls? Не проблема, как-то будет работать. Но если Claude обучен на миллионах траекторий Claude Code, то каждое отклонение от их формата - это как плыть против течения. Можно, но зачем тратить ресурсы на адаптацию к причудам? You can't fightgravity gradient descent.
Потому, хоть и хочется иногда переизобрести велосипед, для большинства задач лучшая стратегия - разбираться, как устроены оригинальные scaffolding, читать рекомендации от провайдера и не выпендриваться.
С AI agents всё строго наоборот: нужно оставаться ближе к канону.
Да, при должно усердии можно заставить агента делать любые причуды. Хочешь промпты на сербохорватском? Пожалуйста. Свой формат tool calls? Не проблема, как-то будет работать. Но если Claude обучен на миллионах траекторий Claude Code, то каждое отклонение от их формата - это как плыть против течения. Можно, но зачем тратить ресурсы на адаптацию к причудам? You can't fight
Потому, хоть и хочется иногда переизобрести велосипед, для большинства задач лучшая стратегия - разбираться, как устроены оригинальные scaffolding, читать рекомендации от провайдера и не выпендриваться.
54❤135😢70💯26👍19🔥7😭5🫡5🥰4👎1😁1
7 лет назад я читал курс по прикладному машинному обучению совместно с топ-2 Каггла, Пашей Плесковым, в Иннополисе.
Там мы познакомились с классными ребятами из EORA, включая Рому Доронина, и Рома попросил меня выступить перед студентами (другими), рассказать про МЛ и Большие Данные.
В Иннополисе тех времен (возможно, и сейчас) был мем про тапочки. Каждому студенту выдавали теплые тапочки, корпуса были связаны переходами, и поэтому все ходили в тапочках.
Собственно, на эту встречу я и пришел в тапочках, рассказал, что хотел, а потом оказалось, что это записали и выложили на Ютуб.
Кто-то из комментаторов возмущался, что, мол, спикер как будто в тапочках спустился рассказать, не уважает зрителей на Ютубе!
В апреле этого года я снова увиделся с Ромой, как с родным, в Дубае. Рома встретил меня на Кадиллаке и отвёз в гости, где мы обсудили многое, в том числе их с Дороничевым (оцените дистанцию Левенштейна) стартап https://bioptic.io/.
А теперь Рома запустил канал — https://t.me/doronin_aiforfriends — присмотритесь.
Там мы познакомились с классными ребятами из EORA, включая Рому Доронина, и Рома попросил меня выступить перед студентами (другими), рассказать про МЛ и Большие Данные.
В Иннополисе тех времен (возможно, и сейчас) был мем про тапочки. Каждому студенту выдавали теплые тапочки, корпуса были связаны переходами, и поэтому все ходили в тапочках.
Собственно, на эту встречу я и пришел в тапочках, рассказал, что хотел, а потом оказалось, что это записали и выложили на Ютуб.
Кто-то из комментаторов возмущался, что, мол, спикер как будто в тапочках спустился рассказать, не уважает зрителей на Ютубе!
В апреле этого года я снова увиделся с Ромой, как с родным, в Дубае. Рома встретил меня на Кадиллаке и отвёз в гости, где мы обсудили многое, в том числе их с Дороничевым (оцените дистанцию Левенштейна) стартап https://bioptic.io/.
А теперь Рома запустил канал — https://t.me/doronin_aiforfriends — присмотритесь.
bioptic.io
BIOPTIC - AI Engine for Molecular Discovery
Anticipatory AI Intelligence for Pharma
❤116👍36🔥23😁20🥴11👎7🤡5🥰2👏1
Почти закончен перевод нашей книги на русский язык.
Уже доступен предзаказ, сама книга будет в продаже с 26 января.
Предзаказ - промокод на 35%
Уже доступен предзаказ, сама книга будет в продаже с 26 января.
Предзаказ - промокод на 35%
2👏220🔥133👍49❤29😱12😁5🎉5🌚2🏆2🕊1
Недавно обсуждали дизайн рекламной системы (реальной), и разговор зашёл о том, где и как хранить векторы для айтемов и пользователей. На моё утверждение, что можно всё хранить на одной машине, возразили, что будет примерно 100-200 млн векторов, которые нужно хранить постоянно (пользователей можно считать на лету). К счастью, я как раз недавно прочитал ScaNN (Scalable Nearest Neighbors) от Google Research.
У ScaNN два плюса:
1) Эффективная квантизация через кодовые книги (ну это у многих).
2) Сжатие не просто ради сжатия, а минимизация ошибки в первую очередь в направлении вектора; ошибка, уводящая вбок, менее страшна.
The innovation of ScaNN is Anisotropic Vector Quantization. It recognizes that not all geometric errors are created equal. An error "sideways" (orthogonal) hurts your search accuracy much less than an error "lengthwise" (parallel).
Если взять эмбеддинг OpenAI (Ada-002) размерностью 1536, он будет весить 6 КБ. 100 млн таких эмбеддингов будут весить 600 ГБ — многовато.
Если его сжать через CodeBook — стандартно в 64 субпространства code book — он будет весить 64 байта. 100 млн таких эмбеддингов будут весить 6 ГБ.
Задача решена.
#SystemDesign
У ScaNN два плюса:
1) Эффективная квантизация через кодовые книги (ну это у многих).
2) Сжатие не просто ради сжатия, а минимизация ошибки в первую очередь в направлении вектора; ошибка, уводящая вбок, менее страшна.
The innovation of ScaNN is Anisotropic Vector Quantization. It recognizes that not all geometric errors are created equal. An error "sideways" (orthogonal) hurts your search accuracy much less than an error "lengthwise" (parallel).
Если взять эмбеддинг OpenAI (Ada-002) размерностью 1536, он будет весить 6 КБ. 100 млн таких эмбеддингов будут весить 600 ГБ — многовато.
Если его сжать через CodeBook — стандартно в 64 субпространства code book — он будет весить 64 байта. 100 млн таких эмбеддингов будут весить 6 ГБ.
Задача решена.
#SystemDesign
research.google
Announcing ScaNN: Efficient Vector Similarity Search
Posted by Philip Sun, Software Engineer, Google Research Suppose one wants to search through a large dataset of literary works using queries that r...
2❤154👍80🔥40👏9🤔8💅7