Интересное что-то
517 subscribers
2.72K photos
253 videos
138 files
4.52K links
Материалы и мысли, понадерганные отовсюду
Блог: https://t.me/asisakov_channel
Чат: https://t.me/youknowds_chat
Download Telegram
🤖 Как с помощью GPT я читаю и запоминаю посты из 100 Telegram каналов и не схожу с ума 🔥

Ребята, хочу рассказать как за новогодние я хакнул свое обучение. С Gemini (или СhatGPT) и NotebookLM я теперь читаю сотню Telegram-каналов за 2 часа в неделю и держу под рукой структурированные знания, которые постоянно обновляются.


Делюсь с вами лайфхаком по бусту чтения и запоминания тысяч постов из каналов, книг и курсов в 2025 🏄

Как мы с GPT читаем и запоминаем тысячи ранее опубликованных постов из Telegram-каналов

1️⃣ Через «Экспорт истории чатов» я выгрузил в HTML все посты из каналов, которые считаю интересными (список, ссылки и описание каналов, которые я читаю).

2️⃣ В Яндекс Браузере перевел HTML в PDF и загрузил их в NotebookLM (для работы из РФ понадобится VPN).

3️⃣ Задаю NotebookLM вопросы по интересующим темам, в ответах получаю в том числе ссылки на источники — посты в каналах. Если хочется разобраться глубже, то иду в Telegram и нахожу пост через поиск по цитате из ответа.

4️⃣ Вытягиваю нужные тексты из NotebookLM в свои доки по темам и дополняю личными знаниями. Так получается единое хранилище: мой опыт + знания от сотни авторов интересных мне каналов.

Фишки для буста моего обучения с NotebookLM

🔴Аудиоподкаст и голосовое общение с GPT. На основе загруженных постов NotebookLM создает подкаст с двумя ведущими, которые обсуждают заданную мной тему. Говорю с ними вслух, что помогает лучше усваивать материал, прокачивать язык и получать новые идеи.

🔴Проверка усвоения. С помощью специального промпта для GPT (пришлю его в коммент к посту) можно провести проверку моих знаний по добавленному материалу из постов. GPT создает тест, проверяет меня на ошибки, объясняет и подсказывает, о чём надо помнить, чтобы дать правильный ответ.

🔴Объединение знаний с собственными документами, топовыми книгами и курсами. В свои блокноты Notebook LM я также добавляю конспекты из книг, курсов и идеи из Telegram-каналов накладываются на фундаментальные знания. Итогом получается ещё более целостная картина.

Как мы с GPT еженедельно читаем и запоминаем сотни новых постов из Telegram-каналов

1️⃣ Я подключил @thecronicabot, который собирает новый контент из выбранных мной каналов в отдельный чат, чтобы не собирать все руками.

2️⃣ Каждую пятницу делаю «Экспорт историю чата» в новый HTML, загружаю его в GPT и через специальный промпт спрашиваю, что интересного появилось во всех каналах и по разным темам отдельно. В ответ GPT дает подборки и ссылки на посты для более глубокого изучения.

3️⃣Конвертирую HTML в PDF и добавляю его NotebookLM. Чтобы вся база из старых и новых постов оставалась в едином месте, я добавляю новые PDF-файлы в NotebookLM каждую неделю.

🔍 Подробный разбор и примеры для каждого упомянутого мной выше пункта — в моей статье на vc.ru.

💭 Уметь постоянно учиться — это отдельный скилл, с которым связан потенциал для развития каждого из нас. А этот потенциал всегда рассматривается при любых кадровых решениях и часто влияет на финальный выбор даже директоров крупных компаний.


Надеюсь, что мой пост поможет вам забустить скилы обучения. А 2025 будет для вас топовым, в том числе потому, что вы сможете еще быстрее прокачивать знания и навыки.

❤️ и 👍 - если пост полезен и вам интересно посмотреть все промпты, примеры по теме чтения и обучения с GPT
💬 - поделитесь опытом как справляетесь с объёмными постами, книгами и курсами. Какие у вас лайфхаки по быстрому чтению и запоминанию? Мне интересно 🙂

Мальцев: Карьера. Маркетинг. AI.
Please open Telegram to view this post
VIEW IN TELEGRAM
Закончилось соревнование Jane Street Real-Time Market Data Forecasting где надо было предсказывать не пойми что на не пойми каких фичах 🤷 Однако, какой-то гений из MIT отреверсинжинирил, что это не совсем не пойми чо, а простое скользящее среднее 20 подряд не пойми чего. Техника, которой он это сделал, интересная, мне понравилось. Никак мне не помогло, хотя я пару дней очень пытался из этого что-то выжать.

В соревновании был специфический для временных рядов способ принимать ответы - признаки, соответствующие последовательным моментам времени давались друг за другом и тебе не давали следующую порцию, пока не дал ответ к предыдущей. Временное ограничение - 1 минута. Но суммарный лимит 9ч, что приводит к тому, что надо давать ответы в среднем за 0.2сек. Раз в 968 шагов, что соответствует одному торговому дню, давали ответы за весь предыдущий день. Что давало интересные возможности, о которых ниже.

В последний день злодеи выкинули меня из золота паблика, хотя я тоже сделал свой лучший сабмит, исправив ошибки, как водится. Ну ничего, прайват будет настигать нас инкрементальными обновлениями аж до июля.

Я не придумал ни одной работающей идеи, но вот что мне помогло финишировать в топ-20:
1) Online learning. Нейронки отлично учатся на новых данных, самый лучший сетап - просто скормить им день как батч с низким lr. Деревья неожиданно тоже учатся и в итоговый ансамбль вошел lightgbm, для которого использовал метод refit для обновления. В среднем онлайн обучение давало маленький, но довольно надежный бонус к скору. Учится быстро (около 3 секунд суммарно на все мои модели раз за день)
2) Online ансамбль. Ну а почему бы и нет, раз уж мы модели можем дообучать, то и однослойный mlp с весами моделей в ансамбле тоже можем. Не смотря на метрику соревнования (weighted R2 ~ MSE) лучшим лоссом для ансамбля у меня был MAE.
3) TabM! Открытие ушедшего года, супер-модель, которая без всяких хитрых эмбеддингов, хотя она умеет и это, бьет на всех моих около-табличных бенчмарках все остальное, а кое-где и бусты. Без всяких наворотов, соло-модель на дефолтных фичах с онлайн обучением (и даже без) обгоняло лучший публичный ансамбль. Удивительно! Единственное что я сделал - странный лосс и отказ от использования категориальных фичей (с низкой кардинальностью). Использовал их как числа, отнормализовав в [0,1].
4) SWA спасение от стохастики в выборе гиперпараметра - сколько эпох учить. Вытягивает максимум за заданное число эпох
5) Валидация. Последние 120 дней, размером как паблик. Ну такое. Чем ближе к паблику, тем лучше бьются числа, но корреляция слабая. Однако! Лучшие гиперпараметры на валидации как-будто воспроизводят и лучший паблик. Использовал количество эпох для обучения как гиперпараметр и учил на полном датасете (включая бывшую валидацию)
6) Трансформер. Послабее чем TabM, но забустил скор в ансамбле. Нам дан не один ряд, а много рядов, соответствующих каким-то торговым тикерам. Крипта, фьючерсы или стоки - не так важно. Используем кросс-аттеншн чтобы спроецировать фичи с учетом других тикеров и на получившихся фичах гоняем RNN по времени. Трансформер по времени очень жруч по ресурсам, я даже не смог его довести до сабмита, а RNN позволяет сохранять стейт и применяться только к текущей порции данных. Возможно, тут я и проиграл и трансформер по времени был ключем для победы.
7) Хитрый лосс. MSE почему-то не коррелировал особо с R2. а вот MSE / var(y) коррелировал. Почти все модели обучены с ним.
8 ) Чего-то по мелочи, одна из моделей предсказывает вместо таргета целый ряд, на который сообразно реверс-инжинирингу накладываем лоссы из известных SMA. Не зашло, но чуть-чуть забустило ансамбль.

Смотрю на возможный шейкап позитивно, модель 6 обладает некоей сезонностью и паблик для нее плохое время, а потом (приват) должно быть хорошим 😂 Надеюсь, онлайн ансамбль вытянет. Паблик был намного стабильнее моей валидации, так что большого шейкапа не жду, буду удивлен, если он случится.
Forwarded from Data Blog
📈 Привет, друзья!

Сейчас работаю над обзором по explainable AI для мультимодальных моделей (задачка со звездочкой, не скажу, что закончу скоро, но стараюсь!)

Наткнулась на любопытную статью: Mapping the Mind of an Instruction-based Image Editing using SMILE.

Суть: товарищи представляют интерпретируемость на основе локальной модели — метод LIME на максималках — для построения тепловой карты влияния текстовых элементов на созданное изображение.

Что делают:
* Разбивают текстовую команду на ключевые слова.
* Генерируют изображения, изменяя команды, чтобы выявить влияние каждого слова.
* Создают визуальные тепловые карты (heatmaps), отображающие вес каждого слова в процессе редактирования изображения.

Фишка SMILE: вместо простого расстояния (например, косинусного, как у классического LIME) используют расстояние Васерштейна (и дотягивают к нему модель, обученную на извлечение признаков).

Что примечательно: LIME, в контексте XAI — пионер, он был предложен 2016 году, в статье ""Why Should I Trust You?" Explaining the Predictions of Any Classifier". Уникальность LIME — в качестве результата не коэффициенты влияния или графики, а суррогатная модель, объясняющая, как работает чёрный ящик.

С того времени LIME активно адаптировали: есть версии для временных рядов, графов, звука — карточки из статьи прикрепляю к посту. И вот мы дошли до генерации. Ну, красота.

На что хочу обратить внимание? Классические методы вроде LIME всё ещё мощный инструмент. Их потенциал огромный, особенно если адаптировать под задачи! Прямо рекомендую добавить их в свой XAI-инструментарий.

Меня это прям восхищает.

Не запланировано овладела большим количеством свободного времени и сейчас делаю ещё два материала. Первый — открытый (бесплатный) курс на степике по интерпретируемым моделям. Большой курс у меня уже есть (и он тоже растет), решила сделать поменьше)

Второй — обзорный курс на механистическую интерпретируемость. Тоже будет открытым.

Как только доделаю, будут ссылки! 😌

До встречи!
Ваш, Дата-автор!
Forwarded from Dealer.AI
RStaR - с лучших решений по нитке Small-LM на колпак рассуждения соберем.

Всех с началом нового рабочего года.

Daily top papers на huggingface за 8.01.2025 статья про то как бустануть рассуждения моделек на уровне бОльших конкурентов.

На самом деле, собрали все самое лучшее, что сработало воедино и нормально затюнили:

1. STaR концепт для просеивания/фильтрации лучших рассуждений. Упоминается Дядей тут.

2. Используется augmented-ToT. Похожий концепт мне рассказывал один kaggle GM в сореве по решению математических олимпиад. Суть в том,чтобы делать генерации рассуждений/решений задач в путон коде. Далее запускать такое и нерабочие имплементации забанить, попросив дебагнуть LMку. Топ-1 решение соревы тут.

3. Process preference model (PPM) в пику dpo и прочим rlhf работает на оценке предпочтения веток полученных с Q-values поиска по дереву из другой топовой статьи по ToT для решения мат.задач с MCTS. Пример расчета и формулы в этой статье.
На этих знаниях лучше или хуже развилка рассуждений учим pair ranking model. Забавно,что кому-то в 2023 году Дядя предлагал в nli формате делать контрастив поиск веток рассуждений.

4. Это self-evolution подходы для обучения. О похожих концептах Дядя писал тут и тут. Подобно spin или rest подходам хорошие стратегии возвращаются для самоулучшения в сет обучения, как хорошие примеры.

В итоге, авторы получили суп из рабочих хаков в той или иной задаче вокруг рассуждений и решений math problem. Получили жОский ап и влетели в топ по бенчам, догнав топовых конкурентов с большим размером моделей.
Forwarded from Dealer.AI
А теперь взгляните. У нас есть StAR, есть Q-values с MCTS на основе self-rewarding в состоянии ветки S, есть самоэволюция и все это не тот ли самый магический и легендарный Q-star? 🤔🤔🤔
Forwarded from Tensor Banana
Ускоряем Hunyuan video fast еще в 2 раза на винде

Есть оригинальный Hunyuan-video-13B, он работает за 20-30 шагов (20-30 минут на видео), а есть дистиллированный Hunyuan fast, который работает за 6-10 шагов. 6 шагов мне не нравятся, 10 выглядят намного лучше (10 минут на генерацию 1 видео в 720p, 2 секунды, 48 кадров).

Недавно вышел waveSpeed, который ускоряет flux, LTX и hunyuan в 1.5-2 раза в comfy на видюхах 3000 серии и новее с помощью двух технологий: first-block-cache и torch-model-compile+. На моей 3090 прирост скорости относительно Hunyuan fast - в 2 раза, до 4.6 минуты на 1 видео. Поддерживается воркфлоу от comfyanonymous. Воркфлоу от kijai пока не поддерживается.

Hunyuan из коробки умеет nsfw. Верх довольно неплохой, низ слегка зацензурен, но лучше, чем в дефолтном flux. Но умельцы уже наделели 100+ лор для Hunyuan на civitai для разных nsfw поз, движений, персонажей и стилей (в https://civitai.com/models ставим 2 фильтра: LoRA + Hunyuan video).

fast model, fp8: 
48 frames, 48s/it, 10 min, 19 GB vram, 39 GB RAM

fast model, sage-attention, first-block-cache:
48 frames, 25s/it, 5.6 min, 20 GB vram, 38 GB RAM

sage-attention, first-block-cache, compile+:
25 frames, 10s/it, 2.1 min, 18 GB vram, 29 GB RAM
48 frames, 22s/it, 4.7 min, 20 GB vram, 38 GB RAM
61 frames, 34s/it, 6.7 min
65 frames - OOM


Но compile+ ускоряет генерацию не всегда. Иногда torch compile занимает дополнительные 47 секунд. Перекомпилируется модель периодически, 1 раз в 2-3 генерации. Хз как побороть, скорее всего, vram мало, возможно, надо сделать меньше разрешение или количество кадров.

Предположу, что для работы Hunyuan хватит 32 GB RAM. У меня просто еще xtts+wav2lip в памяти висят. Если у вас в самом конце comfy вылетает без ошибок - снизьте разрешение или кол-во кадров.
Видел отзывы, что Hunyuan работает на 12 GB vram. Пока не тестил.


УСТАНОВКА

Нужен тритон и видюха 3000 серии или новее. 2000 серия nvidia не поддерживается. cuda toolkit 12.4+.
1. обновляем comfy через update_comfyui.bat

2. как установить тритон и sage-attention в комфи на винду:
https://www.reddit.com/r/StableDiffusion/comments/1h7hunp/how_to_run_hunyuanvideo_on_a_single_24gb_vram_card/
Первый шаг в этой инструкции пропускаем (установка нод kijai/ComfyUI-HunyuanVideoWrapper можно пропустить, мы будем использовать официальные ноды встроенные в комфи. Были отзывы, что в нодах от kijai пока не поддерживаются лоры при работе с first-block-cache). Выполняем пункты 2-4, включаем переводчик, если надо. Последние пункты 5-8 со скачиванием моделей не выполняем, мы скачаем другие, они меньше и быстрее.

3. Качаем clip_l.safetensors and llava_llama3_fp8_scaled и hunyuan_video_vae_bf16.safetensors: https://comfyanonymous.github.io/ComfyUI_examples/hunyuan_video/
Качаем hunyuan fast: https://huggingface.co/Kijai/HunyuanVideo_comfy/blob/main/hunyuan_video_FastVideo_720_fp8_e4m3fn.safetensors и кладем в diffusion_models

4. в run_nvidia_gpu.bat для запуска comfy надо добавить флаг --use-sage-attention вот так:
.\python_embeded\python.exe -s ComfyUI\main.py --windows-standalone-build --use-sage-attention

5. Устанавливаем custom node через comfyui manager -> install via GIT URL:
https://github.com/chengzeyi/Comfy-WaveSpeed

6. Hunyuan воркфлоу: https://github.com/Mozer/comfy_stuff/blob/main/workflows/hunyuan_fast_wave_speed_with_lora.json
Flux воркфлоу: https://github.com/Mozer/comfy_stuff/blob/main/workflows/flux_wave_speed.json

Советы:
- 1280x720, 720x1280, 544x960, 960x544 - рекомендуемые разрешения. В остальных могут быть артефакты.
- при малом количестве кадров анимация может работать хуже и с артефактами, рекомендую 25 и 49 кадров (1 и 2 сек)
- img2video пока нет, но разрабы обещают. Есть video2video и IPadapter2video от kijai.


- FLUX dev (bonus) -
1024x1024 20 steps

FLUX - 1.26s/it, 26 s.
FBC - 1.21it/s, 17 s.
FBC + compile+ - 1.20it/s, 17 s.

Прирост скорости во флаксе + waveSpeed составил 35%.

Во флаксе compile+ не работает на 3000 серии с flux-fp8, но работает с bf16, из-за этого прироста скорости не заметно. В hunyuan compile+ работает и дает прирост.
Forwarded from rafanalytics
Расширенный туториал по резюме на стажировку 🎓

Я уже писал краткий гайд про то, как составлять резюме на стажировку с шаблонами, но недавно Яндекс.Практикум любезно написал по этому полноценную статью (спасибо, Практикум 📖🖤)

В общем, если не читали тот пост, то рекомендую обратиться именно к этой статье, ну прям очень приятно расписали для будующих стажёров ☺️

А ещё надеюсь вы заметили, что посты начали выходять чаще (а не раз в месяц 🤡)
Скажу даже больше, я составил контент-план, который должен помочь мне постить регулярнее, поэтому обязательно оставляй реакцию ❤️ и новые посты не заставят себя ждать
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from эйай ньюз
Media is too big
VIEW IN TELEGRAM
Омни модель локально на айпаде

Вышла MiniCPM-o 2.6 - опенсорсная омни модель от китайцев из OpenBMB. По пониманию картинок, моделька, не смотря на свой скромный размер, обходит ранние версии GPT-4o.

За основу взяли Qwen2.5 7B, к которому приклеили Whisper и SigLip для обработки аудио и картинок на вход. Для синтеза речи используется ChatTTS-200M. У получившейся модели всего 8 миллиардов параметров, то есть квантизированную версию запустить можно практически где угодно.

Хоть и визуальные бенчи и понимание звука работают довольно хорошо, но разговаривает модель точно не на уровне 4о. Модель сносно говорит на английском (китайский проверить не смог) и может немного играться голосом, но про остальные языки можно забыть. На тасках посложнее, вроде пения, модель совсем сыпется. Но результаты, для такой весовой категории, всё равно отличные.

Это всё ещё одна из первых опенсорс омни моделей, тренировать их пока что не очень умеют. Но то же самое было и с VLM совсем недавно, а сейчас у нас есть сразу несколько хороших семейств моделей в совсем разных весовых категориях. Дальше будет только лучше.

Демо (русский немного понимает, но не разговаривает)
Веса

@ai_newz