неглубокое обучение
69 subscribers
9 photos
1 file
28 links
Download Telegram
а еще вот эту штуку, надо будет кстати попробовать ее
🚀🗄 FAST DATA LOADER IS ALL YOU NEED: Fast Forward Computer Vision

Тут студенты из MiT собрали быстрейший даталоадер!

Все что нужно, так это заменить
from torch.utils.data import DataLoader на from ffcv.loader import Loader, OrderOption, и далее по примеру из картинки поста.

Такой подход позволяет затренить родным PyTorch модель ResNet на ImageNet всего за 35 минуут (1$ на AWS)

📮 FFCV 💻 Git 📚 Docs
🔥2
https://torchmetrics.readthedocs.io/en/stable/
Подсчет метрик в торче
👍4
Как ускорить обучение вашей звуковой модельки в разы.

Обычно когда вы обучаете модельку для звука у вас много данных и вы в каждой эпохе для каждого батча достаете из обычной памяти нужные семплы, как то их предобрабатываете и дальше уже загоняете в модельку. Так вот, оказывается, в этом пайплайне есть ебейший ботлнек - подсчет мелспеки/мфсс. Чтоб убрать его достаточно 1 раз пройтись по всему датасету и к каждой вавке в пару к ней сделать файлик с предпосчитанной мелспекой/мфсс и при обучении считывать сразу его. Зато такой вот такой нехитрый метод ща спидапнул мне обучение на работе в 20 ебанных раз! Ну а еще я перестал жрать все ядра на машинке))) Сплошные плюсы.
P.S. Сначала я решил пожадничать и не делать для каждой вавки по файлу, а записать все в один, при инициализации датасета считывать его в оперативу и прям с ним работать. В теории такой подход должен работать быстрее. Но на практике я тыщу лет считывал этот файл в начале каждого эксперимента и это дико бесило. Ну и хранить много данных в оперативе тоже не лучшая идея. Learn from my mistakes)
👍7🔥1
https://openai.com/blog/whisper/
OpenAI обучили и опенсурснули ASR трансформер на 680к часах и он могет в мультиязычность
Осознал что метрика ранжирования MAP@K это MAPATK (для тех кто не в курсе админа этого паблика зовут Марат), это довольно тупо, но мне нравится! Буду как додик теперь считать ее своей любимой метрикой....
🔥7😁4
Или я жоска наебался🤔🤔🤔
Похоже на то, завтра попробую разобраться...
Да, действительно, инициализация одного слоя нулями не мешает обучению. Проблемы возникают при инициализации более одного слоя подряд нулями.
Я взял сверточную сетку, на которую накинул 2 линейных слоя с ReLU между ними.
1. Дефолтная торчовская инициализация
2. Инициализация двух слоев нулями
3. Инициализация только первого слоя нулями
4. Инициализация только второго слоя нулями
🤔3👍1
Подтверждая слова @Yar4ik000
1. Инициализация первого слоя нулями, но вместо релу взять сигмоиду (ключевое различие что в нуле релу выдает 0, а сигмоида 0.5).
2. Инициализация двух слоев нулями, но сигмоида вместо релу.
👍3
не повезло
😁12🤔1