Machine Learning NLP + CV
286 subscribers
223 photos
53 videos
42 files
474 links
مطالب مفید در حوزه های یادگیری ماشین و بینایی کامپیوتر
Download Telegram
حتما این رشته توییت در مورد تعمیم‌پذیری و Flat Minima رو ببینید. بهینه‌ساز SGD ذاتا به دنبال flat minima می‌گرده و از این نظر generalization بهتری نسبت به بهینه‌ساز Adam داره. ولی دقیقا هم به flat minima نمی‌رسه. که خُب رویکردهای دیگری هم ارائه شد:
Two popular flat-minima optimization approaches are: 1. Stochastic Weight Averaging (SWA), and 2. Sharpness-Aware Minimization (SAM)

بهینه‌ساز SWA خیلی قدرتمند عمل کرده و به صورت رسمی در Pytorch نسخه 1.6 هم گنجونده شده...

#Generalization #Optimizer #Deep_Learning

@ml_nlp_cv