اخبار هوش مصنوعی
2.83K subscribers
672 photos
354 videos
1.01K files
1.36K links
Download Telegram
پیشرفت در زمینه بهینه ساز ها توسط متا

متا بهینه‌سازی بنام Schedule-free Optimizer معرفی کرده که مورد توجه قرار گرفته. خیلی‌ها درحال ارزیابیش هستن و فیدبک مثبت دادن. چه ویژگی مثبتی داره که ترند شده؟

عملکرد بهتری نسبت به بهینه‌سازهای رایج مثل #SGD و #Adam داره. شکل بالا رو ببینید. این بهینه‌ساز نسبت به بهینه‌ساز AdamW با تابع پله‌ای یا کسینوسی همگرایی سریع‌تری داره.

نیازی به تنظیم لرنینگ ریت (LR Scheduler) نداره. یعنی، دیگه نیازی نیست که #learning_rate رو حین آموزش تغییر بدید.

چطوری ازش استفاده کنیم؟ اول که نصب:
pip install schedulefree

بعدش هم می‌تونید از بهینه‌ساز مبتنی بر SGD یا AdamW استفاده کنید:
optimizer = schedulefree.AdamWScheduleFree(model.parameters(), lr=args.lr)

تو لینک زیر، اومدن یک شبکه CNN رو روی دیتاست MNIST با این بهینه‌ساز آموزش دادن که برای شروع کار باهاش و ارزیابی عملکردش میتونین استفاده کنین:
لینک کد | گیتهاب
#ScheduleFree
@silicon_brain | از هوش مصنوعی عقب نمانید