سری دوم یادگیری ماشین در #بازار_مالی
#cross_validation #forward_chaining #window_sliding #time_series
@silcon_brain
#cross_validation #forward_chaining #window_sliding #time_series
@silcon_brain
👍3
هاگینگ فیس به زمینه یادگیری تقویتی نیز وارد شد!
هاگینگ فیس (huggingface.co) که در زمینه دیتاست و مدل های یادگیری مبتنی بر #ترنسفورمر فعال بود، حال بخشی به عنوان Spaces نیز اضافه کرده تا به حوزه #یادگیری_تقویتی_عمیق نیز وارد شود.
هدف از ایجاد این بخش دلایل زیر بیان شده است:
1. ساخت و به اشتراک گذاری محیط های سفارشی
2. میزبانی و نگه داری از مدل های ساخته شده
3. میزبانی از دموی ساخته شده محیط شبیه سازی و نمایش نتایج آن
لینک Spaces
#rl
@silicon_brain
هاگینگ فیس (huggingface.co) که در زمینه دیتاست و مدل های یادگیری مبتنی بر #ترنسفورمر فعال بود، حال بخشی به عنوان Spaces نیز اضافه کرده تا به حوزه #یادگیری_تقویتی_عمیق نیز وارد شود.
هدف از ایجاد این بخش دلایل زیر بیان شده است:
1. ساخت و به اشتراک گذاری محیط های سفارشی
2. میزبانی و نگه داری از مدل های ساخته شده
3. میزبانی از دموی ساخته شده محیط شبیه سازی و نمایش نتایج آن
لینک Spaces
#rl
@silicon_brain
انواع روش های محاسبه فاصله در یادگیری ماشین و علم داده
@silicon_brain
@silicon_brain
🟣سری دوازدهم از یادگیری ماشین در مورد بخش دوم الگوریتم #شبکه_عصبی
#یادگیری_ماشین
#machine_learning #neural_network
#یادگیری_ماشین
#machine_learning #neural_network
👍3
آموزش مفاهیم یادگیری عمیق با کتابخانه MiniTorch
کتابخانه ی #minitorch کتابخانه ای آموزشی برای مهندسین یادگیری ماشینی است که قصد دارند در مورد مفاهیم داخلی سیستمهای یادگیری عمیق آموزش ببینند. در واقع minitorch پیادهسازی مجدد کتابخانه ی #pytorch فقط با پایتون است.
در نهایت minitorch میتواند کتابخانه نهایی Torch را اجرا کند. این پروژه برای دوره مهندسی یادگیری ماشین در Cornell Tech توسعه یافته است. که با گذراندن دوره از module0 تا module4 میتوانید به مرور مفاهیم داخلی سیستم یادگیری عمیق را درک کرده و پیاده سازی کنید.
منبع اصلی | گیتهاب
#deep_learning
@silicon_brain
کتابخانه ی #minitorch کتابخانه ای آموزشی برای مهندسین یادگیری ماشینی است که قصد دارند در مورد مفاهیم داخلی سیستمهای یادگیری عمیق آموزش ببینند. در واقع minitorch پیادهسازی مجدد کتابخانه ی #pytorch فقط با پایتون است.
در نهایت minitorch میتواند کتابخانه نهایی Torch را اجرا کند. این پروژه برای دوره مهندسی یادگیری ماشین در Cornell Tech توسعه یافته است. که با گذراندن دوره از module0 تا module4 میتوانید به مرور مفاهیم داخلی سیستم یادگیری عمیق را درک کرده و پیاده سازی کنید.
منبع اصلی | گیتهاب
#deep_learning
@silicon_brain
👍2
Learning_Manifolds_from_Dynamic_Process_Data_21_January_2020.pdf
7.1 MB
مقاله ای در مورد یادگیری چندگانه از پردازش پویای داده
داده های علمی تولید شده توسط مدل های محاسبتی یا از آزمایش ها معمولا نتایج برهم کنش های غیر خطی بین چندین فرآیند پنهان هستند. چنین مجموعه های داده معمولا دارای ابعاد زیادی میباشند و نشان دهنده همبستگی زمانی قوی بین فرآیند هاست.
در این مقاله ، ابتدا نشان داده شده است که چرا روش هایی قدیمی مورد استفاده به هنگام مواجه با پردازش داده های پویا با شکست روبه رو میشوند و یک روش جدید به نام "ایرومپ آنتروپی" ارائه شده است.
ترجمه این #مقاله را میتوانید از بخش کامنت این پست دانلود کنید.
@silicon_brain
داده های علمی تولید شده توسط مدل های محاسبتی یا از آزمایش ها معمولا نتایج برهم کنش های غیر خطی بین چندین فرآیند پنهان هستند. چنین مجموعه های داده معمولا دارای ابعاد زیادی میباشند و نشان دهنده همبستگی زمانی قوی بین فرآیند هاست.
در این مقاله ، ابتدا نشان داده شده است که چرا روش هایی قدیمی مورد استفاده به هنگام مواجه با پردازش داده های پویا با شکست روبه رو میشوند و یک روش جدید به نام "ایرومپ آنتروپی" ارائه شده است.
ترجمه این #مقاله را میتوانید از بخش کامنت این پست دانلود کنید.
@silicon_brain
👍2
Silicon Brain | جامعه هوش مصنوعی
#درک_مفهوم #بیش_برازش #underfitting #overfitting فرض کنید شما برای یک امتحانِ آخرِ ترم در حال درس خواندن هستید. استاد هم به شما ۱۰۰ عدد نمونه سوال داده است تا با استفاده از آنها بتوانید خود را برای امتحان آماده کنید. اگر شما طوری مطالعه کنید که فقط این…
روش های جلوگیری از بیش برازش (over fitting) :
1-استفاده از K-fold cross validation
2-استفاده از تکنیک های data augmentation
3-استفاده از feature selection
4-استفاده از regularization
5-توقف زود هنگام آموزش یا همان early stop
6-استفاده از تکنیکهای Ensemble learning
7-تقسیم درست داده های ترین و تست (hold out data)
8-استفاده از dropout
9-حذف لایه ها در مدل
#overfitting
در پست های بعدی در مورد هر کدوم از روش ها صحبت خواهیم کرد.
1-استفاده از K-fold cross validation
2-استفاده از تکنیک های data augmentation
3-استفاده از feature selection
4-استفاده از regularization
5-توقف زود هنگام آموزش یا همان early stop
6-استفاده از تکنیکهای Ensemble learning
7-تقسیم درست داده های ترین و تست (hold out data)
8-استفاده از dropout
9-حذف لایه ها در مدل
#overfitting
در پست های بعدی در مورد هر کدوم از روش ها صحبت خواهیم کرد.
👍2
روش های شناسایی outlier ها:
1-با استفاده از انحراف معیار
2-با استفاده از نمودار جعبه ای
3-با استفاده از الگوریتم خوشه بندی DBScan
4-با استفاده از الگوریتم Isolation forest
در آینده در مورد هر یک از این روش ها صحبت میکنیم.
#outlier
1-با استفاده از انحراف معیار
2-با استفاده از نمودار جعبه ای
3-با استفاده از الگوریتم خوشه بندی DBScan
4-با استفاده از الگوریتم Isolation forest
در آینده در مورد هر یک از این روش ها صحبت میکنیم.
#outlier
👍1
میشه برای هر لایه مدل یادگیری نرخ یادگیری و بهینه ساز جداگانهای قرار داد؟
در فریمورک #tensorflow و همینطور #keras شما میتونید نرخ یادگیری (#lr) و بهینه ساز (#optimizer) جداگانهای برای هر لایه مدل بنویسید.
نحوه استفاده از این ساختار در تصویر بالا نشان داده شدهاست.
لینک داکیومنت
@silicon_brain
در فریمورک #tensorflow و همینطور #keras شما میتونید نرخ یادگیری (#lr) و بهینه ساز (#optimizer) جداگانهای برای هر لایه مدل بنویسید.
نحوه استفاده از این ساختار در تصویر بالا نشان داده شدهاست.
لینک داکیومنت
@silicon_brain