Silicon Brain | جامعه هوش مصنوعی
7.11K subscribers
1.02K photos
117 videos
60 files
489 links
مغز سیلیکونی|جامعه هوش مصنوعی و یادگیری ماشین

گروه بحث و تبادل نظر:
https://t.me/+SWbgmMZt0XU0MGY0

مطالب و بحث های بیشتر در اینستاگرام:
https://www.instagram.com/silicon_brain/

ارتباط با ادمین:
@silicon_brain_admin
Download Telegram
هاگینگ فیس به زمینه یادگیری تقویتی نیز وارد شد!

هاگینگ فیس (huggingface.co) که در زمینه دیتاست و مدل های یادگیری مبتنی بر #ترنسفورمر فعال بود، حال بخشی به عنوان Spaces نیز اضافه کرده تا به حوزه #یادگیری_تقویتی_عمیق نیز وارد شود.

هدف از ایجاد این بخش دلایل زیر بیان شده است:
1. ساخت و به اشتراک گذاری محیط های سفارشی
2. میزبانی و نگه داری از مدل های ساخته شده
3. میزبانی از دموی ساخته شده محیط شبیه سازی و نمایش نتایج آن

لینک Spaces
#rl
@silicon_brain
مقایسه انواع واحد های پردازشی در یادگیری ماشین

#CPU #GPU #TPU #FPGA
@silicon_brain
انواع روش های محاسبه فاصله در یادگیری ماشین و علم داده
@silicon_brain
🟣سری دوازدهم از یادگیری ماشین در مورد بخش دوم الگوریتم #شبکه_عصبی

#یادگیری_ماشین
#machine_learning #neural_network
👍3
آموزش مفاهیم یادگیری عمیق با کتابخانه MiniTorch

کتابخانه ی #minitorch کتابخانه ای آموزشی برای مهندسین یادگیری ماشینی است که قصد دارند در مورد مفاهیم داخلی سیستم‌های یادگیری عمیق آموزش ببینند. در واقع minitorch پیاده‌سازی مجدد کتابخانه ی #pytorch فقط با پایتون است.

در نهایت minitorch میتواند کتابخانه نهایی Torch را اجرا کند. این پروژه برای دوره مهندسی یادگیری ماشین در Cornell Tech توسعه یافته است. که با گذراندن دوره از module0 تا module4 میتوانید به مرور مفاهیم داخلی سیستم یادگیری عمیق را درک کرده و پیاده سازی کنید.

منبع اصلی | گیتهاب

#deep_learning
@silicon_brain
👍2
Learning_Manifolds_from_Dynamic_Process_Data_21_January_2020.pdf
7.1 MB
مقاله ای در مورد یادگیری چندگانه از پردازش پویای داده

داده های علمی تولید شده توسط مدل های محاسبتی یا از آزمایش ها معمولا نتایج برهم کنش های غیر خطی بین چندین فرآیند پنهان هستند. چنین مجموعه های داده معمولا دارای ابعاد زیادی میباشند و نشان دهنده همبستگی زمانی قوی بین فرآیند هاست.

در این مقاله ، ابتدا نشان داده شده است که چرا روش هایی قدیمی مورد استفاده به هنگام مواجه با پردازش داده های پویا با شکست روبه رو میشوند و یک روش جدید به نام "ایرومپ آنتروپی" ارائه شده است.
ترجمه این #مقاله را میتوانید از بخش کامنت این پست دانلود کنید.
@silicon_brain
👍2
Silicon Brain | جامعه هوش مصنوعی
#درک_مفهوم #بیش_برازش #underfitting #overfitting فرض کنید شما برای یک امتحانِ آخرِ ترم در حال درس خواندن هستید. استاد هم به شما ۱۰۰ عدد نمونه سوال داده است تا با استفاده از آن‌ها بتوانید خود را برای امتحان آماده کنید. اگر شما طوری مطالعه کنید که فقط این…
روش های جلوگیری از بیش برازش (over fitting) :

1-استفاده از K-fold cross validation
2-استفاده از تکنیک های data augmentation
3-استفاده از feature selection
4-استفاده از regularization
5-توقف زود هنگام آموزش یا همان early stop
6-استفاده از تکنیکهای Ensemble learning
7-تقسیم درست داده های ترین و تست (hold out data)
8-استفاده از dropout
9-حذف لایه ها در مدل

#overfitting

در پست های بعدی در مورد هر کدوم از روش ها صحبت خواهیم کرد.
👍2
روش های شناسایی outlier ها:

1-با استفاده از انحراف معیار
2-با استفاده از نمودار جعبه ای
3-با استفاده از الگوریتم خوشه بندی DBScan
4-با استفاده از الگوریتم Isolation forest

در آینده در مورد هر یک از این روش ها صحبت میکنیم.
#outlier
👍1
میشه برای هر لایه مدل یادگیری نرخ یادگیری و بهینه ساز جداگانه‌ای قرار داد؟

در فریمورک #tensorflow و همینطور #keras شما میتونید نرخ یادگیری (#lr) و بهینه ساز (#optimizer) جداگانه‌ای برای هر لایه مدل بنویسید.

نحوه استفاده از این ساختار در تصویر بالا نشان داده شده‌است.
لینک داکیومنت

@silicon_brain