Forwarded from Omid
دلایلی که ممکنه شبکه #NN کار نکند و راه حل ها:
1.اندازه ترین دیتا رو کم کنید مثلا 20 تا بهش بدین ببینید چی خروجی میده... بعد کم کم اضافه کنید.
2. لیبل ها رو چک کنید ببینید کلا داده های ترین درست لیبل شده اند؟
3. با مدل های ساده تر شروع کنید و بعد مدل رو توسعه بدهید ( از مدلهای شناخته شده ساده استفاده کنید)
4. گزینه های regularization رو در ابتدای مدلسازی استفاده نکنید . ( بعد از اینکه کمی از مدل مطمئن شدید اینها رو برای افزایش دقت مدل استفاده کنید)
5. دیتا رو تصادفی به مدل بدهید.
6. میزان noise دیتای ورودی رو چک کنید
7. میزان عدم تعادل کلاس های لیبل ها رو در داده های ترین کم کنید. بعضی داده های اصطلاحا calss imbalance هستند
8. آیا داده های ترین شما کافی هستند؟ مثلا برای طبقه بندی تصاویر معمولا حدود 1000 تصویر برای هر کلاس نیاز دارید
9. بچ سایز های کوچک استفاده کنید
10. فیچر های خود را استاندارد کنید
11. خیلی از augumentation استفاده نکنید (مثل L2 , drop out)
12.اگر preprocessing روی داده ترین انجام داده اید همان ها رو هم برای داده های CV , TEST باید انجام دهید
13. تابع loss مدل خود رو چک کنید .
14. اگر می توانید یک بار میزان تابع loss را خودتان حساب کنید.
15. مقادیر ورودی به تابع loss رو کنترل کنید
16. میزان لایه های مدل را افزایش بدهید.
17. ابعاد لایه های پنهان را کنترل کنید
ادامه دارد...
#شبکه_عصبی
عضویت در گروه:
💹Deep Py R!
❇️@AI_Python
1.اندازه ترین دیتا رو کم کنید مثلا 20 تا بهش بدین ببینید چی خروجی میده... بعد کم کم اضافه کنید.
2. لیبل ها رو چک کنید ببینید کلا داده های ترین درست لیبل شده اند؟
3. با مدل های ساده تر شروع کنید و بعد مدل رو توسعه بدهید ( از مدلهای شناخته شده ساده استفاده کنید)
4. گزینه های regularization رو در ابتدای مدلسازی استفاده نکنید . ( بعد از اینکه کمی از مدل مطمئن شدید اینها رو برای افزایش دقت مدل استفاده کنید)
5. دیتا رو تصادفی به مدل بدهید.
6. میزان noise دیتای ورودی رو چک کنید
7. میزان عدم تعادل کلاس های لیبل ها رو در داده های ترین کم کنید. بعضی داده های اصطلاحا calss imbalance هستند
8. آیا داده های ترین شما کافی هستند؟ مثلا برای طبقه بندی تصاویر معمولا حدود 1000 تصویر برای هر کلاس نیاز دارید
9. بچ سایز های کوچک استفاده کنید
10. فیچر های خود را استاندارد کنید
11. خیلی از augumentation استفاده نکنید (مثل L2 , drop out)
12.اگر preprocessing روی داده ترین انجام داده اید همان ها رو هم برای داده های CV , TEST باید انجام دهید
13. تابع loss مدل خود رو چک کنید .
14. اگر می توانید یک بار میزان تابع loss را خودتان حساب کنید.
15. مقادیر ورودی به تابع loss رو کنترل کنید
16. میزان لایه های مدل را افزایش بدهید.
17. ابعاد لایه های پنهان را کنترل کنید
ادامه دارد...
#شبکه_عصبی
عضویت در گروه:
💹Deep Py R!
❇️@AI_Python
✔️ چگونه در تجارت ارز رمزنگاری با یادگیری ماشین سود کنیم
👈 لینک
#ارز_رمزنگاری
#یادگیری_ماشین
@AI_Python
👈 لینک
#ارز_رمزنگاری
#یادگیری_ماشین
@AI_Python
گروه ریاضی و رمزنگاری:
↪️ https://t.me/joinchat/HdXdAUv287poCj8cYQbbuw
گروه ارز دیجیتال:
↪️ https://t.me/joinchat/ClyM2ks_FYXoQKnkXoPCtg
#expert_family
❇️ @ai_python
↪️ https://t.me/joinchat/HdXdAUv287poCj8cYQbbuw
گروه ارز دیجیتال:
↪️ https://t.me/joinchat/ClyM2ks_FYXoQKnkXoPCtg
#expert_family
❇️ @ai_python
چگونه ۹۰ درصد مسایل NLP را حل کنیم؟ قدم به قدم همراه باشید
#پردازش_زبان_طبیعی
#یادگیری_ماشین
👈 لینک
❇️@AI_Python
#پردازش_زبان_طبیعی
#یادگیری_ماشین
👈 لینک
❇️@AI_Python
دکتر Yann LeCun مدیر هوش مصنوعی شرکت فیسبوک از Silicon Valley خواست تا برای پیشرفت و ارتباط دانشگاه و صنعت تعامل بیشتر باهم داشته باشند
#هوش_مصنوعی
👈 لینک
❇️@AI_Python
#هوش_مصنوعی
👈 لینک
❇️@AI_Python
✔️ 5 منبع پیاده سازی برای «واحد منطق محاسباتی عصبی»
#یادگیری_عمیق
#مقاله
👈 مقاله
👈 لینک کدها
❇️ @AI_Python
#یادگیری_عمیق
#مقاله
👈 مقاله
👈 لینک کدها
❇️ @AI_Python
✔️ آیا می خواهید تصمیمات منصفانه تری داشته باشید؟ از الگوریتم ها استفاده کنید.
#هوش_مصنوعی
👈 لینک
❇️ @AI_Python
#هوش_مصنوعی
👈 لینک
❇️ @AI_Python
✔️ معرفی کتابهایی که باید خوانده شوند
(۴ کتاب یادگیری عمیق به ۵ زبان دنیا! از دولوپر اصلی کراس)
#یادگیری_عمیق
#کتاب
❇️ @AI_Python
(۴ کتاب یادگیری عمیق به ۵ زبان دنیا! از دولوپر اصلی کراس)
#یادگیری_عمیق
#کتاب
❇️ @AI_Python
DLeX: AI Python
✔️ معرفی کتابهایی که باید خوانده شوند (۴ کتاب یادگیری عمیق به ۵ زبان دنیا! از دولوپر اصلی کراس) #یادگیری_عمیق #کتاب ❇️ @AI_Python
این بزرگوار Francois Chollet هستند. دولوپر اصلی کراس و همچنین محقق هوش مصنوعی گوگل.
گفتم معرفی کنم شاید برخی دوستان آشنایی نداشته باشند.
لینک مصاحبه با ایشان
❇️ @AI_Python
گفتم معرفی کنم شاید برخی دوستان آشنایی نداشته باشند.
لینک مصاحبه با ایشان
❇️ @AI_Python
DLeX: AI Python via @like
This media is not supported in your browser
VIEW IN TELEGRAM
عشق یعنی شادی
خودتان را متقاعد نکنید؛
که رنج کشیدن بخشی از آن است.
✍️ پائولو کوئلیو
#متفرقه
❇️ @AI_Python
خودتان را متقاعد نکنید؛
که رنج کشیدن بخشی از آن است.
✍️ پائولو کوئلیو
#متفرقه
❇️ @AI_Python
DLeX: AI Python
این بزرگوار Francois Chollet هستند. دولوپر اصلی کراس و همچنین محقق هوش مصنوعی گوگل. گفتم معرفی کنم شاید برخی دوستان آشنایی نداشته باشند. لینک مصاحبه با ایشان ❇️ @AI_Python
پ.ن. نام ایشان فرانسوا شوله است و ایشان توسعهدهنده چارچوب کراس برای یادگیری عمیق در پایتون هستند. بکوشیم زبان پارسی را پاس بداریم.💐💐💐