onlinebme
4.82K subscribers
1.48K photos
574 videos
346 files
700 links
آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
ارائه‌دهنده‌ی پکیجهای آموزشی پروژه محور:
برنامه‌نویسی متلب-پایتون
پردازش تصویر-سیگنالهای حیاتی
شناسایی الگو
یادگیری ماشین
شبکه‌های عصبی
واسط مغز-کامپیوتر

تماس👇
09360382687
@onlineBME_admin

www.onlinebme.com
Download Telegram
onlinebme
📺 دوره تخصصی پیاده سازی شبکه‌های عصبی در متلب مدرس: محمد نوری زاده چرلو "فارغ التحصیل دانشگاه علم و صنعت تهران" 9⃣ جلسه نهم: پیاده‌سازی شبکه عصبی Extreme Learning Machine ( #ELM ) #پیاده‌سازی_مقاله #پروژه_عملی #رگرسیون #طبقه‌بندی #کلاسبندی #روشهای_ارزیابی…
📺 دوره تخصصی پیاده سازی شبکه‌های عصبی در متلب
مدرس: محمد نوری زاده چرلو
فارغ التحصیل دانشگاه علم و صنعت تهران

9⃣ جلسه نهم: پیاده‌سازی شبکه عصبی Extreme Learning Machine ( #ELM )

ما تا جلسه هشتم از مباحث #کتاب معروف   Simon haykin استفاده کردیم و در دو جلسه آینده قصد داریم #پیاده‌سازی دو تا شبکه عصبی معروف #ELM و #PNN را طبق #مقالات_تخصصی آموزش دهیم تا با پیاده‌سازی مقالات تخصصی نیز آشنا شوید. شبکه عصبی #پرسپترون_چندلایه دو ایراد اساسی در زمان آموزش دارد: ایراد اول شبکه این است که از #گرادیان_نزولی برای تنظیم وزنها استفاده می‌کند و این باعث می‎شود که پروسه آموزش زمانبر باشد، مخصوصا زمانی که حجم داده آموزشی زیاد باشد! ایراد دوم این شبکه تعداد زیاد #پارامترها است. در این شبکه پارامترهای زیادی باید در پروسه آموزش تنظیم شوند و همین باعث می‌شود که زمان آموزش بسیار بالا باشد. شبکه عصبی ELM یک رویکرد بسیار ساده‌ای و در عین حال جالب برای حل این مسئله ارائه کرده است و به همین دلیل #سرعت_یادگیری بسیار بالایی دارد و سرعت یادگیری آن در مقایسه با #MLP شاید بتواند گفت 1000 برابر و حتی بیشتر شده است. این شبکه ساختاری همانند #RBF دارد ولی کلا یک پارامتر در طول آموزش تنظیم می‌‌کند. برخلاف RBF که وزنهای سیناپسی بین لایه ورودی و لایه پنهان ثابت و مقدار یک بود، در این شبکه لایه ورودی با یک سری وزن به لایه پنهان وصل شده شده است، البته خوبی #ماجرا اینجا هست که در این شبکه به وزنها یک مقدار #تصادفی در همان ابتدا اختصاص می‌دهند و نیازی نیست در طول آموزش تنظیم شوند. نورونهای لایه پنهان یک نورون معمولی هستند و نیازی به پیدا کردن مراکز و سیگمای هر نورون نیست و در نهایت تنها پارامتر قابل تنظیم این شبکه وزنهای سیناپسی بین لایه پنهان و لایه خروجی است. ELM یک شبکه #رو_به_جلو هست و با استفاده از روش #شبه_معکوس وزنهای سیناپسی را در یک لحظه محاسبه می‌کند. و همین امر باعث شده سرعت یادگیری این شبکه #بسیار_بالا باشد. نکته جالب ماجرا اینجاست که عملکرد این الگوریتم بسیار بالاست و با اینکه تعداد پارامتر قابل تنظیم کمتری دارد ولی عملکرد بسیار خوبی در مقالات برای این الگوریتم گزارش شده است.

🔘 در این ویدیو ما تئوری یادگیری این شبکه را طبق مقاله #به_زبان_ساده توضیح داده و سپس به صورت #مرحله_به_مرحله در متلب پیاده‌سازی کرده‌ایم. و در انتها برای اینکه با کارایی این مدل آشنا شوید چندین #پروژه_عملی از قبیل #تشخیص_سرطان_سینه (پروژه عملی طبقه‌بندی) ، #پیش_بینی_میزان_آلودگی_هوا (پروژه عملی رگرسیون) و کلاسبندی داده سه کلاسه iris ( #گل_زنبق ) با استفاده از شبکه عصبی ELM انجام داده‌ایم.

🔘 ما تا این جلسه برای #ارزیابی شبکه‌های عصبی از روش معمول (the hold out validation method) استفاده می‌کردیم که در آن یکبار داده به دو بخش #آموزش و #تست تقسیم شده و مدل یکبار آموزش و تست می‌شود. زمانی که تعداد داده کم باشد استفاده از این روش ارزیابی مناسب نیست و باید از روشهای استاندارد دیگری استفاده کنیم. ما در این جلسه #روشهای_ارزیابی 
k-fold cross validation، 
random subsampling 
leave one out validation 
را توضیح داده و سپس مرحله به مرحله در متلب پیاده سازی کرده‌ایم و درنهایت پروژه‌های عملی را با استفاده از این روشها ارزیابی می‌کنیم تا با #ارزیابی_استاندارد یک مدل #یادگیری_ماشین آشنا شوید و در پروژه های خود استفاده کنید.

🔺نکته: مباحث ‌این جلسه طبق مطالب مقاله پیوست می‌باشد.

 
💡 جهت خرید جلسه نهم به لینک زیر مراجعه کنید👇👇👇

https://onlinebme.com/product/elm-neural-networks/

💡جهت تهیه کامل پکیج آموزشی شبکه عصبی به لینک زیر مراجعه کنید. 👇👇 👇👇
https://onlinebme.com/product/neural-networks-package/

🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme