onlinebme
📺 دوره تخصصی پیاده سازی شبکههای عصبی در متلب مدرس: محمد نوری زاده چرلو فارغ التحصیل دانشگاه علم و صنعت تهران 3⃣جلسه سوم( بخش دوم ): انجام پروژه های عملی با استفاده از شبکه های عصبی #آدالاین #پرسپترون ، #پروژه_عملی، #ناحیهبندی_تصویر #مدلسازی_گیتهای_منطقی…
Media is too big
VIEW IN TELEGRAM
📺 دوره تخصصی پیاده سازی شبکههای عصبی در متلب
مدرس: محمد نوری زاده چرلو
فارغ التحصیل دانشگاه علم و صنعت تهران
4⃣ جلسه چهارم: پیادهسازی شبکه عصبی پرسپترون چندلایه با قانون یادگیری پس انتشار خطا در متلب
#پرسپترون_چندلایه ، #پس_انتشار_خطا #پروژه_عملی، #تشخیص_سرطان_سینه
#طبقهبندی
#کلاسبندی
#پیش_بینی_میزان_آلودگی_هوا
#رگرسیون
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
مدرس: محمد نوری زاده چرلو
فارغ التحصیل دانشگاه علم و صنعت تهران
4⃣ جلسه چهارم: پیادهسازی شبکه عصبی پرسپترون چندلایه با قانون یادگیری پس انتشار خطا در متلب
#پرسپترون_چندلایه ، #پس_انتشار_خطا #پروژه_عملی، #تشخیص_سرطان_سینه
#طبقهبندی
#کلاسبندی
#پیش_بینی_میزان_آلودگی_هوا
#رگرسیون
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
onlinebme
📺 دوره تخصصی پیاده سازی شبکههای عصبی در متلب مدرس: محمد نوری زاده چرلو فارغ التحصیل دانشگاه علم و صنعت تهران 4⃣ جلسه چهارم: پیادهسازی شبکه عصبی پرسپترون چندلایه با قانون یادگیری پس انتشار خطا در متلب #پرسپترون_چندلایه ، #پس_انتشار_خطا #پروژه_عملی، #…
📺 دوره تخصصی پیاده سازی شبکههای عصبی در متلب
مدرس: محمد نوری زاده چرلو
فارغ التحصیل دانشگاه علم و صنعت تهران
4⃣ جلسه چهارم: پیادهسازی شبکه عصبی #پرسپترون_چندلایه با قانون یادگیری #پس_انتشار_خطا در متلب
این جلسه مهمترین جلسه دوره تخصصی پیادهسازی شبکههای عصبی در متلب است. ما در جلسه سوم الگوریتم #LMS را مطرح کرده و در نهایت شبکهعصبی آدالاین را معرفی کردیم که یک شبکه عصبی بهینه برای مسائل کلاسبندی و رگرسیون است.این شبکه ایرادات شبکه عصبی پرسپترون تک لایه را برطرف کرد ولی خودش یک #ایراد اساسی دارد. که این ایراد در تمام شبکههای عصبی تک لایه وجود دارد. ایراد شبکه عصبی آدالاین و یا پرسپترون تک لایه در #ساختارشان هست و به خاطر اینکه #تک_لایه هستند نمی توانند مسائل #غیرخطی مثل xor را حل کنند. برای حل این مسئله شبکه عصبی پرسپترون چندلایه مطرح شده است که با اضافه کردن #چند_لایه_پنهان توانستهاند مسائل بسیار پیچیده را به راحتی حل کنند. در این جلسه تئوری الگوریتم پس انتشار خطا کامل توضیح داده میشود و در نهایت در متلب مرحله به مرحله پیادهسازی می شود. این جلسه برای همه گروه دانشجویی و مهندسی بسیار مفید هست و میتوانند بعد از مشاهده ویدیو هم #پروژههای_تخصصی خودشان را انجام دهند و هم ایدههای خود را در الگوریتم پس انتشار خطا ارائه بکنند. برای اینکه در این جلسه به مشکل نخورید بهتر است با #مشتقگیری آشنا باشید. جلسه کاملی هست و به جرات میتوان گفت که #اولین دورهای هست که به صورت تخصصی چنین شبکهای را به صورت گام به گام در متلب پیادهسازی میکند.
بعد از اینکه شبکه عصبی در متلب پیاده شد، #عملکرد_لایههای_مختلف شبکه با #مثال_عملی توضیح داده میشود تا به صورت دقیق و عملی با ساختار و عملکرد شبکههای عصبی چندلایه آشنا شوید و متوجه شوید که شبکههای عصبی چندلایه چطور یک مسئله پیچیده را با سادهسازی مسئله در لایههای مختلف حل می کنند. این جلسه، جلسه مورد علاقه من هست و تمام سعیم را کردم که به #زبان_ساده و در عین حال تخصصی و #جامع شبکه عصبی پرسپترون چندلایه و قانون یادگیری پس انتشار خطا را توضیح دهم و امیدوارم برای شما مفید باشد.
در انتهای دوره چندین پروژه عملی از جمله #تشخیص_سرطان_سینه (پروژه عملی #طبقهبندی) و #پیش_بینی_میزان_آلودگی_هوا (پروژه عملی #رگرسیون) با استفاده از شبکه عصبی پرسپترون چندلایه به صورت #گام_به_گام در متلب پیادهسازی شد تا با انجام پروژههای عملی هم آشنا شوید و بتوانید پروژههای تخصصی خودتان را با مشاهده این ویدیو انجام دهید.
نکته: تمام مباحث این جلسه طبق مطالب فصل 6 کتاب Simon haykin است.
➖➖➖➖➖➖➖➖➖➖➖
جهت خرید جلسه چهارم به لینک زیر مراجعه کنید👇👇👇
https://onlinebme.com/product/multilayer-perceptron-with-backpropagation-algorithm/
جهت تهیه کامل پکیج آموزشی شبکه عصبی به لینک زیر مراجعه کنید. 👇👇 👇👇
https://onlinebme.com/product/neural-networks-package/
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
مدرس: محمد نوری زاده چرلو
فارغ التحصیل دانشگاه علم و صنعت تهران
4⃣ جلسه چهارم: پیادهسازی شبکه عصبی #پرسپترون_چندلایه با قانون یادگیری #پس_انتشار_خطا در متلب
این جلسه مهمترین جلسه دوره تخصصی پیادهسازی شبکههای عصبی در متلب است. ما در جلسه سوم الگوریتم #LMS را مطرح کرده و در نهایت شبکهعصبی آدالاین را معرفی کردیم که یک شبکه عصبی بهینه برای مسائل کلاسبندی و رگرسیون است.این شبکه ایرادات شبکه عصبی پرسپترون تک لایه را برطرف کرد ولی خودش یک #ایراد اساسی دارد. که این ایراد در تمام شبکههای عصبی تک لایه وجود دارد. ایراد شبکه عصبی آدالاین و یا پرسپترون تک لایه در #ساختارشان هست و به خاطر اینکه #تک_لایه هستند نمی توانند مسائل #غیرخطی مثل xor را حل کنند. برای حل این مسئله شبکه عصبی پرسپترون چندلایه مطرح شده است که با اضافه کردن #چند_لایه_پنهان توانستهاند مسائل بسیار پیچیده را به راحتی حل کنند. در این جلسه تئوری الگوریتم پس انتشار خطا کامل توضیح داده میشود و در نهایت در متلب مرحله به مرحله پیادهسازی می شود. این جلسه برای همه گروه دانشجویی و مهندسی بسیار مفید هست و میتوانند بعد از مشاهده ویدیو هم #پروژههای_تخصصی خودشان را انجام دهند و هم ایدههای خود را در الگوریتم پس انتشار خطا ارائه بکنند. برای اینکه در این جلسه به مشکل نخورید بهتر است با #مشتقگیری آشنا باشید. جلسه کاملی هست و به جرات میتوان گفت که #اولین دورهای هست که به صورت تخصصی چنین شبکهای را به صورت گام به گام در متلب پیادهسازی میکند.
بعد از اینکه شبکه عصبی در متلب پیاده شد، #عملکرد_لایههای_مختلف شبکه با #مثال_عملی توضیح داده میشود تا به صورت دقیق و عملی با ساختار و عملکرد شبکههای عصبی چندلایه آشنا شوید و متوجه شوید که شبکههای عصبی چندلایه چطور یک مسئله پیچیده را با سادهسازی مسئله در لایههای مختلف حل می کنند. این جلسه، جلسه مورد علاقه من هست و تمام سعیم را کردم که به #زبان_ساده و در عین حال تخصصی و #جامع شبکه عصبی پرسپترون چندلایه و قانون یادگیری پس انتشار خطا را توضیح دهم و امیدوارم برای شما مفید باشد.
در انتهای دوره چندین پروژه عملی از جمله #تشخیص_سرطان_سینه (پروژه عملی #طبقهبندی) و #پیش_بینی_میزان_آلودگی_هوا (پروژه عملی #رگرسیون) با استفاده از شبکه عصبی پرسپترون چندلایه به صورت #گام_به_گام در متلب پیادهسازی شد تا با انجام پروژههای عملی هم آشنا شوید و بتوانید پروژههای تخصصی خودتان را با مشاهده این ویدیو انجام دهید.
نکته: تمام مباحث این جلسه طبق مطالب فصل 6 کتاب Simon haykin است.
➖➖➖➖➖➖➖➖➖➖➖
جهت خرید جلسه چهارم به لینک زیر مراجعه کنید👇👇👇
https://onlinebme.com/product/multilayer-perceptron-with-backpropagation-algorithm/
جهت تهیه کامل پکیج آموزشی شبکه عصبی به لینک زیر مراجعه کنید. 👇👇 👇👇
https://onlinebme.com/product/neural-networks-package/
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
پرسپترون چندلایه (جلسه چهارم) - آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
ین جلسه مهمترین جلسه دوره تخصصی پیادهسازی شبکههای عصبی در متلب است. ما در جلسه سوم الگوریتم LMS را مطرح کرده و در نهایت شبکهعصبی آدالاین را معرفی کردیم که یک شبکه عصبی بهینه برای مسائل کلاسبندی و رگرسیون است.این شبکه ایرادات شبکه عصبی پرسپترون تک لایه…
onlinebme
📺 دوره تخصصی پیاده سازی شبکههای عصبی در متلب مدرس: محمد نوری زاده چرلو فارغ التحصیل دانشگاه علم و صنعت تهران 4⃣ جلسه چهارم: پیادهسازی شبکه عصبی پرسپترون چندلایه با قانون یادگیری پس انتشار خطا در متلب #پرسپترون_چندلایه ، #پس_انتشار_خطا #پروژه_عملی، #…
Media is too big
VIEW IN TELEGRAM
📺 دوره تخصصی پیاده سازی شبکههای عصبی در متلب
مدرس: محمد نوری زاده چرلو
فارغ التحصیل دانشگاه علم و صنعت تهران
4⃣ جلسه چهارم: پیاده سازی گام به گام پروژه پیش بینی میزان آلودگی هوا با استفاده از شبکه عصبی پرسپترون چندلایه با قانون یادگیری پس انتشار خطا در متلب
#پرسپترون_چندلایه ، #پس_انتشار_خطا #پروژه_عملی،
#پیش_بینی_میزان_آلودگی_هوا
#رگرسیون
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
مدرس: محمد نوری زاده چرلو
فارغ التحصیل دانشگاه علم و صنعت تهران
4⃣ جلسه چهارم: پیاده سازی گام به گام پروژه پیش بینی میزان آلودگی هوا با استفاده از شبکه عصبی پرسپترون چندلایه با قانون یادگیری پس انتشار خطا در متلب
#پرسپترون_چندلایه ، #پس_انتشار_خطا #پروژه_عملی،
#پیش_بینی_میزان_آلودگی_هوا
#رگرسیون
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
onlinebme
📺 دوره تخصصی پیاده سازی شبکههای عصبی در متلب مدرس: محمد نوری زاده چرلو فارغ التحصیل دانشگاه علم و صنعت تهران 4⃣ جلسه چهارم: پیادهسازی شبکه عصبی پرسپترون چندلایه با قانون یادگیری پس انتشار خطا در متلب #پرسپترون_چندلایه ، #پس_انتشار_خطا #پروژه_عملی، #…
Media is too big
VIEW IN TELEGRAM
📺 دوره تخصصی پیاده سازی شبکههای عصبی در متلب
مدرس: محمد نوری زاده چرلو
فارغ التحصیل دانشگاه علم و صنعت تهران
5⃣ نحوه تعیین نرخ یادگیری در قانون یادگیری پس انتشار خطا (بخش اول)
#نرخ_یادگیری
#ثابت #متغیر_با_زمان
#search_then_converge
#پرسپترون_چندلایه ، #پس_انتشار_خطا #پروژه_عملی، #تشخیص_سرطان_سینه
#پیش_بینی_میزان_آلودگی_هوا
#رگرسیون
#طبقهبندی
#کلاسبندی
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
مدرس: محمد نوری زاده چرلو
فارغ التحصیل دانشگاه علم و صنعت تهران
5⃣ نحوه تعیین نرخ یادگیری در قانون یادگیری پس انتشار خطا (بخش اول)
#نرخ_یادگیری
#ثابت #متغیر_با_زمان
#search_then_converge
#پرسپترون_چندلایه ، #پس_انتشار_خطا #پروژه_عملی، #تشخیص_سرطان_سینه
#پیش_بینی_میزان_آلودگی_هوا
#رگرسیون
#طبقهبندی
#کلاسبندی
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
onlinebme
📺 دوره تخصصی پیاده سازی شبکههای عصبی در متلب مدرس: محمد نوری زاده چرلو فارغ التحصیل دانشگاه علم و صنعت تهران 7⃣ جلسه هفتم: پیادهسازی الگوریتم یادگیری #دلتا_بار_دلتا برای تعیین نرخ یادگیری در قانون یادگیری پس انتشار خطا (بخش سوم) #نرخ_یادگیری #دلتا_بار_دلتا…
📺 دوره تخصصی پیاده سازی شبکههای عصبی در متلب
مدرس: محمد نوری زاده چرلو
فارغ التحصیل دانشگاه علم و صنعت تهران
7⃣ جلسه هفتم: پیادهسازی الگوریتم یادگیری دلتا بار دلتا برای تعیین نرخ یادگیری در قانون یادگیری پس انتشار خطا (بخش سوم)
✍ در جلسه ششم شروط مورد نیاز جهت تعیین #نرخ_یادگیری بهینه را توضیح داده و سپس تئوری الگوریتم یادگیری #دلتا_دلتا را در متلب به صورت #گام_به_گام پیادهسازی کردیم. و ایرادات اساسی این الگوریتم را توضیح دادیم. در این الگوریتم با اینکه 4 شرط اساسی برای تعیین نرخ یادگیری گنجانده شده بود ولی مشکل اصلی این الگوریتم در نحوه #افزایش و #کاهش نرخ یادگیری است. برای اینکه نرخ یادگیری بهینه ای داشته باشیم لازم است که در جاهایی که #شیب_خطا در چند تکرار متوالی یکسان است نرخ یادگیری به صورت خطی و آهسته زیاد کنیم و از طرفی زمانی که علامت مشتق تابع هزینه در چندین تکرار متوالی متفاوت است لازم است که نرخ یادگیری سریع و به صورت #غیرخطی کم شود تا حالت نوسانی و ناپایدار پیش نیاید. الگوریتم دلتا دلتا همچنین قابلیتی ندارد و در نتیجه نرخ یادگیری بهینه که اساس یادگیری پس انتشار خطا است، را نمیتواند تعیین کند. الگوریتم دلتا بار دلتا برای حل این مسئله مطرح شده است که در این جلسه تئوری آن گفته شده و در متلب پیادهسازی می کنیم و در انتها برای اینکه با قابلیت این الگوریتم آشنا شوید و همچنین بتوانید از این الگوریتم در پروژههای عملی خودتان استفاده کنید چندین پروژه عملی از قبیل از جلمه #تشخیص_سرطان_سینه (پروژه عملی طبقهبندی) ، #پیش_بینی_میزان_آلودگی_هوا (پروژه عملی #رگرسیون) با استفاده از شبکه عصبی پرسپترون چندلایه انجام شده است و همچنین یک پروژه کلاسبندی #سه_کلاسه iris (#گل_زنبق) انجام شده است تا شما در انجام پروژه های چندکلاسه نیز مشکلی نداشته باشید. داده iris یک داده سه کلاسه معروفی است که آقای #فیشر(Fisher) معرفی کرده اند و یک داده مناسب برای #ارزیابی مدلهای #یادگیری_ماشین است. ما در این جلسه هر سه پروژه را به صورت مرحله به مرحله در متلب پیاده سازی میکنیم.
نکته: تمام مباحث این جلسه طبق مطالب فصل 6 کتاب Simon haykin است.
➖➖➖➖➖➖➖➖➖➖➖
💡جهت تهیه کامل پکیج آموزشی شبکه عصبی به لینک زیر مراجعه کنید. 👇👇 👇👇
https://onlinebme.com/product/neural-networks-package/
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
مدرس: محمد نوری زاده چرلو
فارغ التحصیل دانشگاه علم و صنعت تهران
7⃣ جلسه هفتم: پیادهسازی الگوریتم یادگیری دلتا بار دلتا برای تعیین نرخ یادگیری در قانون یادگیری پس انتشار خطا (بخش سوم)
✍ در جلسه ششم شروط مورد نیاز جهت تعیین #نرخ_یادگیری بهینه را توضیح داده و سپس تئوری الگوریتم یادگیری #دلتا_دلتا را در متلب به صورت #گام_به_گام پیادهسازی کردیم. و ایرادات اساسی این الگوریتم را توضیح دادیم. در این الگوریتم با اینکه 4 شرط اساسی برای تعیین نرخ یادگیری گنجانده شده بود ولی مشکل اصلی این الگوریتم در نحوه #افزایش و #کاهش نرخ یادگیری است. برای اینکه نرخ یادگیری بهینه ای داشته باشیم لازم است که در جاهایی که #شیب_خطا در چند تکرار متوالی یکسان است نرخ یادگیری به صورت خطی و آهسته زیاد کنیم و از طرفی زمانی که علامت مشتق تابع هزینه در چندین تکرار متوالی متفاوت است لازم است که نرخ یادگیری سریع و به صورت #غیرخطی کم شود تا حالت نوسانی و ناپایدار پیش نیاید. الگوریتم دلتا دلتا همچنین قابلیتی ندارد و در نتیجه نرخ یادگیری بهینه که اساس یادگیری پس انتشار خطا است، را نمیتواند تعیین کند. الگوریتم دلتا بار دلتا برای حل این مسئله مطرح شده است که در این جلسه تئوری آن گفته شده و در متلب پیادهسازی می کنیم و در انتها برای اینکه با قابلیت این الگوریتم آشنا شوید و همچنین بتوانید از این الگوریتم در پروژههای عملی خودتان استفاده کنید چندین پروژه عملی از قبیل از جلمه #تشخیص_سرطان_سینه (پروژه عملی طبقهبندی) ، #پیش_بینی_میزان_آلودگی_هوا (پروژه عملی #رگرسیون) با استفاده از شبکه عصبی پرسپترون چندلایه انجام شده است و همچنین یک پروژه کلاسبندی #سه_کلاسه iris (#گل_زنبق) انجام شده است تا شما در انجام پروژه های چندکلاسه نیز مشکلی نداشته باشید. داده iris یک داده سه کلاسه معروفی است که آقای #فیشر(Fisher) معرفی کرده اند و یک داده مناسب برای #ارزیابی مدلهای #یادگیری_ماشین است. ما در این جلسه هر سه پروژه را به صورت مرحله به مرحله در متلب پیاده سازی میکنیم.
نکته: تمام مباحث این جلسه طبق مطالب فصل 6 کتاب Simon haykin است.
➖➖➖➖➖➖➖➖➖➖➖
💡جهت تهیه کامل پکیج آموزشی شبکه عصبی به لینک زیر مراجعه کنید. 👇👇 👇👇
https://onlinebme.com/product/neural-networks-package/
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
پکیج کامل پیادهسازی گام به گام شبکههای عصبی - آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
درس شبکه عصبی پایهی اصلی مباحث یادگیری ماشین و هوش مصنوعی است و هر دانشجوی مهندسی لازم است که در ابتدا با گذراندن این دوره وارد حوزه هوش مصنوعی و یادگیری ماشین شود. دوره های زیادی در کشور برگزار می شود ولی بیشتر این دوره ها تخصصی نیستند و یک سری ایراداتی…
onlinebme
📺 دوره تخصصی پیاده سازی شبکههای عصبی در متلب مدرس: محمد نوری زاده چرلو فارغ التحصیل دانشگاه علم و صنعت تهران 8⃣ جلسه هشتم: پیادهسازی الگوریتم شبکه عصبی توابع شعاعی پایه(#RBF) #مرکز #سیگما #قضیه_کاور #kmeans #پروژه_عملی #رگرسیون #طبقهبندی #کلاسبندی…
📺 دوره تخصصی پیاده سازی شبکههای عصبی در متلب
مدرس: محمد نوری زاده چرلو
فارغ التحصیل دانشگاه علم و صنعت تهران
8⃣ جلسه هشتم: پیادهسازی الگوریتم شبکه عصبی توابع شعاعی پایه(#RBF)
✍ ما تا جلسه هفتم تمام تمرکزمون برروی شبکه عصبی معروف پرسپترون بود و این جلسه شبکه عصبی توابع شعاعی پایه(radial basis function) را آموزش میدهیم. این شبکه یک شبکه عصبی 3 لایه است که ازیک لایه پنهان تشکیل شده است. از قضیه جالب #کاور برای حل مسائل پیچیده و غیرخطی استفاده میکند و کاربردهای زیادی در عمل دارد. شبکه عصبی rbf رویکرد متفاوتی نسبت به پرسپترون چندلایه دارد و با یک رویکرد بسیار ساده و جالب مسائل پیچیده را حل میکند. برخلاف mlp که در آن وزنهای سیناپسی تمام لایه ها باید محاسبه میشدند در این شبکه لایه ورودی به صورت #مستقیم و بدون اینکه #وزن_سیناپسی در بین دولایه باشد به لایه پنهان وصل شده است. نورونهای لایه پنهان این شبکه به عنوان یک #کرنل_غیرخطی (گوسیrbf) عمل میکنند و وظیفه #نگاشت داده از فضای #غیرخطی به فضای #خطی را برعهده دارند. هر یک از نورنهای لایه پنهان به یک #مرکز و #سیگمای بهینه نیاز دارند تا به درستی داده را نگاشت دهند، برای محاسبه مراکز و سیگمای مراکز چندین روش مثل الگوریتم خوشهبند #kmeans مطرح شده که طبق کتاب این روشها را توضیح داده و در متلب #پیادهسازی کرده و مزایا و معایب هر روش را با مثال عملی توضیح میدهیم. در این جلسه به صورت مختصر مفهوم #خوشهبندی توضیح داده شده و سپس عملکرد الگوریتم kmeans جهت تعیین مراکز را توضیح دادهایم. بعد از پیدا کردن مراکز و سیگماهای بهینه در این شبکه لازم است که وزنهای سیناپسی بین لایه پنهان و لایه خروجی نیز محاسبه شوند که برای محاسبه وزن سیناپسی بهینه سه روش #وینرهاف، #شبه_معکوس و #گرادیان_نزولی را توضیح داده و در متلب پیاده سازی کردهایم. و در انتها چندین مثال و پروژه عملی از قبیل جلمه #تشخیص_سرطان_سینه (پروژه عملی طبقهبندی) ، #پیش_بینی_میزان_آلودگی_هوا (پروژه عملی #رگرسیون) و #کلاسبندی داده سه کلاسه iris (#گل_زنبق) با استفاده از شبکه عصبی RBF انجام داده ایم که با کارایی این شبکه عصبی آشنا شده و بتوانید #پروژههای_عملی خودتان را با استفاده از این الگوریتم در متلب پیادهسازی کنید.
نکته: تمام مباحث این جلسه طبق مطالب فصل 7 کتاب Simon haykin است.
➖➖➖➖➖➖➖➖➖➖➖
💡 جهت خرید جلسه هشتم به لینک زیر مراجعه کنید👇👇👇
https://onlinebme.com/product/rbf/
💡جهت تهیه کامل پکیج آموزشی شبکه عصبی به لینک زیر مراجعه کنید. 👇👇 👇👇
https://onlinebme.com/product/neural-networks-package/
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
مدرس: محمد نوری زاده چرلو
فارغ التحصیل دانشگاه علم و صنعت تهران
8⃣ جلسه هشتم: پیادهسازی الگوریتم شبکه عصبی توابع شعاعی پایه(#RBF)
✍ ما تا جلسه هفتم تمام تمرکزمون برروی شبکه عصبی معروف پرسپترون بود و این جلسه شبکه عصبی توابع شعاعی پایه(radial basis function) را آموزش میدهیم. این شبکه یک شبکه عصبی 3 لایه است که ازیک لایه پنهان تشکیل شده است. از قضیه جالب #کاور برای حل مسائل پیچیده و غیرخطی استفاده میکند و کاربردهای زیادی در عمل دارد. شبکه عصبی rbf رویکرد متفاوتی نسبت به پرسپترون چندلایه دارد و با یک رویکرد بسیار ساده و جالب مسائل پیچیده را حل میکند. برخلاف mlp که در آن وزنهای سیناپسی تمام لایه ها باید محاسبه میشدند در این شبکه لایه ورودی به صورت #مستقیم و بدون اینکه #وزن_سیناپسی در بین دولایه باشد به لایه پنهان وصل شده است. نورونهای لایه پنهان این شبکه به عنوان یک #کرنل_غیرخطی (گوسیrbf) عمل میکنند و وظیفه #نگاشت داده از فضای #غیرخطی به فضای #خطی را برعهده دارند. هر یک از نورنهای لایه پنهان به یک #مرکز و #سیگمای بهینه نیاز دارند تا به درستی داده را نگاشت دهند، برای محاسبه مراکز و سیگمای مراکز چندین روش مثل الگوریتم خوشهبند #kmeans مطرح شده که طبق کتاب این روشها را توضیح داده و در متلب #پیادهسازی کرده و مزایا و معایب هر روش را با مثال عملی توضیح میدهیم. در این جلسه به صورت مختصر مفهوم #خوشهبندی توضیح داده شده و سپس عملکرد الگوریتم kmeans جهت تعیین مراکز را توضیح دادهایم. بعد از پیدا کردن مراکز و سیگماهای بهینه در این شبکه لازم است که وزنهای سیناپسی بین لایه پنهان و لایه خروجی نیز محاسبه شوند که برای محاسبه وزن سیناپسی بهینه سه روش #وینرهاف، #شبه_معکوس و #گرادیان_نزولی را توضیح داده و در متلب پیاده سازی کردهایم. و در انتها چندین مثال و پروژه عملی از قبیل جلمه #تشخیص_سرطان_سینه (پروژه عملی طبقهبندی) ، #پیش_بینی_میزان_آلودگی_هوا (پروژه عملی #رگرسیون) و #کلاسبندی داده سه کلاسه iris (#گل_زنبق) با استفاده از شبکه عصبی RBF انجام داده ایم که با کارایی این شبکه عصبی آشنا شده و بتوانید #پروژههای_عملی خودتان را با استفاده از این الگوریتم در متلب پیادهسازی کنید.
نکته: تمام مباحث این جلسه طبق مطالب فصل 7 کتاب Simon haykin است.
➖➖➖➖➖➖➖➖➖➖➖
💡 جهت خرید جلسه هشتم به لینک زیر مراجعه کنید👇👇👇
https://onlinebme.com/product/rbf/
💡جهت تهیه کامل پکیج آموزشی شبکه عصبی به لینک زیر مراجعه کنید. 👇👇 👇👇
https://onlinebme.com/product/neural-networks-package/
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
شبکه عصبی RBF(جلسه هشتم) - آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
ما تا جلسه هفتم تمام تمرکزمون برروی شبکه عصبی معروف پرسپترون بود و این جلسه شبکه عصبی توابع شعاعی پایه(radial basis function) را آموزش میدهیم. این شبکه یک شبکه عصبی 3 لایه است که از یک لایه پنهان تشکیل شده است. از قضیه جالب کاور برای حل مسائل پیچیده و غیرخطی…
onlinebme
📺 دوره تخصصی پیاده سازی شبکههای عصبی در متلب مدرس: محمد نوری زاده چرلو "فارغ التحصیل دانشگاه علم و صنعت تهران" 9⃣ جلسه نهم: پیادهسازی شبکه عصبی Extreme Learning Machine ( #ELM ) #پیادهسازی_مقاله #پروژه_عملی #رگرسیون #طبقهبندی #کلاسبندی #روشهای_ارزیابی…
📺 دوره تخصصی پیاده سازی شبکههای عصبی در متلب
مدرس: محمد نوری زاده چرلو
فارغ التحصیل دانشگاه علم و صنعت تهران
9⃣ جلسه نهم: پیادهسازی شبکه عصبی Extreme Learning Machine ( #ELM )
ما تا جلسه هشتم از مباحث #کتاب معروف Simon haykin استفاده کردیم و در دو جلسه آینده قصد داریم #پیادهسازی دو تا شبکه عصبی معروف #ELM و #PNN را طبق #مقالات_تخصصی آموزش دهیم تا با پیادهسازی مقالات تخصصی نیز آشنا شوید. شبکه عصبی #پرسپترون_چندلایه دو ایراد اساسی در زمان آموزش دارد: ایراد اول شبکه این است که از #گرادیان_نزولی برای تنظیم وزنها استفاده میکند و این باعث میشود که پروسه آموزش زمانبر باشد، مخصوصا زمانی که حجم داده آموزشی زیاد باشد! ایراد دوم این شبکه تعداد زیاد #پارامترها است. در این شبکه پارامترهای زیادی باید در پروسه آموزش تنظیم شوند و همین باعث میشود که زمان آموزش بسیار بالا باشد. شبکه عصبی ELM یک رویکرد بسیار سادهای و در عین حال جالب برای حل این مسئله ارائه کرده است و به همین دلیل #سرعت_یادگیری بسیار بالایی دارد و سرعت یادگیری آن در مقایسه با #MLP شاید بتواند گفت 1000 برابر و حتی بیشتر شده است. این شبکه ساختاری همانند #RBF دارد ولی کلا یک پارامتر در طول آموزش تنظیم میکند. برخلاف RBF که وزنهای سیناپسی بین لایه ورودی و لایه پنهان ثابت و مقدار یک بود، در این شبکه لایه ورودی با یک سری وزن به لایه پنهان وصل شده شده است، البته خوبی #ماجرا اینجا هست که در این شبکه به وزنها یک مقدار #تصادفی در همان ابتدا اختصاص میدهند و نیازی نیست در طول آموزش تنظیم شوند. نورونهای لایه پنهان یک نورون معمولی هستند و نیازی به پیدا کردن مراکز و سیگمای هر نورون نیست و در نهایت تنها پارامتر قابل تنظیم این شبکه وزنهای سیناپسی بین لایه پنهان و لایه خروجی است. ELM یک شبکه #رو_به_جلو هست و با استفاده از روش #شبه_معکوس وزنهای سیناپسی را در یک لحظه محاسبه میکند. و همین امر باعث شده سرعت یادگیری این شبکه #بسیار_بالا باشد. نکته جالب ماجرا اینجاست که عملکرد این الگوریتم بسیار بالاست و با اینکه تعداد پارامتر قابل تنظیم کمتری دارد ولی عملکرد بسیار خوبی در مقالات برای این الگوریتم گزارش شده است.
🔘 در این ویدیو ما تئوری یادگیری این شبکه را طبق مقاله #به_زبان_ساده توضیح داده و سپس به صورت #مرحله_به_مرحله در متلب پیادهسازی کردهایم. و در انتها برای اینکه با کارایی این مدل آشنا شوید چندین #پروژه_عملی از قبیل #تشخیص_سرطان_سینه (پروژه عملی طبقهبندی) ، #پیش_بینی_میزان_آلودگی_هوا (پروژه عملی رگرسیون) و کلاسبندی داده سه کلاسه iris ( #گل_زنبق ) با استفاده از شبکه عصبی ELM انجام دادهایم.
🔘 ما تا این جلسه برای #ارزیابی شبکههای عصبی از روش معمول (the hold out validation method) استفاده میکردیم که در آن یکبار داده به دو بخش #آموزش و #تست تقسیم شده و مدل یکبار آموزش و تست میشود. زمانی که تعداد داده کم باشد استفاده از این روش ارزیابی مناسب نیست و باید از روشهای استاندارد دیگری استفاده کنیم. ما در این جلسه #روشهای_ارزیابی
k-fold cross validation،
random subsampling
leave one out validation
را توضیح داده و سپس مرحله به مرحله در متلب پیاده سازی کردهایم و درنهایت پروژههای عملی را با استفاده از این روشها ارزیابی میکنیم تا با #ارزیابی_استاندارد یک مدل #یادگیری_ماشین آشنا شوید و در پروژه های خود استفاده کنید.
🔺نکته: مباحث این جلسه طبق مطالب مقاله پیوست میباشد.
➖➖➖➖➖➖➖➖➖➖➖
💡 جهت خرید جلسه نهم به لینک زیر مراجعه کنید👇👇👇
https://onlinebme.com/product/elm-neural-networks/
💡جهت تهیه کامل پکیج آموزشی شبکه عصبی به لینک زیر مراجعه کنید. 👇👇 👇👇
https://onlinebme.com/product/neural-networks-package/
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
مدرس: محمد نوری زاده چرلو
فارغ التحصیل دانشگاه علم و صنعت تهران
9⃣ جلسه نهم: پیادهسازی شبکه عصبی Extreme Learning Machine ( #ELM )
ما تا جلسه هشتم از مباحث #کتاب معروف Simon haykin استفاده کردیم و در دو جلسه آینده قصد داریم #پیادهسازی دو تا شبکه عصبی معروف #ELM و #PNN را طبق #مقالات_تخصصی آموزش دهیم تا با پیادهسازی مقالات تخصصی نیز آشنا شوید. شبکه عصبی #پرسپترون_چندلایه دو ایراد اساسی در زمان آموزش دارد: ایراد اول شبکه این است که از #گرادیان_نزولی برای تنظیم وزنها استفاده میکند و این باعث میشود که پروسه آموزش زمانبر باشد، مخصوصا زمانی که حجم داده آموزشی زیاد باشد! ایراد دوم این شبکه تعداد زیاد #پارامترها است. در این شبکه پارامترهای زیادی باید در پروسه آموزش تنظیم شوند و همین باعث میشود که زمان آموزش بسیار بالا باشد. شبکه عصبی ELM یک رویکرد بسیار سادهای و در عین حال جالب برای حل این مسئله ارائه کرده است و به همین دلیل #سرعت_یادگیری بسیار بالایی دارد و سرعت یادگیری آن در مقایسه با #MLP شاید بتواند گفت 1000 برابر و حتی بیشتر شده است. این شبکه ساختاری همانند #RBF دارد ولی کلا یک پارامتر در طول آموزش تنظیم میکند. برخلاف RBF که وزنهای سیناپسی بین لایه ورودی و لایه پنهان ثابت و مقدار یک بود، در این شبکه لایه ورودی با یک سری وزن به لایه پنهان وصل شده شده است، البته خوبی #ماجرا اینجا هست که در این شبکه به وزنها یک مقدار #تصادفی در همان ابتدا اختصاص میدهند و نیازی نیست در طول آموزش تنظیم شوند. نورونهای لایه پنهان یک نورون معمولی هستند و نیازی به پیدا کردن مراکز و سیگمای هر نورون نیست و در نهایت تنها پارامتر قابل تنظیم این شبکه وزنهای سیناپسی بین لایه پنهان و لایه خروجی است. ELM یک شبکه #رو_به_جلو هست و با استفاده از روش #شبه_معکوس وزنهای سیناپسی را در یک لحظه محاسبه میکند. و همین امر باعث شده سرعت یادگیری این شبکه #بسیار_بالا باشد. نکته جالب ماجرا اینجاست که عملکرد این الگوریتم بسیار بالاست و با اینکه تعداد پارامتر قابل تنظیم کمتری دارد ولی عملکرد بسیار خوبی در مقالات برای این الگوریتم گزارش شده است.
🔘 در این ویدیو ما تئوری یادگیری این شبکه را طبق مقاله #به_زبان_ساده توضیح داده و سپس به صورت #مرحله_به_مرحله در متلب پیادهسازی کردهایم. و در انتها برای اینکه با کارایی این مدل آشنا شوید چندین #پروژه_عملی از قبیل #تشخیص_سرطان_سینه (پروژه عملی طبقهبندی) ، #پیش_بینی_میزان_آلودگی_هوا (پروژه عملی رگرسیون) و کلاسبندی داده سه کلاسه iris ( #گل_زنبق ) با استفاده از شبکه عصبی ELM انجام دادهایم.
🔘 ما تا این جلسه برای #ارزیابی شبکههای عصبی از روش معمول (the hold out validation method) استفاده میکردیم که در آن یکبار داده به دو بخش #آموزش و #تست تقسیم شده و مدل یکبار آموزش و تست میشود. زمانی که تعداد داده کم باشد استفاده از این روش ارزیابی مناسب نیست و باید از روشهای استاندارد دیگری استفاده کنیم. ما در این جلسه #روشهای_ارزیابی
k-fold cross validation،
random subsampling
leave one out validation
را توضیح داده و سپس مرحله به مرحله در متلب پیاده سازی کردهایم و درنهایت پروژههای عملی را با استفاده از این روشها ارزیابی میکنیم تا با #ارزیابی_استاندارد یک مدل #یادگیری_ماشین آشنا شوید و در پروژه های خود استفاده کنید.
🔺نکته: مباحث این جلسه طبق مطالب مقاله پیوست میباشد.
➖➖➖➖➖➖➖➖➖➖➖
💡 جهت خرید جلسه نهم به لینک زیر مراجعه کنید👇👇👇
https://onlinebme.com/product/elm-neural-networks/
💡جهت تهیه کامل پکیج آموزشی شبکه عصبی به لینک زیر مراجعه کنید. 👇👇 👇👇
https://onlinebme.com/product/neural-networks-package/
🏢 آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
@onlinebme
آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
شبکه عصبی ELM (جلسه نهم) - آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی
ما تا جلسه هشتم از مباحث کتاب معروف Simon haykin استفاده کردیم و در دو جلسه آینده قصد داریم پیادهسازی دو تا شبکه عصبی معروف ELM و PNN را طبق مقالات تخصصی آموزش دهیم تا با پیادهسازی مقالات تخصصی نیز آشنا شوید. شبکه عصبی پرسپترون دو ایراد اساسی در زمان…