🟣سری دوازدهم از یادگیری ماشین در مورد بخش دوم الگوریتم #شبکه_عصبی
#یادگیری_ماشین
#machine_learning #neural_network
#یادگیری_ماشین
#machine_learning #neural_network
👍3
آموزش مفاهیم یادگیری عمیق با کتابخانه MiniTorch
کتابخانه ی #minitorch کتابخانه ای آموزشی برای مهندسین یادگیری ماشینی است که قصد دارند در مورد مفاهیم داخلی سیستمهای یادگیری عمیق آموزش ببینند. در واقع minitorch پیادهسازی مجدد کتابخانه ی #pytorch فقط با پایتون است.
در نهایت minitorch میتواند کتابخانه نهایی Torch را اجرا کند. این پروژه برای دوره مهندسی یادگیری ماشین در Cornell Tech توسعه یافته است. که با گذراندن دوره از module0 تا module4 میتوانید به مرور مفاهیم داخلی سیستم یادگیری عمیق را درک کرده و پیاده سازی کنید.
منبع اصلی | گیتهاب
#deep_learning
@silicon_brain
کتابخانه ی #minitorch کتابخانه ای آموزشی برای مهندسین یادگیری ماشینی است که قصد دارند در مورد مفاهیم داخلی سیستمهای یادگیری عمیق آموزش ببینند. در واقع minitorch پیادهسازی مجدد کتابخانه ی #pytorch فقط با پایتون است.
در نهایت minitorch میتواند کتابخانه نهایی Torch را اجرا کند. این پروژه برای دوره مهندسی یادگیری ماشین در Cornell Tech توسعه یافته است. که با گذراندن دوره از module0 تا module4 میتوانید به مرور مفاهیم داخلی سیستم یادگیری عمیق را درک کرده و پیاده سازی کنید.
منبع اصلی | گیتهاب
#deep_learning
@silicon_brain
👍2
Learning_Manifolds_from_Dynamic_Process_Data_21_January_2020.pdf
7.1 MB
مقاله ای در مورد یادگیری چندگانه از پردازش پویای داده
داده های علمی تولید شده توسط مدل های محاسبتی یا از آزمایش ها معمولا نتایج برهم کنش های غیر خطی بین چندین فرآیند پنهان هستند. چنین مجموعه های داده معمولا دارای ابعاد زیادی میباشند و نشان دهنده همبستگی زمانی قوی بین فرآیند هاست.
در این مقاله ، ابتدا نشان داده شده است که چرا روش هایی قدیمی مورد استفاده به هنگام مواجه با پردازش داده های پویا با شکست روبه رو میشوند و یک روش جدید به نام "ایرومپ آنتروپی" ارائه شده است.
ترجمه این #مقاله را میتوانید از بخش کامنت این پست دانلود کنید.
@silicon_brain
داده های علمی تولید شده توسط مدل های محاسبتی یا از آزمایش ها معمولا نتایج برهم کنش های غیر خطی بین چندین فرآیند پنهان هستند. چنین مجموعه های داده معمولا دارای ابعاد زیادی میباشند و نشان دهنده همبستگی زمانی قوی بین فرآیند هاست.
در این مقاله ، ابتدا نشان داده شده است که چرا روش هایی قدیمی مورد استفاده به هنگام مواجه با پردازش داده های پویا با شکست روبه رو میشوند و یک روش جدید به نام "ایرومپ آنتروپی" ارائه شده است.
ترجمه این #مقاله را میتوانید از بخش کامنت این پست دانلود کنید.
@silicon_brain
👍2
Silicon Brain | جامعه هوش مصنوعی
#درک_مفهوم #بیش_برازش #underfitting #overfitting فرض کنید شما برای یک امتحانِ آخرِ ترم در حال درس خواندن هستید. استاد هم به شما ۱۰۰ عدد نمونه سوال داده است تا با استفاده از آنها بتوانید خود را برای امتحان آماده کنید. اگر شما طوری مطالعه کنید که فقط این…
روش های جلوگیری از بیش برازش (over fitting) :
1-استفاده از K-fold cross validation
2-استفاده از تکنیک های data augmentation
3-استفاده از feature selection
4-استفاده از regularization
5-توقف زود هنگام آموزش یا همان early stop
6-استفاده از تکنیکهای Ensemble learning
7-تقسیم درست داده های ترین و تست (hold out data)
8-استفاده از dropout
9-حذف لایه ها در مدل
#overfitting
در پست های بعدی در مورد هر کدوم از روش ها صحبت خواهیم کرد.
1-استفاده از K-fold cross validation
2-استفاده از تکنیک های data augmentation
3-استفاده از feature selection
4-استفاده از regularization
5-توقف زود هنگام آموزش یا همان early stop
6-استفاده از تکنیکهای Ensemble learning
7-تقسیم درست داده های ترین و تست (hold out data)
8-استفاده از dropout
9-حذف لایه ها در مدل
#overfitting
در پست های بعدی در مورد هر کدوم از روش ها صحبت خواهیم کرد.
👍2
روش های شناسایی outlier ها:
1-با استفاده از انحراف معیار
2-با استفاده از نمودار جعبه ای
3-با استفاده از الگوریتم خوشه بندی DBScan
4-با استفاده از الگوریتم Isolation forest
در آینده در مورد هر یک از این روش ها صحبت میکنیم.
#outlier
1-با استفاده از انحراف معیار
2-با استفاده از نمودار جعبه ای
3-با استفاده از الگوریتم خوشه بندی DBScan
4-با استفاده از الگوریتم Isolation forest
در آینده در مورد هر یک از این روش ها صحبت میکنیم.
#outlier
👍1
میشه برای هر لایه مدل یادگیری نرخ یادگیری و بهینه ساز جداگانهای قرار داد؟
در فریمورک #tensorflow و همینطور #keras شما میتونید نرخ یادگیری (#lr) و بهینه ساز (#optimizer) جداگانهای برای هر لایه مدل بنویسید.
نحوه استفاده از این ساختار در تصویر بالا نشان داده شدهاست.
لینک داکیومنت
@silicon_brain
در فریمورک #tensorflow و همینطور #keras شما میتونید نرخ یادگیری (#lr) و بهینه ساز (#optimizer) جداگانهای برای هر لایه مدل بنویسید.
نحوه استفاده از این ساختار در تصویر بالا نشان داده شدهاست.
لینک داکیومنت
@silicon_brain
Silicon Brain | جامعه هوش مصنوعی
روش های جلوگیری از بیش برازش (over fitting) : 1-استفاده از K-fold cross validation 2-استفاده از تکنیک های data augmentation 3-استفاده از feature selection 4-استفاده از regularization 5-توقف زود هنگام آموزش یا همان early stop 6-استفاده از تکنیکهای Ensemble…
🔹روش K-fold cross validation برای جلوگیری از بیش برازش:
#overfitting
در روش K-fold cross validation داده ها به k قسمت تقسیم میشوند و مدل k بار train و test میشود.
در هر بار آموزش مدل با k-1 قسمت train میشود و با یک بخش باقیمانده اعتبار سنجی (validation) میشود و این روند در k تکرار ادامه دارد تا از تمام ظرفیت داده استفاده شود.
در واقع مدل با این روش با داده های زیادی آموزش میبیند و از بیش برازش پیشگیری میشود.
#overfitting
در روش K-fold cross validation داده ها به k قسمت تقسیم میشوند و مدل k بار train و test میشود.
در هر بار آموزش مدل با k-1 قسمت train میشود و با یک بخش باقیمانده اعتبار سنجی (validation) میشود و این روند در k تکرار ادامه دارد تا از تمام ظرفیت داده استفاده شود.
در واقع مدل با این روش با داده های زیادی آموزش میبیند و از بیش برازش پیشگیری میشود.
👍2
Silicon Brain | جامعه هوش مصنوعی
🔹روش K-fold cross validation برای جلوگیری از بیش برازش: #overfitting در روش K-fold cross validation داده ها به k قسمت تقسیم میشوند و مدل k بار train و test میشود. در هر بار آموزش مدل با k-1 قسمت train میشود و با یک بخش باقیمانده اعتبار سنجی (validation) میشود…
🔹روش data augmentation برای جلوگیری از بیش برازش:
#overfitting
#data_augmentation
تکنیک data augmentation هم با تولید داده های جدید و افزایش داده ها از بیش برازش جلوگیری میکنه.
از این تکنیک هم در متن و هم در تصویر استفاده میشه و چنتا از رایج ترین هاش میشه اشاره کرد به: ترجمه - چرخش - تغییر مقیاس - تغییر روشنایی - افزودن نویز و ...
این تکنیک با افزایش اندازه مجموعه داده به کاهش بیش از حد برازش کمک میکنه.
#overfitting
#data_augmentation
تکنیک data augmentation هم با تولید داده های جدید و افزایش داده ها از بیش برازش جلوگیری میکنه.
از این تکنیک هم در متن و هم در تصویر استفاده میشه و چنتا از رایج ترین هاش میشه اشاره کرد به: ترجمه - چرخش - تغییر مقیاس - تغییر روشنایی - افزودن نویز و ...
این تکنیک با افزایش اندازه مجموعه داده به کاهش بیش از حد برازش کمک میکنه.
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
مراحل باز شدن تلسکوپ جیمز وب در فضا.
این تلسکوپ به اندازه یک زمین تنیس بزرگه و نمیشد همین شکلی بفرستنش فضا.😅
به همین خاطر اینطوری جمع و جورش کردن فرستادنش و اونجا طی چند مرحله باز میشه.
این تلسکوپ به اندازه یک زمین تنیس بزرگه و نمیشد همین شکلی بفرستنش فضا.😅
به همین خاطر اینطوری جمع و جورش کردن فرستادنش و اونجا طی چند مرحله باز میشه.
👍1
مقدمه ای بر #یادگیری_تقویتی را در اینستاگرام سیلیکون برین، بخوانید:
https://www.instagram.com/silicon_brain/p/CYEmbvLIh6q/?utm_medium=copy_link
#rl
https://www.instagram.com/silicon_brain/p/CYEmbvLIh6q/?utm_medium=copy_link
#rl
تنظیم پارامتر های الگوریتم XGBoosting
اگر با الگوریتم جالب #XGBoosting کار کردید حتما میدونید که تنظیم پارامتر های ورودی این الگوریتم تاثیر بالایی در در عملکرد مدل دارد.
در این نمودار دو پارامتر Learning Rate و n_estimators بررسی شده اند. طبق نمودار نرخ یادگیری (#lr) مناسب برای این الگوریتم 0.01 است (خط قرمز) و در رفتار خط قرمز مشخص است که تا میزان 400 برای n_estimator خطای مدل در حال کاهش است اما بعد از این عدد تفاوت زیادی در کاهش خطای مدل یادگیری دیده نمیشود.
البته به این نکته باید دقت کرد که برای دیتا های مختلف این اعداد میتواند متفاوت باشد. اما برای یک دیتاست استاندار این اعداد به نظر مناسب هستند.
در مورد نرخ یادگیری بخوانید
@silicon_brain
اگر با الگوریتم جالب #XGBoosting کار کردید حتما میدونید که تنظیم پارامتر های ورودی این الگوریتم تاثیر بالایی در در عملکرد مدل دارد.
در این نمودار دو پارامتر Learning Rate و n_estimators بررسی شده اند. طبق نمودار نرخ یادگیری (#lr) مناسب برای این الگوریتم 0.01 است (خط قرمز) و در رفتار خط قرمز مشخص است که تا میزان 400 برای n_estimator خطای مدل در حال کاهش است اما بعد از این عدد تفاوت زیادی در کاهش خطای مدل یادگیری دیده نمیشود.
البته به این نکته باید دقت کرد که برای دیتا های مختلف این اعداد میتواند متفاوت باشد. اما برای یک دیتاست استاندار این اعداد به نظر مناسب هستند.
در مورد نرخ یادگیری بخوانید
@silicon_brain
❤3👍1
تشخیص ویدئوهای دیپ فیک ممکن است
ابزاری جدید به لطف تجزیه و تحلیل قرنیهها قادر به تشخیص و تفکیک فناوری #deep_fake از یک ویدئوی واقعی است. با این هوش مصنوعی احتمالا دیگر نگرانی های دیپ فیک فراموش شود.
همیشه گفته شده که چشمها آینه روح هستند و به نظر میرسد که این ضرب المثل دوباره اثبات شده، زیرا هوش مصنوعی قادر است یک ویدئوی واقعی را از یک ویدئوی دیپ فیک از طریق چشم متمایز کند.
اینکار از طریق تجزیه و تحلیل چشم انجام میشود.این ابزار که درآزمایشات خود ۹۴ درصد موفقیت آمیز بوده،از آنالیز قرنیه استفاده میکند.وقتی ویدئویی از خودمان ضبط میکنیم،چشمها هنگام دریافت نور خارجی میدرخشند.این هوش مصنوعی کشف کرده که این اثردقیقاً در فیلمهای دیپ فیک به این شکل اتفاق نمیافتد.
هشتگ #deep_fake را در کانال بررسی کنید.
@silicon_brain
ابزاری جدید به لطف تجزیه و تحلیل قرنیهها قادر به تشخیص و تفکیک فناوری #deep_fake از یک ویدئوی واقعی است. با این هوش مصنوعی احتمالا دیگر نگرانی های دیپ فیک فراموش شود.
همیشه گفته شده که چشمها آینه روح هستند و به نظر میرسد که این ضرب المثل دوباره اثبات شده، زیرا هوش مصنوعی قادر است یک ویدئوی واقعی را از یک ویدئوی دیپ فیک از طریق چشم متمایز کند.
اینکار از طریق تجزیه و تحلیل چشم انجام میشود.این ابزار که درآزمایشات خود ۹۴ درصد موفقیت آمیز بوده،از آنالیز قرنیه استفاده میکند.وقتی ویدئویی از خودمان ضبط میکنیم،چشمها هنگام دریافت نور خارجی میدرخشند.این هوش مصنوعی کشف کرده که این اثردقیقاً در فیلمهای دیپ فیک به این شکل اتفاق نمیافتد.
هشتگ #deep_fake را در کانال بررسی کنید.
@silicon_brain
👍3
This media is not supported in your browser
VIEW IN TELEGRAM
مکالمه جالب با ربات انسان نمای Ameca.
این ربات با تقلید انسان موجب نگرانی خیلی ها شده.
اینا چند سال بعد west world رو میسازن.😅
@silicon_brain
این ربات با تقلید انسان موجب نگرانی خیلی ها شده.
اینا چند سال بعد west world رو میسازن.😅
@silicon_brain
🤩7😱3🔥2❤1