آموزش دیتاساینس و ماشین‌لرنینگ
1.91K subscribers
161 photos
9 videos
134 links
🔴 آموزش مباحث حوزه دیتا شامل علم داده، یادگیری ماشین و تحلیل داده (رضا شکرزاد)

🌀 کانال اخبار و منابع هوش مصنوعی:
@DSLanders

🌀 مشاوره و ارتباط مستقیم:
https://t.me/dslanders_admin

یوتیوب:
Youtube.com/@RezaShokrzad

دوره‌ها:
cafetadris.com/datascience
Download Telegram
💡 معیارهای بررسی خطا در مدل‌های یادگیری ماشین

🔵 رگرسیون

🔵خطای میانگین مربعات (Mean Squared Error - MSE)
🔵خطای میانگین مطلق (Mean Absolute Error - MAE)
🔵ریشه میانگین مربعات خطا (Root Mean Squared Error - RMSE)
🔵خطای میانگین بایاس (Mean Bias Error - MBE)
🔵خطای هابر (Huber Loss - HL)

🔵 طبقه‌بندی باینری

🔵خطای لایکلی‌هود (Likelihood Loss - LHL)
🔵باینری کراس انتروپی (Binary Cross Entropy - BCE)
🔵خطای هیج و خطای هیج مربعی (Hinge Loss and Squared Hinge Loss - HL and SHL)

🔵 طبقه‌بندی چندگانه

🔵کراس انتروپی دسته‌ای (Categorical Cross Entropy - CCE)
🔵واگرایی کولبک-لیبلر (Kullback-Leibler Divergence - KLD)

#Evaluation_Metrics

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍3👌2👏1
👨‍🎓 ضریب تعیین یا R² Score

امتیاز R² یا ضریب تعیین، یک شاخص برای ارزیابی مدل‌های رگرسیونه که مشخص می‌کنه چه مقدار از تغییرات متغیر وابسته توسط متغیرهای مستقل در مدل توضیح داده می‌شه. این امتیاز بین 0 تا 1 قرار داره؛ عدد 1 نشون‌دهنده‌ی مدل بسیار دقیق و عدد 0 نشون‌دهنده‌ی مدلیه که نمی‌تونه تغییرات داده‌ها رو بیان کنه. به عبارت دیگه، R² نشون می‌ده که مدل تا چه حد خوب تونسته روابط خطی بین متغیرهای مستقل و وابسته رو توضیح بده.

🔵 فرمول نمره R²

🔵صورت کسر مجموع مربعات خطاهای رگرسیونی (Sum Squared Regression Error)، که به اختلاف بین مقادیر پیش‌بینی شده توسط مدل و مقادیر واقعی داده‌ها اشاره داره. این مقدار نشون دهنده میزان خطاییه که مدل در توضیح تغییرات متغیر وابسته ایجاد می‌کنه.

🔵مخرج کسر مجموع مربعات خطاهای کل (Sum Squared Total Error)، که به اختلاف بین مقادیر واقعی داده‌ها و میانگین مقادیر واقعی اشاره داره. این مقدار بیانگر کل واریانس داده‌هاست.

🔵 تفسیر خروجی R²

نمره R² بین 0 و 1 قرار می‌گیره:

🔵اگه R² نزدیک به 1 باشه، مدل بسیار خوب عمل کرده و بیشتر تغییرات در داده‌ها رو بیان می‌کنه. البته می‌تونه نشون دهنده بیش برازش هم باشه و به این نکته هم باید توجه کرد.

🔵اگه R² نزدیک به 0 باشه، مدل عملکرد ضعیفی داشته و واریانس داده‌ها رو به خوبی توضیح نمی‌ده.

برای مثال، اگر R² برابر 0.85 باشه، می‌تونیم بگیم که 85 درصد از تغییرات متغیر وابسته توسط مدل توضیح بیان شده.

🔵 محدودیت‌های نمره R²

🔵حساسیت به تعداد متغیرها: نمره R² با اضافه کردن متغیرهای بیشتر به مدل افزایش پیدا می‌کنه، حتی اگه اون متغیرها توضیح زیادی برای واریانس داده‌ها نداشته باشن. برای رفع این مشکل، از R² تعدیل‌شده (Adjusted R²) استفاده می‌شه که تعداد متغیرها رو هم در نظر می‌گیره.

🔵فقط برای روابط خطی: نمره R² تنها برای مدل‌های خطی مناسبه و نمی‌تونه به درستی عملکرد مدل‌های غیرخطی رو ارزیابی کنه.

🔵بی‌توجهی به برازش داده‌ها: نمره R² تنها واریانس توضیح داده شده رو اندازه‌گیری می‌کنه و توجهی به پراکندگی و الگوهای باقی‌مونده نداره. بنابراین، ممکنه مدل با نمره R² بالا هنوز داده‌ها رو به درستی پیش‌بینی نکنه.

#Evaluation_Metrics

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍2👏2👌1
🎞 برنامه‌ریزی برای یادگیری ماشین لرنینگ | معرفی پیش‌نیازها

توی این ویدئو با مرور استراتژی‌های یادگیری سریع و اصولی ماشین لرنینگ، پیش‌نیازهای ورود به این حوزه و برنامه‌ریزی لازم برای پیش بردن کار رو بیان کردیم.

🔺 پیش‌نیازهای یادگیری ماشین لرنینگ:

۱. ریاضی|جبر خطی (ماتریس، مشتق و گرادیان)
۲. آمار و احتمال (اصول شمارش،‌ احتمال و احتمال شرطی، متغیرهای تصادفی گسسته و پیوسته و توام، قضیه حد مرکزی و قانون اعداد بزرگ، آمار توصیفی، توزیع‌های نمونه‌ای، آزمون فرض، آنالیز واریانس، رگرسیون و انواع تست‌های آماری)
۳. برنامه نویسی (پایتون، SQL و R)
۴. دانش تخصصی بیزینس (مثلا مالی یا بایوشیمی یا هر رشته تخصصی که وارد هستید)
۵. ورژن کنترل‌ها (مثل گیت)
۶. تئوری‌های پایه ماشین لرنینگ
۷. پکیج‌های ضروری ماشین لرنینگ (Pandas ،Numpy)
۸. مفاهیم اساسی Cloud Computing و MLOps

  👈📎 برنامه‌ریزی برای یادگیری ماشین لرنینگ | معرفی پیش‌نیازها

🟢لینک کانال یوتیوب:

👉📎 https://youtube.com/@RezaShokrzad

#YouTube

@DSLanders | دی‌اس‌لندرز
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43🔥1👌1
👨‍🎓 ماتریس درهم ریختگی یا Confusion Matrix

ماتریس درهم ریختگی یا سردرگمی یک ابزار قدرتمند و پرکاربرد در ارزیابی عملکرد مدل‌های یادگیری ماشینه. این ماتریس کمک می‌کنه تا نحوه عملکرد مدل در تشخیص درست و نادرست نمونه‌ها مشخص شه و درنهایت نتیجه‌گیری شه که مدل چقدر دقیق عمل می‌کنه.

🔵 ماتریس سردرگمی یک جدول دو بعدیه که عملکرد یک مدل طبقه‌بندی رو نشون می‌ده. این ماتریس شامل چهار خانه است که هر خانه نشون‌دهنده یکی از نتایج ممکن مدله. این نتایج عبارتند از:

🔵مثبت صحیح (True Positive - TP): تعداد نمونه‌های مثبت واقعی که به درستی به عنوان مثبت پیش‌بینی شدن.

🔵منفی صحیح (True Negative - TN): تعداد نمونه‌های منفی واقعی که به درستی به عنوان منفی پیش‌بینی شدن.

🔵مثبت کاذب (False Positive - FP): تعداد نمونه‌های منفی واقعی که به اشتباه به عنوان مثبت پیش‌بینی شدن.

🔵منفی کاذب (False Negative - FN): تعداد نمونه‌های مثبت واقعی که به اشتباه به عنوان منفی پیش‌بینی شدن.

🔵حساسیت (Sensitivity) یا نرخ تشخیص صحیح: نسبت تعداد نمونه‌های مثبت صحیح به مجموع نمونه‌های مثبت واقعیه. این شاخص نشون می‌ده که مدل چقدر خوب تونسته نمونه‌های مثبت رو تشخیص بده. هرچه مقدار حساسیت بالاتر باشه، مدل در تشخیص نمونه‌های مثبت عملکرد بهتری داره.

🔵ویژگی (Specificity) یا نرخ منفی صحیح: نسبت تعداد نمونه‌های منفی صحیح به مجموع نمونه‌های منفی واقعیه. این شاخص نشون می‌ده که مدل چقدر خوب تونسته نمونه‌های منفی رو تشخیص بده. هرچه مقدار ویژگی بالاتر باشه، مدل در تشخیص نمونه‌های منفی عملکرد بهتری داره.

🔵دقت (Precision): دقت، نسبت تعداد نمونه‌های مثبت صحیح به مجموع نمونه‌های پیش‌بینی‌شده به عنوان مثبته. این شاخص نشون می‌ده که چه درصدی از پیش‌بینی‌های مثبت مدل درست بودن. دقت بالا نشون می‌ده که مدل کمتر نمونه‌های منفی رو به اشتباه به عنوان مثبت تشخیص داده.

🔵ارزش پیش‌بینی منفی (Negative Predictive Value): نسبت تعداد نمونه‌های منفی صحیح به مجموع نمونه‌های پیش‌بینی‌شده به عنوان منفیه. این شاخص نشون می‌ده که چه درصدی از پیش‌بینی‌های منفی مدل صحیح بودن. ارزش پیش‌بینی منفی بالا نشون می‌ده که مدل کمتر نمونه‌های مثبت رو به اشتباه به عنوان منفی تشخیص داده.

🔵دقت کلی (Accuracy): دقت کلی، نسبت مجموع تعداد نمونه‌های صحیح (مثبت صحیح و منفی صحیح) به مجموع کل نمونه‌هاست. این شاخص نشون می‌ده که مدل در کل چقدر درست عمل کرده. دقت کلی بالا نشون می‌ده که مدل در تشخیص صحیح نمونه‌ها (چه مثبت و چه منفی) عملکرد خوبی داشته.

استفاده درست از ماتریس سردرگمی و فهم صحیح شاخص‌های مختلفش به ساخت مدل‌های دقیق‌تر و کارآمدتر کمک می‌کنه.

#Evaluation_Metrics

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍5👏2👌1
کوییز شماره ۱۶۴: ماتریس سردرگمی در کدوم یک از سناریوهای زیر می‌تونه به‌طور خاص مهم‌تر از دقت کلی مدل باشه؟
Anonymous Quiz
18%
در مواردی که توزیع داده‌ها متوازنه.
15%
در مواردی که تشخیص نادرست هزینه زیادی نداره.
45%
در مواردی که داده‌های نامتوازن داریم.
21%
در مواردی که تعداد نمونه‌ها کمه.
5😎3👍2
👨‍🎓 معیار ROC / AUC

نمودار ROC (Receiver Operating Characteristic) و مساحت زیر آن AUC (Area Under the Curve) دو ابزار مهم در ارزیابی عملکرد مدل‌های یادگیری ماشین هستن. این ابزارها به خصوص در مدل‌های طبقه‌بندی (Classification) کاربرد دارن و به ما کمک می‌کنن تا بفهمیم مدل چقدر خوب تونسته دسته‌بندی کنه.

🔵 نمودار ROC توانایی یک مدل در تفکیک دسته‌های مثبت و منفی رو نشون می‌ده. این نمودار دو محور اصلی داره:

🔵محور افقی (False Positive Rate یا FPR): نرخ مثبت کاذب که نشون‌دهنده درصد داده‌های منفیه که به اشتباه به عنوان مثبت دسته‌بندی شدن.

🔵محور عمودی (True Positive Rate یا TPR): نرخ مثبت صحیح که نشون‌دهنده درصد داده‌های مثبته که به درستی به عنوان مثبت دسته‌بندی شدن.

🔵 معیار AUC مخفف Area Under the Curve به مساحت زیر منحنی ROC اشاره داره. مقدار AUC عددی بین ۰ و ۱ هست که نشون می‌ده مدل چقدر خوب تونسته طبقه‌بندی کنه. هر چه مقدار AUC به ۱ نزدیک‌تر باشه، مدل بهتر عمل کرده.

🔵 نحوه رسم نمودار ROC

برای رسم نمودار ROC، اول باید یک سری آستانه (Threshold) تعیین کرد. برای هر آستانه، نرخ‌های FPR و TPR محاسبه و بعد نقاط مربوط به هر آستانه روی نمودار رسم می‌شن. با اتصال این نقاط، منحنی ROC به دست میاد.

🔵 مزایا

🔵تفسیر ساده: منحنی ROC و مقدار AUC تفسیر ساده‌ای دارن و به راحتی عملکرد مدل رو نشون می‌دن.

🔵مقایسه مدل‌ها: با استفاده از AUC می‌شه به سادگی چند مدل مختلف رو با هم مقایسه کرد.

🔵پایداری در مقابل داده‌های نامتوازن: AUC نسبت به عدم تعادل کلاس‌ها (مثلاً وقتی تعداد داده‌های یک کلاس خیلی بیشتر از کلاس دیگه است) پایدارتره.

🔵 معایب و محدودیت‌ها

🔵اطلاعات ناقص: گاهی اوقات AUC اطلاعات کاملی درباره عملکرد مدل نمی‌ده و ممکنه نیاز باشه از متریک‌های دیگه هم استفاده شه.

🔵تفسیر اشتباه: گاهی اوقات تفسیر نمودار ROC و مقدار AUC سخته، به خصوص وقتی که مدل‌ها عملکرد مشابهی دارن.

#Evaluation_Metrics

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍54🔥2👌1
🧑‍🎓 نقشه‌راه یادگیری هوش مصنوعی از پایه در سال ۲۰۲۴

اگه شما یک دانشمند داده، مهندس یادگیری ماشین، پژوهشگر حوزه هوش مصنوعی یا فقط یک علاقه‌مند به AI هستین، این راهنما برای شماست. هر آنچه که نیازه درباره یادگیری هوش مصنوعی در سال ۲۰۲۴ بدونین، اینجا نوشته شده.

🟢برای مطالعه بیشتر کلیک کنین:
👉📎 http://ctdrs.ir/ds0259

#Artificial_Intelligence

@DSLanders | دی‌اس‌لندرز
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🔥3👏1
☀️ قرعه‌کشی ۵،۰۰۰،۰۰۰ اعتبار: کوله‌پشتی بهار رو با جایزه پر کن!

اگه به کلاس یا ویدئوی آموزشی کنکور ارشد یا دکتری، مشاوره یا آزمون نیاز دارین یا دوست دارین یه مهارت رو به‌صورت کامل یاد بگیرین، فرصت دارین علاوه بر استفاده از تخفیف‌های ویژه، در قرعه‌کشی ۵ کلاس رایگان ۱٫۰۰۰٫۰۰۰ تومانی شرکت کنین.

🎁 تا ۵۰ ٪ تخفیف
🎁 ۴۰,۰۰۰ تخفیف بیشتر

🎒 دیدن تخفیف‌ها و شرکت در جشنواره:

👉📎 https://ctdrs.ir/bahar

@cafetadris | کافه‌تدریس
Please open Telegram to view this post
VIEW IN TELEGRAM
👨‍🎓 ارزیابی خوشه‌بندی: روش‌های باناظر

معیارهای خوشه‌بندی نظارت شده برای ارزیابی کیفیت خوشه‌بندی با مقایسه خوشه‌ها با برچسب‌های واقعی استفاده می‌شن. در اینجا بعضی از معیارهای خوشه‌بندی نظارت شده رایج توضیح داده شدن:

شاخص تنظیم شده رند (Adjusted Rand Index - ARI): شاخص ARI میزان شباهت بین دو خوشه‌بندی رو اندازه‌گیری می‌کنه. این شاخص جفت‌های نمونه‌هایی رو که در خوشه‌های پیش‌بینی شده و واقعی به یک خوشه یا خوشه‌های مختلف اختصاص داده شدن، می‌شماره و نتایج رو برای شانس تصادفی تنظیم می‌کنه. ARI بین -1 تا 1 نوسان داره، که 1 نشون‌دهنده توافق کامل بین خوشه‌بندی‌ها و 0 نشون‌دهنده توافقی که به‌طور تصادفی به دست آمده، هست.

شاخص نرمال شده اطلاعات متقابل (Normalized Mutual Information - NMI):
شاخص NMI میزان اطلاعات مشترک بین دو خوشه‌بندی رو اندازه‌گیری می‌کنه. این شاخص مقدار اطلاعاتی که از یک خوشه‌بندی درباره خوشه‌بندی دیگه به دست میان رو نشون می‌ده و نتایج رو بین 0 (بدون اطلاعات مشترک) و 1 (اطلاعات کامل) نرمال‌سازی می‌کنه. NMI برای ارزیابی میزان همبستگی و وابستگی بین خوشه‌ها مفیده.

همگنی، کامل بودن، و اندازه V:

- همگنی (Homogeneity): شاخص همگنی اطمینان حاصل می‌کنه که هر خوشه تنها اعضای یک کلاس خاص رو در بر داره. اگه هر خوشه فقط شامل داده‌های یک دسته خاص باشه، خوشه‌بندی همگنه.

- کامل بودن (Completeness): شاخص کامل بودن اطمینان حاصل می‌کنه که همه اعضای یک کلاس خاص به یک خوشه واحد اختصاص داده شدن. اگه همه نمونه‌های یک کلاس در یک خوشه قرار بگیرن، خوشه‌بندی کامله.

- اندازه V (V-Measure): اندازه V میانگین هارمونیک همگنی و کامل بودنه. این شاخص تعادلی بین همگنی و کامل بودن برقرار می‌کنه و میزان کارایی خوشه‌بندی رو نشون می‌ده.

شاخص فولکس-مالوز (Fowlkes-Mallows Index - FMI):
شاخص FMI میانگین هندسی دقت و یادآوری جفت‌ نقاطی که با هم خوشه‌بندی شدن رو اندازه‌گیری می‌کنه. این شاخص بین 0 تا 1 نوسان داره، که 1 نشون‌دهنده خوشه‌بندی کامل و 0 نشون‌دهنده خوشه‌بندی ضعیفه. FMI به ارزیابی میزان شباهت بین خوشه‌های واقعی و پیش‌بینی شده کمک می‌کنه.

شاخص تنظیم شده اطلاعات متقابل (Adjusted Mutual Information - AMI):
شاخص AMI شبیه به NMI هست اما امتیاز اطلاعات متقابل رو برای شانس تنظیم می‌کنه. AMI میزان اطلاعات مشترک بین دو خوشه‌بندی رو اندازه‌گیری می‌کنه و نتایج رو برای تاثیرات شانس تصادفی تنظیم می‌کنه، که در نتیجه به ارائه ارزیابی دقیق‌تر کمک می‌کنه.

معیارهای مبتنی بر ماتریس درهم ریختگی (Confusion Matrix-Based Metrics):
این معیارها شامل دقت (Precision)، یادآوری (Recall) و امتیاز F1 هستن. این معیارها می‌تونن برای ارزیابی عملکرد خوشه‌بندی با در نظر گرفتن مسئله به عنوان یک مسئله طبقه‌بندی تطبیق داده شن. ماتریس آشفتگی توزیع نتایج پیش‌بینی شده رو در مقابل نتایج واقعی نشون می‌ده و به تحلیل دقیق‌تر عملکرد الگوریتم کمک می‌کنه.

این معیارها راهی برای ارزیابی کمی نتایج خوشه‌بندی با مقایسه آنها با مجموعه‌ای از برچسب‌های واقعی ارائه می‌دن و به تحلیل دقیق‌تر کیفیت خوشه‌بندی کمک می‌کنن.

#Evaluation_Metrics

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32🔥1👌1
👨‍🎓 ارزیابی خوشه‌بندی: روش‌های بدون ناظر

ارزیابی‌های خوشه‌بندی بدون نظارت، کیفیت خوشه‌بندی‌ها رو بدون نیاز به برچسب‌های واقعی یا از پیش تعیین‌شده بررسی می‌کنن.

🔵امتیاز سیلوئت (Silhouette): میزان شباهت یک شیء به خوشه خودش، در مقایسه با خوشه‌های دیگه اندازه‌گیری می‌کنه. از -۱ تا ۱ متغیره، که مقدار بالاتر نشون‌دهنده خوشه‌های بهتر تعریف‌ شده است.

🔵شاخص Davies-Bouldin: نسبت شباهت متوسط هر خوشه با خوشه‌ای که بیشترین شباهت رو با باهاش داره، ارزیابی می‌کنه. مقادیر پایین‌تر نشون‌دهنده خوشه‌بندی بهترن.

🔵شاخص Calinski-Harabasz (معیار نسبت واریانس): نسبت مجموع پراکندگی بین خوشه‌ها به پراکندگی داخل خوشه‌ها رو اندازه‌گیری می‌کنه. مقادیر بالاتر نشون‌دهنده خوشه‌بندی بهتره.

🔵شاخص Dunn: نسبت حداقل فاصله بین خوشه‌ای به حداکثر فاصله داخل خوشه‌ای رو اندازه‌گیری می‌کنه. مقادیر بالاتر نشون‌دهنده خوشه‌بندی بهتره.

🔵مجموع مربعات درون خوشه‌ای (WCSS): مجموع فاصله‌های هر نقطه با مرکز خوشه‌اش رو اندازه‌گیری می‌کنه. مقادیر پایین‌تر نشون‌دهنده خوشه‌های فشرده‌ترن.

🔵مجموع مربعات بین خوشه‌ای (BCSS): جداسازی بین خوشه‌های مختلف رو اندازه‌گیری می‌کنه. مقادیر بالاتر نشون‌دهنده جداسازی بهترن.

🔵آمار شکاف: مجموع تغییرات درون خوشه‌ای برای تعداد خوشه‌های مختلف رو با مقادیر مورد انتظارشون، تحت توزیع مرجع داده‌های بدون ساختار مقایسه می‌کنه.

🔵انسجام و جداسازی:
- انسجام: اندازه‌گیری می‌کنه که اعضای یک خوشه چقدر به هم نزدیک هستن.
- جداسازی: اندازه‌گیری می‌کنه که یک خوشه چقدر از خوشه‌های دیگه متمایز یا جداست.

🔵روش Elbow: به تعیین تعداد بهینه خوشه‌ها با رسم WCSS در برابر تعداد خوشه‌ها و جستجوی نقطه "آرنج" که در اون نرخ کاهش به طور قابل توجهی کند می‌شه، کمک می‌کنه.

#Evaluation_Metrics

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43👏2👌1
کوییز شماره ۱۶۷: کدوم شاخص ارزیابی خوشه‌بندی میزان فشردگی داخل خوشه‌ها رو اندازه‌گیری می‌کنه؟
Anonymous Quiz
14%
Gap Statistic
17%
Dunn Index
48%
WCSS
21%
Silhouette Index
🤔4👍32😎1
🧑‍🎓 الگوریتم R-CNN چیه و چه نقشی در بینایی ماشین داره؟

در دنیای پیچیده‌ی #یادگیری_عمیق و پردازش تصویر، مدل‌های مختلفی برای تشخیص و شناسایی اشیا در تصاویر توسعه پیدا کردن که اولین‌شون الگوریتم R-CNN هست. بعد از این مدل که دقت قابل قبولی هم داشت، مدل‌های Fast R-CNN و Faster R-CNN طراحی شدن تا نواقص R-CNN رو رفع کنن.

🟢برای مطالعه بیشتر کلیک کنین:
👉📎 http://ctdrs.ir/ds0261

#Deep_Learning

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍2🔥1👏1
پست‌های هفته‌ای که گذشت رو این‌جا پیدا کنین!

🔺 آموزشی

🔵بررسی معیارهای ارزیابی SSE ،MSE و SAE
📎 https://t.me/data_ml/587

🔵ضریب تعیین یا R² Score
📎 https://t.me/data_ml/590

🔵ماتریس درهم ریختگی یا Confusion Matrix
📎 https://t.me/data_ml/594

🔵معیار ROC / AUC
📎 https://t.me/data_ml/597

🔵ارزیابی خوشه‌بندی: روش‌های باناظر
📎 https://t.me/data_ml/601

🔵ارزیابی خوشه‌بندی: روش‌های بدون ناظر
📎 https://t.me/data_ml/603

🔺 کوئیز

🔵کوییز شماره ۱۶۲: انتخاب معیار محاسبه خطا برای یک مسئله
📎 https://t.me/data_ml/588

🔵کوییز شماره ۱۶۳: شرایط استفاده از ضریب تعیین
📎 https://t.me/data_ml/592

🔵کوییز شماره ۱۶۴: ماتریس سردرگمی و دقت مدل
📎 https://t.me/data_ml/595

🔵کوییز شماره ۱۶۵: تحلیل چند کلاسه و روش محاسبه AUC
📎 https://t.me/data_ml/598

🔵کوییز شماره ۱۶۶: چرا از ضریب رند تعدیل‌شده استفاده می‌شه؟
📎 https://t.me/data_ml/602

🔵کوییز شماره ۱۶۷: شاخص ارزیابی برای محاسبه میزان فشردگی داخل خوشه‌ها
📎 https://t.me/data_ml/604

🔺 نکته

🔵 معیارهای بررسی خطا در مدل‌های یادگیری ماشین
📎 https://t.me/data_ml/589

🔵برنامه‌ریزی برای یادگیری ماشین لرنینگ
📎 https://t.me/data_ml/593

🔵فهم ماتریس درهم ریختگی با رسم شکل
📎 https://t.me/data_ml/596

🔵نقشه‌راه یادگیری هوش مصنوعی از پایه در سال ۲۰۲۴
📎 https://t.me/data_ml/599

#Weekend
#Evaluation_Metrics

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍3👏2
👩‍🎓 برنامه آموزشی هفته: خوشه‌بندی یا Clustering

🟠شنبه: تعریف خوشه‌بندی

🔵یک‌شنبه: آشنایی با الگوریتم K-means

🟢دوشنبه: آشنایی با خوشه‌بندی سلسله‌مراتبی

🔴سه‌شنبه: آشنایی با الگوریتم DBSCAN

🟠چهارشنبه: شبکه‌های عصبی برای خوشه‌بندی

🔵پنج‌شنبه: معیارهای خوشه‌بندی

🟢جمعه: جمع بندی

#Clustering

@Data_ML | دیتاساینس و ماشین‌ لرنینگ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6👏3👌1