Spss
3.03K subscribers
821 photos
55 videos
368 files
622 links
ID ADmin
@ebrahim_farbod

🆕️متامتد-مرکز تحلیل داده فربد
Www.spss-pasw.ir

https://wa.me/message/DHMKCQMJFLHDA1
👆👆👆👆👆👆👆
ارتباط با ادمین برای مشاوره تحلیل آماری
Download Telegram
به لطف الهی محقق شد

#مقاله_ISI دکتر رضالطفی، دکتر منصور برزگر، پروفسور سادیا سمر علی، دکتر ابراهیم فربد، دکتر سینا آقاخانی، دکتر زهرا روشن میمندی

در ژورنال Engineering Reports با ایمپکت فاکتور 1.8 به چاپ رسید

Synergistic Closed-Loop Supply Chain Network Design by Considering Robustness, Risk: An Automotive Case Study

Reza Lotfi | Mansour Bazregar | Sadia Samar Ali | Ebrahim Farbod | Sina Aghakhani | Zahra Roshan Meymandi

Engineering Reports
Impact factor: 1.8

🌏 https://doi.org/10.1002/eng2.70010

🏠
100152831.pdf
8.4 MB
#مقاله_ISI دکتر رضالطفی، دکتر منصور برزگر، پروفسور سادیا سمر علی،

دکتر ابراهیم فربد، دکتر سینا آقاخانی، دکتر زهرا روشن میمندی

در ژورنال Engineering Reports با ایمپکت فاکتور 1.8 به چاپ رسید

Synergistic Closed-Loop Supply Chain Network Design by Considering Robustness, Risk: An Automotive Case Study

Reza Lotfi | Mansour Bazregar | Sadia Samar Ali | Ebrahim Farbod | Sina Aghakhani | Zahra Roshan Meymandi

Engineering Reports
Impact factor: 1.8

🌏 https://doi.org/10.1002/eng2.70010
تحلیل پوششی داده‌ها (Data Envelopment Analysis یا DEA) یک روش آماری و ریاضی است که برای ارزیابی کارایی واحدهای تصمیم‌گیری (DMUs) مانند سازمان‌ها، شرکت‌ها، بیمارستان‌ها و سایر نهادها استفاده می‌شود. این روش به خصوص در شرایطی که واحدهای تصمیم‌گیری با ورودی‌ها و خروجی‌های مختلفی مواجه هستند، کاربرد دارد.

▎ویژگی‌های کلیدی DEA:

1. ارزیابی کارایی: DEA به ارزیابی نسبت خروجی به ورودی می‌پردازد و توانایی واحدها در تبدیل ورودی‌ها به خروجی‌ها را اندازه‌گیری می‌کند.


2. عدم نیاز به توزیع خاص: یکی از مزایای DEA این است که نیازی به فرضیات مربوط به توزیع‌های خاص ندارد و می‌تواند با داده‌های واقعی کار کند.

3. تعیین مرز کارایی: DEA یک مرز کارایی ایجاد می‌کند که واحدهای کارا بر روی آن قرار دارند و واحدهای ناکارا در زیر این مرز قرار می‌گیرند.

4. تجزیه و تحلیل چندبعدی: DEA قادر است تا با بررسی همزمان چندین ورودی و خروجی، کارایی را در یک چارچوب چندبعدی تحلیل کند.

مراحل انجام DEA:

1. تعریف واحدهای تصمیم‌گیری (DMUs): شناسایی و انتخاب واحدهایی که قرار است مورد ارزیابی قرار گیرند.


2. جمع‌آوری داده‌ها: جمع‌آوری اطلاعات مربوط به ورودی‌ها و خروجی‌های هر واحد.

3. مدل‌سازی: انتخاب مدل مناسب DEA (مثل مدل CCR یا BCC) و محاسبه کارایی هر واحد.

4. تحلیل نتایج: بررسی نتایج به دست آمده، شناسایی واحدهای ناکارا و ارائه پیشنهادات برای بهبود.

کاربردها:

• ارزیابی عملکرد سازمان‌ها

• مقایسه بیمارستان‌ها یا مراکز درمانی

• تحلیل کارایی بانک‌ها و موسسات مالی

• بررسی عملکرد مدارس و دانشگاه‌ها

تحلیل پوششی داده‌ها به عنوان ابزاری قوی برای مدیران و پژوهشگران در جهت بهبود کارایی و بهره‌وری در سازمان‌ها شناخته می‌شود.
رگرسیون لجستیک باینری یک تکنیک آماری است که برای مدل‌سازی رابطه بین یک یا چند متغیر مستقل (پیش‌بینی‌کننده) و یک متغیر وابسته باینری (دو حالتی) استفاده می‌شود. به عبارت دیگر، این روش به ما کمک می‌کند تا احتمال وقوع یک رویداد خاص را پیش‌بینی کنیم، مثلاً پیش‌بینی اینکه آیا یک مشتری خرید خواهد کرد یا خیر، بر اساس ویژگی‌های مختلف او.
@spss23
ویژگی‌های اصلی رگرسیون لجستیک باینری:

1. متغیر وابسته باینری: متغیر وابسته در رگرسیون لجستیک باینری باید دو حالت داشته باشد، مانند "بله" و "خیر" یا "موفق" و "ناموفق".

2. تابع لجستیک: رگرسیون لجستیک از تابع لجستیک (یا سیگموئید) برای تبدیل پیش‌بینی‌های خطی به احتمال‌ها استفاده می‌کند. تابع لجستیک به شکل زیر است:

P(Y=1|X) = 1 / 1 + e⁽-(β₀ + β₁ X₁ + β₂ X₂ + ... + βₙ Xₙ)}


که در آن P(Y=1|X) احتمال وقوع رویداد است و β₀, β₁, …, βₙ پارامترهای مدل هستند.

3. تخمین پارامترها: پارامترهای مدل معمولاً با استفاده از روش حداکثر احتمال (Maximum Likelihood Estimation) تخمین زده می‌شوند.

4. تفسیر ضرایب: هر یک از ضرایب مدل نشان‌دهنده تغییر در لگاریتم نسبت شانس (log-odds) وقوع رویداد با تغییر یک واحد در متغیر مستقل مربوطه است.

5. ارزیابی مدل: برای ارزیابی عملکرد مدل می‌توان از معیارهایی مانند دقت، حساسیت، ویژگی، و منحنی ROC استفاده کرد.

کاربردها:

رگرسیون لجستیک باینری در زمینه‌های مختلفی کاربرد دارد، از جمله:

• پزشکی (پیش‌بینی ابتلا به بیماری)

• بازاریابی (پیش‌بینی خرید مشتریان)

• علوم اجتماعی (تحلیل رفتارهای اجتماعی)

در مجموع، رگرسیون لجستیک باینری ابزاری قدرتمند برای تحلیل داده‌های باینری و پیش‌بینی نتایج بر اساس ویژگی‌های مختلف است.
Spss
رگرسیون لجستیک باینری یک تکنیک آماری است که برای مدل‌سازی رابطه بین یک یا چند متغیر مستقل (پیش‌بینی‌کننده) و یک متغیر وابسته باینری (دو حالتی) استفاده می‌شود. به عبارت دیگر، این روش به ما کمک می‌کند تا احتمال وقوع یک رویداد خاص را پیش‌بینی کنیم، مثلاً پیش‌بینی…
برای اجرای رگرسیون لجستیک باینری در نرم‌افزار SPSS، مراحل زیر را دنبال کنید:

▎مراحل اجرای رگرسیون لجستیک باینری در SPSS:

1. آماده‌سازی داده‌ها:

• اطمینان حاصل کنید که داده‌های شما به درستی وارد SPSS شده‌اند و متغیر وابسته شما باینری (دو حالتی) است.

2. باز کردن پنجره تحلیل:

• از منوی بالای SPSS، به مسیر Analyze بروید.

• سپس گزینه Regression و بعد Binary Logistic... را انتخاب کنید.

3. انتخاب متغیرها:

• در پنجره‌ای که باز می‌شود، متغیر وابسته (باینری) خود را به قسمت "Dependent" اضافه کنید.

• متغیرهای مستقل (پیش‌بینی‌کننده‌ها) را به قسمت "Covariates" اضافه کنید.

4. تنظیمات اضافی (اختیاری):

• با کلیک بر روی دکمه Categorical... می‌توانید متغیرهای کیفی را مشخص کنید.

• با کلیک بر روی دکمه Options... می‌توانید تنظیمات اضافی مانند سطح اطمینان، خروجی‌ها و غیره را انتخاب کنید.

5. اجرا کردن تحلیل:

• پس از انتخاب متغیرها و تنظیمات مورد نظر، بر روی دکمه OK کلیک کنید تا تحلیل انجام شود.

6. بررسی نتایج:

• پس از اجرای تحلیل، خروجی‌ها در پنجره Output SPSS نمایش داده می‌شوند.

• به بخش‌هایی مانند "Variables in the Equation" و "Model Summary" توجه کنید تا ضرایب، نسبت شانس (odds ratios)، و دیگر اطلاعات مهم را مشاهده کنید.

▎تفسیر نتایج:

• Variables in the Equation: در این بخش ضرایب مدل برای هر متغیر مستقل نمایش داده می‌شود. می‌توانید مقدار β و آماره‌های آزمون (مانند Wald) را بررسی کنید.

• Model Summary: این بخش شامل اطلاعاتی مانند -2 Log Likelihood و Cox Snell R Square است که نشان‌دهنده کیفیت مدل است.

• Classification Table: این جدول نشان‌دهنده دقت پیش‌بینی مدل است.

با دنبال کردن این مراحل، شما می‌توانید رگرسیون لجستیک باینری را در SPSS اجرا کرده و نتایج آن را تحلیل کنید.
@spss23
@amos25
Spss
Photo
سلام علیکم
با احترام و گرامیداشت شب های قدر،روزگار شهادت حضرت امیرالمومنین علی بن ابیطالب علیه السلام را تسلیت میگویم.
تقارن بهار قران و بهار طبیعت فرصتی برای حرکت معنوی و تقرب الهی است، از خداوند سالی سرشار از معنویت و نشاط و قبولی عبادات را برای بزرگواران خواستارم.
ارادتمند- فربد
تحلیل عاملی تاییدی (CFA) یک تکنیک آماری است که برای بررسی ساختار عاملی یک مجموعه داده استفاده می‌شود. در نرم‌افزار AMOS، این تحلیل معمولاً برای تأیید مدل‌های نظری و بررسی اعتبار سازه‌ها به کار می‌رود. مراحل انجام تحلیل عاملی تاییدی در AMOS به شرح زیر است:

1. تعریف مدل: ابتدا باید مدل نظری خود را که شامل روابط بین متغیرهای مشاهده‌شده و متغیرهای پنهان است، تعریف کنید. این مدل باید بر اساس تئوری یا تحقیق‌های قبلی باشد.

2. وارد کردن داده‌ها: داده‌های خود را در نرم‌افزار SPSS وارد کنید و سپس آن را به AMOS منتقل کنید. می‌توانید از گزینه "File" و سپس "Data Files" برای بارگذاری داده‌ها استفاده کنید.

3. ساخت مدل در AMOS:

• از ابزار رسم مدل در AMOS استفاده کنید تا متغیرهای پنهان و مشاهده‌شده را به صورت گرافیکی رسم کنید.

• روابط بین متغیرها را با استفاده از فلش‌ها و خطوط مشخص کنید.

4. تنظیمات و تحلیل:

• پس از ساخت مدل، تنظیمات مربوط به تحلیل را انجام دهید. این تنظیمات شامل انتخاب روش برآورد (مثل Maximum Likelihood) و تعیین گزینه‌های مختلف برای تحلیل است.

• سپس با کلیک بر روی دکمه "Calculate Estimates"، تحلیل را اجرا کنید.

5. بررسی نتایج:

• پس از اجرای تحلیل، نتایج شامل بارهای عاملی، آمار مناسب بودن مدل (مثل Chi-square، RMSEA، CFI و TLI) و دیگر شاخص‌ها را بررسی کنید.

• بارهای عاملی نشان‌دهنده قدرت ارتباط بین متغیرهای مشاهده‌شده و متغیرهای پنهان هستند.

6. اصلاح مدل (در صورت لزوم):

• اگر نتایج نشان‌دهنده عدم تناسب مدل با داده‌ها باشد، ممکن است نیاز به اصلاح مدل داشته باشید. این اصلاحات می‌تواند شامل حذف یا اضافه کردن روابط بین متغیرها باشد.

7. گزارش نتایج: در نهایت، نتایج تحلیل را به صورت کتبی گزارش دهید و شامل جداول و نمودارهای مربوطه باشید.

این مراحل به شما کمک می‌کند تا تحلیل عاملی تاییدی را در AMOS به درستی انجام دهید.
@spss23
متامتد

تحلیل فصل چهارم
آزمون‌های داده‌های پانل در EViews شامل مجموعه‌ای از روش‌ها و آزمون‌ها برای تحلیل داده‌های پانل (panel data) است. داده‌های پانل به مجموعه‌ای از مشاهدات بر روی چندین واحد (مانند افراد، شرکت‌ها یا کشورها) در طول زمان اشاره دارد. در EViews، می‌توانید از آزمون‌های زیر برای تحلیل داده‌های پانل استفاده کنید:

1. آزمون هاسمن (Hausman Test): این آزمون برای انتخاب بین مدل اثرات ثابت (fixed effects) و مدل اثرات تصادفی (random effects) استفاده می‌شود. این آزمون بررسی می‌کند که آیا فرضیه عدم همبستگی بین متغیرهای تصادفی و متغیرهای توضیحی معتبر است یا خیر.

2. آزمون لیمر (Limer Test): این آزمون برای بررسی وجود اثرات ثابت در داده‌های پانل استفاده می‌شود. هدف این آزمون بررسی این است که آیا مدل اثرات ثابت نسبت به مدل اثرات ساده مناسب‌تر است.

3. مدل‌های ARDL و VAR: در EViews می‌توانید مدل‌های خودرگرسیو توزیع وقفه (ARDL) و مدل‌های خودرگرسیو با وقفه‌های توزیع شده (VAR) را نیز برای تحلیل داده‌های پانل استفاده کنید.

برای اجرای این آزمون‌ها در EViews، شما باید ابتدا داده‌های پانل خود را وارد کرده و سپس از منوی مربوطه برای انتخاب آزمون‌های مورد نظر استفاده کنید. EViews ابزارهای متنوعی برای تحلیل داده‌های پانل ارائه می‌دهد که می‌توانید از آن‌ها بهره‌برداری کنید.
www.spss-pasw.ir


@eviews12
مقایسه چهار ابزار هوش مصنوعی معرفی شده در پست قبل:

این ابزارهای هوش مصنوعی برای تحلیل داده در تحقیقات آکادمیک طراحی شده‌اند، اما هر کدام ویژگی‌ها و کاربردهای خاص خود را دارند:

1. The R Foundation
نوع: زبان برنامه‌نویسی و محیط نرم‌افزاری
ویژگی‌ها:
• مناسب برای تحلیل‌های آماری پیچیده و مدل‌سازی داده
• دارای جامعه کاربری بزرگ و بسته‌های متنوع (مانند Tidyverse)
• مناسب برای پژوهش‌های پیشرفته و تحلیل داده‌های حجیم
مناسب برای: پژوهشگران داده، آمارشناسان، و افرادی که نیاز به سفارشی‌سازی کد دارند

2. Julius AI
نوع: ابزار هوش مصنوعی برای پردازش داده
ویژگی‌ها:
• تحلیل داده‌ها با پردازش زبان طبیعی (NLP)
• ارائه بینش‌های هوشمند از روی داده‌های متنی و عددی
• قابلیت یادگیری از داده‌های ورودی و بهبود نتایج تحلیل
مناسب برای: محققانی که با داده‌های متنی و گزارش‌های تحقیقاتی کار می‌کنند

3. JASP
نوع: نرم‌افزار تحلیل آماری رایگان و متن‌باز
ویژگی‌ها:
• جایگزینی آسان برای SPSS با رابط کاربری گرافیکی ساده
• پشتیبانی از آزمون‌های آماری مانند ANOVA، رگرسیون، و تحلیل بیزی
• نیازی به برنامه‌نویسی ندارد، مناسب برای محققانی که به دنبال محیطی بصری هستند
مناسب برای: پژوهشگرانی که به دنبال تحلیل آماری آسان و سریع هستند

4. Insight7
نوع: پلتفرم تحلیل داده‌های کیفی با هوش مصنوعی
ویژگی‌ها:
• پردازش و تجزیه‌وتحلیل خودکار مصاحبه‌ها، نظرسنجی‌ها، و بازخوردهای متنی
• ارائه الگوهای معنادار از داده‌های کیفی
• مناسب برای تحقیقات بازار و تحلیل رفتار مشتریان
مناسب برای: محققان علوم اجتماعی، تحقیقات کیفی، و تحلیل داده‌های نظرسنجی

اگر به تحلیل عددی و آماری نیاز داری، R و JASP مناسب هستند، ولی اگر داده‌های متنی و کیفی تحلیل می‌کنی، Julius AI و Insight7 بهتر هستند
@spss23