DevOps Labdon
455 subscribers
24 photos
3 videos
2 files
677 links
👑 DevOps Labdon

حمایت مالی:
https://www.coffeete.ir/mrbardia72

ادمین:
@mrbardia72
Download Telegram
🔵 عنوان مقاله
Kubernetes 1.33: Resizing Pods Without the Drama (Finally!)

🟢 خلاصه مقاله:
کوبرنیتس 1.33 روی حل یک درد قدیمی تمرکز دارد: تغییر CPU و Memory یک Pod بدون ری‌استارت و رول‌اوت‌های پرهزینه. در نسخه‌های قبلی، تنظیم request/limit معمولاً به بازسازی Pod یا تغییرات پیچیده در Deployment/StatefulSet ختم می‌شد که برای سرویس‌های حساس یا اپ‌های stateful دردسرساز بود. در این نسخه، امکان تغییر منابع به‌صورت in-place در سطح Pod بسیار روان‌تر شده است؛ kubelet تغییرات cgroup را روی نود اعمال می‌کند، حسابداری منابع و زمان‌بند با درخواست‌های جدید هماهنگ می‌شوند و محدودیت‌هایی مثل ResourceQuota و LimitRange همچنان رعایت می‌گردند. نتیجه این است که برای رایت‌سایزینگ واقعی، کمتر نیاز به رول‌اوت دارید، ریسک وقفه کاهش می‌یابد و هزینه‌ها بهتر کنترل می‌شود. با این حال، همه منابع یکسان قابل تغییر لحظه‌ای نیستند و کاهش تهاجمی Memory می‌تواند خطر OOM داشته باشد؛ بنابراین توصیه می‌شود تغییرات مرحله‌ای انجام شود و با مانیتورینگ دقیق همراه باشد. خلاصه اینکه 1.33 رایت‌سایزینگ را به یک عملیات کم‌دردسر و کاربردی تبدیل می‌کند و زمان تیم‌ها را از مدیریت رول‌اوت‌های غیرضروری به بهینه‌سازی عملکرد و هزینه روی بارهای واقعی منتقل می‌سازد.

#Kubernetes #Pods #DevOps #SRE #CloudNative #Autoscaling #ResourceManagement #Containers

🟣لینک مقاله:
https://ku.bz/WwX8zwk0S


👑 @DevOps_Labdon
🎉2
🔵 عنوان مقاله
From utilization to PSI: Rethinking resource starvation monitoring in Kubernetes

🟢 خلاصه مقاله:
این مقاله نشان می‌دهد تکیه بر شاخص‌های غیرمستقیم مانند استفاده از CPU/Memory و requests/limits در Kubernetes اغلب تصویر غلطی از «گرسنگی منابع» می‌دهد و پیشنهاد می‌کند به جای آن از PSI در Linux استفاده شود. PSI با اندازه‌گیری زمان‌های توقف تسک‌ها هنگام انتظار برای CPU، Memory یا I/O (به‌صورت avg10/avg60/avg300 و مقادیر some/full) خودِ «رقابت بر سر منابع» را نشان می‌دهد، نه صرفاً پر بودن ظرفیت. این کار مواردی مانند تأخیر ناشی از reclaim حافظه، صف‌های I/O، یا اثر همسایه پرسر‌وصدا را که پشت نمودارهای استفاده‌ پنهان می‌مانند، آشکار می‌کند. در عمل می‌توان PSI را در سطح نود و cgroup جمع‌آوری کرد (مثلاً با Prometheus node-exporter) و با Grafana دید، آستانه‌های هشدار و SLOها را بر مبنای فشار واقعی تعریف کرد، و حتی HPA و اتواسکیلینگ کلاستر را به فشار پایدار گره زد. نتیجه: برای تشخیص و رفع رقابت واقعی در Kubernetes باید «فشار» را سنجید و تفسیر کرد، و در کنار آن از شاخص‌های استفاده برای تکمیل تصویر بهره گرفت.

#Kubernetes
#Linux
#PSI
#Observability
#SRE
#ResourceManagement
#Prometheus
#CloudNative

🟣لینک مقاله:
https://ku.bz/Gn7372R9X


👑 @DevOps_Labdon