Software Engineer Labdon
591 subscribers
42 photos
3 videos
2 files
723 links
👑 Software Labdon

حمایت مالی:
https://www.coffeete.ir/mrbardia72

ادمین:
@mrbardia72
Download Telegram
🔵 عنوان مقاله
Mutation testing — not just for unit tests

🟢 خلاصه مقاله:
mutation testing روشی برای سنجش کیفیت واقعی آزمون‌هاست: با ایجاد تغییرات کوچک در کد، بررسی می‌کند آیا تست‌ها می‌توانند خطاهای احتمالی را کشف کنند یا نه. این رویکرد فقط مخصوص unit tests نیست؛ می‌توان آن را در سطح integration و API و حتی سناریوهای انتها به انتها به‌کار گرفت تا مطمئن شویم تست‌ها رفتار قابل مشاهده را به‌خوبی پوشش می‌دهند. Bas Dijkstra با یک مثال گام‌به‌گام نشان می‌دهد چگونه ابزار را پیکربندی کنیم، mutants بسازیم، تست‌ها را اجرا کنیم و نتایج را تفسیر کنیم؛ و چگونه با تقویت assertions، افزودن سناریوهای لبه، یا حذف کد مرده کیفیت را بالا ببریم. پیشنهاد عملی این است که با یک بخش کوچک شروع کنید، ابزار مناسب پشته‌تان را انتخاب کنید، در CI آستانه‌های معقول بگذارید و اجرای سنگین‌تر را دوره‌ای انجام دهید تا با هزینه منطقی، بازخورد مؤثر بگیرید.

#MutationTesting #SoftwareTesting #UnitTesting #TestQuality #BasDijkstra #CodeCoverage #CI_CD #DevOps

🟣لینک مقاله:
https://cur.at/gKlipIY?m=web


👑 @software_Labdon
🎉1
🔵 عنوان مقاله
How We Systematized Technical Debt Management in Our QA Team

🟢 خلاصه مقاله:
Ilia Golos نشان می‌دهد که «بدهی فنی» مانند باگ‌ها اجتناب‌ناپذیر است، اما اگر سیستماتیک مدیریت شود به‌جای مانع، به اهرمی برای سرعت و پایداری تبدیل می‌شود. او برای تیم‌های QA یک چارچوب عملی پیشنهاد می‌کند: دسته‌بندی شفاف بدهی‌ها (مثل کد تست، تست‌های flaky یا کند، محیط و پیکربندی، داده تست، شکاف‌های پوشش و فرایندها)، نگه‌داشتن همه موارد در یک بک‌لاگ واحد با برچسب‌های یکنواخت، و اولویت‌بندی بر مبنای ریسک و اثر روی کاربر. برای حفظ تمرکز، بخشی از ظرفیت هر اسپرینت به بدهی اختصاص می‌یابد یا اسپرینت‌های ویژه بدهی برگزار می‌شود؛ افزودن کنترل‌های بدهی به Definition of Done از ایجاد بدهی جدید جلوگیری می‌کند و داشبوردهایی مانند نرخ flaky، زمان اجرای تست و سن بدهی، تصمیم‌گیری را داده‌محور می‌سازند. در عمل، توصیه‌ها شامل بازآرایی کد تست، حذف تست‌های منسوخ، پایدارسازی flakyها، خودکارسازی بررسی‌های تکراری، بازتولیدپذیر کردن محیط و داده، و مشارکت نزدیک با توسعه و محصول برای توازن میان قابلیت‌ها و ریسک است. با مالکیت روشن، الگوی ثبت ساده، بازبینی‌های دوره‌ای و قانون «جلوگیری از خونریزی» برای بدهی‌های جدید، مدیریت بدهی تدریجی اما پیوسته می‌شود و به انتشارهای سریع‌تر و قابل‌اعتمادتر می‌انجامد.

#TechnicalDebt #QualityAssurance #SoftwareTesting #TestAutomation #AgileTesting #DevOps #QA #EngineeringManagement

🟣لینک مقاله:
https://cur.at/196LoVa?m=web


👑 @software_Labdon
1
🔵 عنوان مقاله
Testing and Programming Are Not Separate Disciplines

🟢 خلاصه مقاله:
** این یادآوری از Ravisuriya Eswara تأکید می‌کند که توسعه و تست نرم‌افزار باید یک فرایند یکپارچه باشند، نه دو رشته جدا. با وارد کردن تست در متن کار روزانه—از تعریف معیارهای پذیرش و شناسایی ریسک‌ها تا نوشتن تست‌ها کنار کد، اجرای TDD و پایپ‌لاین‌های CI/CD—کیفیت از ابتدا طراحی می‌شود، نه در انتها ارزیابی.

این رویکرد مزایایی مانند کاهش نقیصه‌های تولید، بازخورد سریع‌تر، تحویل قابل‌پیش‌بینی، تجربه کاربری بهتر و هزینه نگه‌داری کمتر دارد. همکاری جایگزین تحویل‌های مرحله‌ای می‌شود: توسعه‌دهندگان بر طراحیِ قابل‌تست تمرکز می‌کنند و تسترها با نگاه اکتشافی و کل‌نگر کیفیت را غنی می‌کنند؛ اتوماسیون و تست اکتشافی مکمل هم‌اند. نتیجه، چرخه‌ای سالم‌تر و محصولی پایدارتر در راستای اصول Agile و DevOps است.

#تست_نرم‌افزار #برنامه‌نویسی #کیفیت #DevOps #TDD #CI_CD #Agile #مهندسی_نرم‌افزار

🟣لینک مقاله:
https://cur.at/N39OqUZ?m=web


👑 @software_Labdon
1
🔵 عنوان مقاله
The Over-Framework Trap: Preventing the Maze of Test Complexity

🟢 خلاصه مقاله:
Roman Kostenko هشدار می‌دهد به دام «Over‑Framework» نیفتید؛ جایی که چارچوب‌های تست با لایه‌های اضافی، wrapperها و DSLهای پیچیده بهره‌وری را کم و نگه‌داری را سخت می‌کنند. او توصیه می‌کند از ساده‌ترین راهکار شروع کنید، تا حد امکان از ابزارها و الگوهای پذیرفته‌شده استفاده کنید، و فقط زمانی abstraction اضافه کنید که درد تکرار واقعاً احساس می‌شود—آن هم به سبک مینیمال تا خوانایی تست‌ها حفظ شود. همچنین بر قابلیت اتکا و مشاهده‌پذیری تأکید دارد: داده‌ی تست قطعی، setup/teardown تمیز، پیام خطای مفید، لاگ مختصر و سریع‌بودن چرخه‌ی بازخورد. چارچوب را به‌تدریج و بر اساس نیازهای واقعی رشد دهید، بخش‌های بلااستفاده را حذف کنید و با مستندسازی سبک و بازبینی‌های سبک از پیچیدگی ناخواسته جلوگیری کنید.

#TestAutomation #SoftwareTesting #QA #TestFramework #Simplicity #CleanCode #DevOps #BestPractices

🟣لینک مقاله:
https://cur.at/NeRvNG1?m=web


👑 @software_Labdon
🤡1
🔵 عنوان مقاله
What does successful automation look like to you? Have you ever seen it?

🟢 خلاصه مقاله:
اتوماسیون موفق در شرکت‌های مختلف شکل‌های متفاوتی دارد، اما نقطه مشترک آن نتایج تجاری ملموس و اعتماد تیم است: چرخه انتشار سریع‌تر، خطاهای فراری کمتر، و شکست‌های معنادار به‌جای نویز. تجربه‌های مطرح‌شده در Reddit بر چند اصل تاکید دارند: پایداری و سرعت در CI/CD، هرم تست با تمرکز بر unit و integration و تعداد اندک E2E برای مسیرهای حیاتی، کد تست قابل نگهداری و مدیریت داده/محیط قابل اتکا. مالکیت مشترک بین Dev و QA، معیارهای روشن، و قابلیت مشاهده‌پذیری (لاگ، اسکرین‌شات، ترِیس و ردیابی flaky) ضروری‌اند. موفقیت یعنی ROI واقعی: زمان آزادشده برای بهبود محصول، کاهش hotfix، و اطمینان در هر PR—و دوری از ضدالگوهایی مثل افراط در UI tests یا تعقیب پوشش ۱۰۰٪.

#TestAutomation #SoftwareTesting #QA #DevOps #CICD #AutomationStrategy #QualityEngineering

🟣لینک مقاله:
https://cur.at/w3kN7Xu?m=web


👑 @software_Labdon
🔵 عنوان مقاله
Windows (GitHub Repo)

🟢 خلاصه مقاله:
** این GitHub Repo راه‌اندازی Windows داخل یک محیط Docker را ساده می‌کند: با دانلود خودکار ISO و بهره‌گیری از شتاب‌دهی KVM، یک ماشین مجازی Windows با کارایی نزدیک به بومی اجرا می‌شود. هدف، ارائه محیطی تکرارپذیر، قابل‌حمل و یک‌بارمصرف برای توسعه و تست است؛ با امکان دسترسی از راه دور (مثلاً RDP/VNC) و نگه‌داری داده‌ها از طریق volumeها. این راه‌حل برای CI/CD، تست میان‌سکویی و اجرای ابزارهای مخصوص Windows مفید است. نیازمندی‌ها معمولاً شامل یک میزبان Linux با پشتیبانی KVM و رعایت الزامات لایسنس Windows است.

#Windows #Docker #KVM #Virtualization #DevOps #ISO #CloudNative #CI_CD

🟣لینک مقاله:
https://github.com/dockur/windows?utm_source=tldrinfosec


👑 @software_Labdon
🤝1
🔵 عنوان مقاله
The Automation Maturity Pyramid

🟢 خلاصه مقاله:
این هرم با عنوان The Automation Maturity Pyramid روشی از David Ingraham برای ارزیابی بلوغ اتوماسیون تست در چهار مرحله است: ایجاد اعتماد به نتایج تست‌ها، بازخورد کوتاه‌مدت و سریع در جریان توسعه، افزایش سرعت توسعه با تکیه بر تست‌های پایدار، و در نهایت بازخورد بلندمدت برای حفظ کیفیت در گذر زمان. ایده اصلی این است که اتوماسیون باید هدفمند باشد: ابتدا تست‌های قابل‌اعتماد و غیرلغزان برای مسیرهای حیاتی بسازیم، سپس بازخورد سریع در CI و روی هر تغییر فراهم کنیم، بعد با کاهش زمان چرخه و افزایش اطمینان، توسعه را شتاب دهیم، و در پایان با چک‌های دوره‌ای، سنجه‌های عملکرد و نشانه‌های تولید، سلامت بلندمدت سیستم را پایش کنیم. این چارچوب به تیم‌ها کمک می‌کند شکاف‌ها را بشناسند، سرمایه‌گذاری‌ها را اولویت‌بندی کنند و از دام‌هایی مثل تمرکز زودهنگام بر پوشش یا سرعت بدون اعتماد پرهیز کنند.

#TestAutomation #AutomationMaturity #SoftwareTesting #QualityEngineering #DevOps #CICD #FeedbackLoops #SoftwareDelivery

🟣لینک مقاله:
https://cur.at/syMd8RG?m=web


👑 @software_Labdon
🔵 عنوان مقاله
k6 Scenarios & Metrics You Must Know

🟢 خلاصه مقاله:
این مرور ۲۵ دقیقه‌ای با ارائه Joan Esquivel Montero به‌صورت فشرده نشان می‌دهد چگونه با استفاده از سناریوها و متریک‌های کلیدی در k6 آزمون‌های کارایی دقیق‌تری بسازیم. ابتدا انتخاب صحیح executorها را پوشش می‌دهد: از constant-vus و ramping-vus برای پایه‌گیری، تست ماندگاری و استرس؛ per-vu-iterations و shared-iterations برای اجرای کنترل‌شده؛ و constant-arrival-rate و ramping-arrival-rate زمانی که هدفتان کنترل نرخ درخواست (RPS) است. ساختاردهی تست با setup/teardown، گروه‌بندی مراحل مهم، و برچسب‌گذاری برای تفکیک نتایج نیز توضیح داده می‌شود.

در بخش متریک‌ها، اهمیت http_req_duration (با تأکید بر صدک‌ها نه میانگین)، http_req_failed، http_reqs، iterations، vus/vus_max، checks، و حجم داده‌ها مطرح است و نحوه ساخت متریک‌های سفارشی با Trend، Counter، Gauge و Rate و برچسب‌گذاری برای تحلیل جزئی‌تر مرور می‌شود.

سپس تبدیل SLOها به thresholdهای قابل‌اجرا در k6 نشان داده می‌شود؛ مانند محدود کردن p(95) زمان پاسخ، نرخ خطا، یا حداقل RPS، و استفاده از abortOnFail برای توقف سریع. نکاتی برای جلوگیری از خطاهای رایج نیز ارائه می‌شود: هدف‌گذاری شفاف، داده و think time واقعی، رمپ منطقی، و انتخاب مدل بار مناسب (VU در برابر نرخ ورود).

در نهایت به جنبه‌های عملیاتی اشاره می‌شود: اجرای محلی و ادغام با CI/CD، ارسال نتایج به InfluxDB/Prometheus و مشاهده در Grafana، و مقیاس‌پذیری با k6 Cloud یا Kubernetes. با نسخه‌بندی اسکریپت‌ها، پارامترگذاری و برچسب‌گذاری، می‌توانید سریع‌تر عیب‌یابی کرده و محدودیت‌ها، رگرسیون‌ها و نقاط گلوگاهی را با دقت شناسایی کنید.

#k6 #PerformanceTesting #LoadTesting #DevOps #JavaScript #Grafana #Metrics #SRE

🟣لینک مقاله:
https://cur.at/U5oID4d?m=web


👑 @software_Labdon
🔵 عنوان مقاله
My Load Testing Journey: Why Artillery Won over JMeter and K6

🟢 خلاصه مقاله:
جاناهان سیوانانتهامورتی تجربه خود در آزمون کارایی را توضیح می‌دهد و می‌گوید چرا پس از ارزیابی JMeter و K6، در نهایت Artillery را برگزیده است. معیارهای اصلی او سادگی راه‌اندازی، خوانایی و نگهداری سناریوها، سازگاری با کنترل نسخه و CI/CD، و گزارش‌های قابل اتکا بوده است. به‌گفته او JMeter هرچند قدرتمند است اما برای تیم‌شان سنگین و پیچیده بود؛ K6 هم با وجود مزایای فنی، در گردش‌کارشان کمی اصطکاک ایجاد می‌کرد. در مقابل، Artillery با تنظیمات سبک، توسعه‌پذیری مبتنی بر JavaScript و زمان رسیدن سریع به نتیجه، بهتر با نیازها و سرعت تیم هماهنگ شد—هرچند تأکید می‌کند انتخاب ابزار به زمینه و محدودیت‌های هر تیم بستگی دارد.

#LoadTesting #PerformanceTesting #Artillery #JMeter #K6 #DevOps #CICD #TestingTools

🟣لینک مقاله:
https://cur.at/CRuqO1c?m=web


👑 @software_Labdon
🔵 عنوان مقاله
"Shift Right" Testing, Done Right

🟢 خلاصه مقاله:
تست شیفت-رایت یعنی ادامه‌دادن اعتبارسنجی و پایش نرم‌افزار پس از انتشار و یادگیری از رفتار واقعی کاربران در محیط Production. Arik Aharoni توصیه‌هایی در سطح بالا ارائه می‌دهد: تعریف SLO و بودجه خطا، سرمایه‌گذاری در Observability، تحویل تدریجی با Feature Flags و Canary Release، خودکارسازی انتشار و Rollback، توجه به حریم خصوصی و امنیت، شروع تدریجی در سناریوهای کم‌ریسک، و همکاری میان Dev، QA، Ops، SRE و Product. دستاوردها شامل بازخورد سریع‌تر و واقعی‌تر، شناسایی مشکلاتی که قبل از انتشار دیده نمی‌شوند، بهبود قابلیت اتکا و تاب‌آوری، و کاهش MTTR است. شیفت-رایت جایگزین شیفت-لفت نیست، بلکه مکمل آن است و نیازمند ریل‌گذاری‌های ایمن مانند کنترل دسترسی، محدودکردن شعاع ریسک و برنامه‌های Rollback روشن است.

#ShiftRightTesting #Observability #DevOps #SRE #ProgressiveDelivery #FeatureFlags #CanaryRelease #SoftwareQuality

🟣لینک مقاله:
https://cur.at/VbiIVHW?m=web


👑 @software_Labdon
🔵 عنوان مقاله
The Testing Skyscraper: A Modern Alternative to the Testing Pyramid

🟢 خلاصه مقاله:
Andrew Knight مدل سنتی Testing Pyramid را ناکافی می‌داند و به‌جای آن رویکرد منعطف‌تری به نام Testing Skyscraper پیشنهاد می‌کند. در این مدل، به‌جای نسبت‌های ثابت بین لایه‌های تست، «طبقات» متناسب با ریسک‌ها و نیازهای سیستم شکل می‌گیرند؛ مثلا ممکن است یک سیستم به طبقه پررنگ‌تری از contract testing، یا عملکرد و تاب‌آوری، یا سناریوهای end-to-end نیاز داشته باشد. این رویکرد بر تناسب پوشش با معماری و اهداف محصول، بازخورد سریع، و ارزش‌سنجی بر اساس کاهش ریسک و افزایش اطمینان تأکید دارد، نه شمارش تست‌ها. در عمل، ترکیبی از unit، integration، contract، end-to-end، تست‌های غیرعملکردی (کارایی، امنیت، دسترس‌پذیری)، و حتی observability و synthetic monitoring به‌عنوان طبقات مستقل در نظر گرفته می‌شوند و با تغییر سیستم، به‌صورت پویا تقویت، بازچینی یا حذف می‌گردند.

#SoftwareTesting #TestingPyramid #TestingSkyscraper #QualityEngineering #DevOps #Automation #RiskBasedTesting #TestStrategy

🟣لینک مقاله:
https://cur.at/W2rklZc?m=web


👑 @software_Labdon
🔵 عنوان مقاله
Web Accessibility Testing — Are We There Yet?

🟢 خلاصه مقاله:
**با اجرای European Accessibility Act، آزمون‌های دسترس‌پذیری از یک گزینه جانبی به یک ضرورت قانونی و اخلاقی تبدیل شده‌اند. مقاله می‌گوید با وجود پیشرفت‌ها، وضعیت هنوز مطلوب نیست: ابزارهای خودکار فقط بخشی از مشکلات را می‌یابند و بسیاری از موانع در استفاده واقعی و با فناوری‌های کمکی آشکار می‌شوند. راهکار، ترکیب آزمون خودکار و دستی، مشارکت کاربران دارای معلولیت، و ادغام دسترس‌پذیری در طراحی، توسعه، CI/CD و حاکمیت کیفیت است. پیام نهایی: دسترس‌پذیری باید یک فرایند مستمر و مشترک باشد تا هم ریسک را کاهش دهد و هم تجربه‌ای فراگیرتر ایجاد کند.

#Accessibility #A11y #EuropeanAccessibilityAct #WCAG #InclusiveDesign #Testing #QA #DevOps

🟣لینک مقاله:
https://cur.at/fU9ymSF?m=web


👑 @software_Labdon
1
🔵 عنوان مقاله
Test Automation: How to Turn Regression Routine into a Reliable System

🟢 خلاصه مقاله:
این مقاله روایت عملی Maksim Laptev از گذار تیم از رگرسیون دستی به یک سامانه خودکار و قابل اتکاست. او بر اولویت‌بندی مبتنی بر ریسک تأکید می‌کند: شروع با اسموک تست‌های سریع، افزودن تست‌های پایدار در سطح API برای هسته سیستم و خودکارسازی محدود اما هدفمند مسیرهای UI پرارزش، در کنار حفظ تست‌های اکتشافی. معیارهای انتخاب ابزار شامل هم‌راستایی با زبان تیم، یکپارچگی با CI/CD، اجرای موازی، گزارش‌دهی و نگهداشت‌پذیری است و پرهیز از تنوع بی‌رویه ابزار توصیه می‌شود. در معماری، جداسازی لایه‌ها (الگوهایی مانند Page Object/Screenplay)، مدیریت داده و محیط تکرارپذیر، حذف منابع flakiness با انتظارهای قطعی و setup/teardown ایمن، و برچسب‌گذاری و شاردینگ برای سرعت، نقش کلیدی دارند. ادغام در CI/CD با دروازه‌های سریع، رگرسیون‌های دوره‌ای و سنجه‌هایی مانند پوشش جریان‌های حیاتی، نرخ flake و زمان رفع، کیفیت را پایدار می‌کند. در نهایت با یک نقشه راه گام‌به‌گام، آموزش و کدنویسی استاندارد برای تست‌ها، و بازبینی و هرس منظم، می‌توان سامانه‌ای ساخت که چرخه بازخورد را کوتاه و ریسک انتشار را کم می‌کند.

#TestAutomation #SoftwareTesting #QA #RegressionTesting #CICD #DevOps #SDET

🟣لینک مقاله:
https://cur.at/Z0J7xPm?m=web


👑 @software_Labdon
🔵 عنوان مقاله
"Why didn't testing find this issue?" Because you desire something that doesn't exist!

🟢 خلاصه مقاله:
وقتی خطایی به تولید می‌رسد، پرسش تکراری این است: «چرا تست‌ها این مشکل را پیدا نکردند؟» Maaike Brinkhof می‌گوید ریشه‌ی این پرسش اشتباه است، چون چنین قطعیتی از تست انتظار داریم که اصلاً وجود ندارد. تست فقط می‌تواند اعتماد را افزایش دهد و ریسک‌ها را آشکار کند؛ هرگز نمی‌تواند نبودِ باگ را ثابت کند.

به‌جای سرزنش «تست»، بحث را به مسئولیت جمعی و یادگیری سیستمی تغییر دهیم: «چطور فرایند، فرض‌ها و طراحی ما اجازه‌ی فرار این باگ را داده‌اند؟» عوامل رایج شامل ابهام در نیازها، تفاوت محیط‌ها با تولید، داده‌ی ناکافی، مشاهده‌پذیری ضعیف، یا مصالحه‌های زمان‌بندی است. مجموعه تست‌ها فقط نمونه‌ای از واقعیت‌اند، نه تمام آن.

راه‌حل، مدیریت ریسک و بهبود چرخه‌های بازخورد است: تقویت logging و telemetry، استفاده از feature flag و انتشار تدریجی، بهبود تست‌های قرارداد و سفرهای حیاتی کاربر، و سرمایه‌گذاری روی تست اکتشافی برای کشف ناشناخته‌ها. با postmortem بدون سرزنش بپرسیم: ریسک را درست فهمیدیم؟ نظارت ما برای کشف سریع و محدودکردن دامنه مشکل کافی بود؟ داده و محیط مناسب داشتیم؟ آیا pairing، بازبینی یا risk storming می‌توانست زودتر هشدار بدهد؟

جمع‌بندی: تست تضمین نیست؛ ابزاری برای آشکارسازی و مدیریت ریسک است. به‌جای انتظار قطعیت، روی کشف سریع‌تر، عرضه‌های ایمن‌تر و تصمیم‌های هوشمندانه درباره محل سرمایه‌گذاری تمرکز کنیم.

#SoftwareTesting #QualityEngineering #BlamelessPostmortem #RiskBasedTesting #Testability #Observability #DevOps #Agile

🟣لینک مقاله:
https://cur.at/7DobXrn?m=web


👑 @software_Labdon