Software Engineer Labdon
584 subscribers
42 photos
3 videos
2 files
709 links
👑 Software Labdon

حمایت مالی:
https://www.coffeete.ir/mrbardia72

ادمین:
@mrbardia72
Download Telegram
🔵 عنوان مقاله
Make Selenium Test Smarter with AI — Local/Cloud LLMs

🟢 خلاصه مقاله:
این ویدئوی کوتاه از Karthik K.K. نشان می‌دهد چگونه می‌توان با ترکیب Selenium و AI (به‌ویژه LLMs)، فرایند تست خودکار را هوشمندتر کرد. تمرکز بر قابلیت‌هایی مانند تولید خودکار اسکریپت از توضیحات طبیعی، self-healing برای locatorها، ساخت assertionهای معنادار، و تحلیل خطاها و لاگ‌ها برای ریشه‌یابی سریع‌تر است. همچنین به مزایا و معایب LLMهای Local در برابر Cloud پرداخته می‌شود: حفظ داده و هزینه قابل پیش‌بینی در Local در مقابل کیفیت، مقیاس‌پذیری و سهولت اتصال در Cloud. در نهایت، رویکردی گام‌به‌گام برای شروع پیشنهاد می‌شود تا تیم‌ها بدون جایگزین‌کردن مهارت مهندس تست، با افزودن AI به Selenium، سرعت تولید تست، پایداری و کیفیت بازخورد را بهبود دهند.

#Selenium #AI #LLM #TestAutomation #SoftwareTesting #QA #DevTools #CI_CD

🟣لینک مقاله:
https://cur.at/NrcEq81?m=web


👑 @software_Labdon
🔵 عنوان مقاله
Software Testing with AI And AI Agents

🟢 خلاصه مقاله:
**این ارائه یک دمو یک‌ساعته و کاربردی از سوی Karthik K.K. است که نشان می‌دهد چگونه می‌توان AI و AI Agents را در مراحل مختلف تست نرم‌افزار به‌کار گرفت. تمرکز اصلی بر سرعت‌بخشیدن به تولید تست، افزایش پوشش، کاهش نگه‌داری، و استفاده از عامل‌های هوشمند برای تست اکتشافی و UI است. همچنین به تولید داده‌های تست، ایجاد سناریوهای مرزی و منفی، پایدارسازی تست‌ها هنگام تغییرات UI/API، رفع خطا و مدیریت flaky tests در CI/CD می‌پردازد. نکات کلیدی شامل مهار خروجی‌ها با ساختاردهی و گاردریل‌ها، انتخاب مدل با توجه به هزینه و تأخیر، ملاحظات حریم خصوصی، و ارزیابی و اعتمادسازی با داده‌های معیار است. نتیجه، نقشه‌راهی عملی برای تقویت فرآیندهای موجود تست توسط AI—بدون جایگزین‌کردن آن‌ها—و حفظ کیفیت و کنترل است.

#SoftwareTesting #AIinTesting #AIAgents #QualityEngineering #TestAutomation #LLM #CICD

🟣لینک مقاله:
https://cur.at/DDxkXyi?m=web


👑 @software_Labdon
1
🔵 عنوان مقاله
Playwright Agentic Coding Tips

🟢 خلاصه مقاله:
با نگاهی عمل‌گرایانه، این مقاله نشان می‌دهد چگونه می‌توان با رویکرد agentic از AI برای نوشتن تست‌های Playwright استفاده کرد: ابتدا برنامه‌ریزی و خردکردن سناریوها، سپس حلقه‌ای از تولید تغییرات کوچک، اجرای تست، مشاهده خطا و بازبینی. برای موفقیت، باید کانتکست کافی به مدل بدهیم (Playwright config، الگوهای کدنویسی TypeScript/JavaScript، مسیرهای اپ، نقش‌ها، test-idها، و استراتژی لاگین)، و آن را به استفاده از locatorهای پایدار مثل getByRole و getByTestId هدایت کنیم.
این راهنما بر قابلیت اطمینان تاکید دارد: انتظارهای مبتنی بر locator به جای sleep، شبیه‌سازی شبکه یا routeها در صورت نیاز، کنترل زمان، داده‌سازی و تمیزکاری ایزوله با fixtures، و استخراج helperهای تکرارشونده. در CI، گردآوری trace، ویدیو و اسکرین‌شات، کنترل parallelism/sharding، استفاده محدود از retry، پین‌کردن نسخه‌ها، و ایمن‌سازی secrets توصیه شده است.
برای ساختار کد، از Page Object/Screen Object به‌صورت منعطف استفاده کنید، نام‌گذاری و مستندسازی شفاف داشته باشید، و ترکیبی از component test و end-to-end برای پوشش متوازن بسازید. الگوهای پرامپت شامل few-shotهای خوب و بد، بازیابی اسناد مرتبط، و واداشتن مدل به توضیح فرضیه‌های flakiness و توجیه انتخاب locatorهاست. در نهایت، human-in-the-loop، بازبینی کد و هدف‌گذاری پوشش، کلید حفظ کیفیت و نگه‌داشت هستند.
#Playwright #AgenticCoding #TestAutomation #EndToEndTesting #AI #LLM #QualityEngineering

🟣لینک مقاله:
https://cur.at/iDPLZwj?m=web


👑 @software_Labdon
🔵 عنوان مقاله
Finally: Unit Testing for LLMs That Doesn't Require a PhD or $100K Budget

🟢 خلاصه مقاله:
** دکتر Ernesto Lee نشان می‌دهد برای ساخت اپلیکیشن‌های مبتنی بر LLM لازم نیست PhD یا بودجه‌های بسیار بزرگ داشته باشید تا تست خودکار جدی و مؤثر پیاده کنید. ایده اصلی این است که هر prompt، chain و فراخوانی ابزار را مثل یک واحد مستقل با مشخصات روشن ببینید و برای آن‌ها تست بنویسید: از اعتبارسنجی ساختار خروجی (مثلاً JSON Schema) و الزامات فیلدها، تا چک‌های ایمنی/سیاست و نمونه‌های طلایی دامنه‌ای. با snapshot test، داده‌های نمونه کم‌حجم اما پوشش‌دهنده لبه‌ها، و mock/stub برای وابستگی‌های خارجی، تست‌ها سریع، ارزان و قابل تکرار می‌مانند.

برای کنترل هزینه و نوسان، می‌توان پاسخ‌ها را cache کرد، بیشتر تست‌ها را با temperature=0 اجرا نمود، محدودیت توکن گذاشت، و مجموعه تست‌های «سریع» را از ارزیابی‌های «سنگین‌تر» دوره‌ای جدا کرد. نسخه‌دهی به promptها و داده‌های طلایی، گزارش‌کردن معیارها و اتصال این چرخه به CI باعث می‌شود هر تغییر کد یا prompt فوراً ارزیابی شود و رگرسیون‌ها دیده شوند. در صورت شکست تست، سریع مشخص کنید مشکل از تغییر prompt است، drift مدل بالادستی یا وابستگی ابزار، و همان یادگیری را به تست‌ها برگردانید.

نتیجه این رویکرد، چرخه توسعه سریع‌تر با اطمینان بیشتر و هزینه کنترل‌شده است. پیام Lee روشن است: Unit Testing عملی و مقیاس‌پذیر برای LLMها در دسترس همه تیم‌هاست، نه فقط تیم‌های بزرگ.

#LLM
#UnitTesting
#AIEngineering
#TestingAutomation
#MLOps
#PromptEngineering
#ContinuousIntegration
#QualityAssurance

🟣لینک مقاله:
https://cur.at/YHqFc9m?m=web


👑 @software_Labdon
2
🔵 عنوان مقاله
The Day I Became an AI "Babysitter" (And Why I'm Not Ashamed of It)

🟢 خلاصه مقاله:
** این مقاله از Santhosh Siddegowda نشان می‌دهد به‌کارگیری AI در تست به‌جای جایگزینی کامل، به معنای «نظارت هوشمندانه» است. او توضیح می‌دهد چگونه کیس‌های کلاسیک QA به جریان‌های AI-assisted تبدیل می‌شوند: بازنویسی بر پایه قصد کاربر و پرامپت، تعریف گاردریل‌ها و اوراکل‌های تست، و افزودن بازبینی Human-in-the-Loop برای مهار ناپایداری و خطاهای مدل. نویسنده بر عملیات‌پذیری تأکید می‌کند—نسخه‌بندی پرامپت‌ها، لاگ‌برداری و ارزیابی مداوم کیفیت—و نتیجه می‌گیرد که هرچند AI سرعت و پوشش تست را افزایش می‌دهد، موفقیت به سنجش‌پذیری، محرمانگی داده، معیارهای پذیرش روشن و نقش فعال انسان وابسته است. جمع‌بندی او: با موارد مناسب شروع کنید، گاردریل و اوراکل شفاف بسازید، اثر را اندازه‌گیری کنید و قضاوت انسانی را در مرکز نگه دارید؛ «AI babysitting» رویکردی مسئولانه برای قابل‌اعتماد کردن AI در QA است.

#AIinTesting #QA #TestAutomation #LLM #HumanInTheLoop #PromptEngineering #SoftwareQuality

🟣لینک مقاله:
https://cur.at/PnnqBWN?m=web


👑 @software_Labdon