🚀Go-ing Beyond Basics: A Beginner's Dive into Go Programming for DevOps
https://dev.to/theerej_c/go-ing-beyond-basics-a-beginners-dive-into-go-programming-for-devops-48ok
When it comes to modern software development, especially in DevOps, choosing the right programming...
#go #programming #devops #api
▶️join: @readmemdd
🚀Go-ing Beyond Basics: A Beginner's Dive into Go Programming for DevOps
https://dev.to/theerej_c/go-ing-beyond-basics-a-beginners-dive-into-go-programming-for-devops-48ok
When it comes to modern software development, especially in DevOps, choosing the right programming...
#go #programming #devops #api
▶️join: @readmemdd
DEV Community
🚀Go-ing Beyond Basics: A Beginner's Dive into Go Programming for DevOps
When it comes to modern software development, especially in DevOps, choosing the right programming...
🚀 Learning by Doing: Building an Incident Alert System 🛠️
https://dev.to/ssheffk/learning-by-doing-building-an-incident-alert-system-4i2b
👋 Introduction Learning new technologies is always exciting, but applying them to a real-world...
#go #kafka #microservices #kubernetes
▶️join: @readmemdd
🚀 Learning by Doing: Building an Incident Alert System 🛠️
https://dev.to/ssheffk/learning-by-doing-building-an-incident-alert-system-4i2b
👋 Introduction Learning new technologies is always exciting, but applying them to a real-world...
#go #kafka #microservices #kubernetes
▶️join: @readmemdd
DEV Community
🚀 Learning by Doing: Building an Incident Alert System 🛠️
👋 Introduction Learning new technologies is always exciting, but applying them to a real-world...
8 پیچیدگی زمانی مهم که باید بدانید :
𝐎(1) - زمان ثابت
زمان اجرا بدون توجه به اندازه ورودی تغییر نمیکند.
مثال: دسترسی به یک عنصر در آرایه با استفاده از ایندکس.
𝐎(𝐥𝐨𝐠 𝐧) - زمان لگاریتمی
زمان اجرا بهآرامی با افزایش اندازه ورودی رشد میکند. معمولاً در الگوریتمهایی دیده میشود که مسئله را در هر مرحله نصف میکنند.
مثال: جستجوی دودویی در یک آرایه مرتب.
𝐎(𝐧) - زمان خطی
زمان اجرا به صورت خطی با اندازه ورودی افزایش مییابد.
مثال: یافتن یک عنصر در آرایه با پیمایش تمام عناصر.
𝐎(𝐧 𝐥𝐨𝐠 𝐧) - زمان خطی لگاریتمی
زمان اجرا کمی سریعتر از زمان خطی رشد میکند. این پیچیدگی معمولاً شامل تعداد لگاریتمی عملیات برای هر عنصر ورودی است.
مثال: مرتبسازی آرایه با استفاده از الگوریتمهایی مانند quick sort یا merge sort.
𝐎(𝐧^2) - زمان درجه دوم
زمان اجرا به مربع اندازه ورودی وابسته است.
مثال: الگوریتم حبابی که هر جفت از عناصر را مقایسه و در صورت نیاز جابجا میکند.
part1
▶️join: @readmemdd
𝐎(1) - زمان ثابت
زمان اجرا بدون توجه به اندازه ورودی تغییر نمیکند.
مثال: دسترسی به یک عنصر در آرایه با استفاده از ایندکس.
𝐎(𝐥𝐨𝐠 𝐧) - زمان لگاریتمی
زمان اجرا بهآرامی با افزایش اندازه ورودی رشد میکند. معمولاً در الگوریتمهایی دیده میشود که مسئله را در هر مرحله نصف میکنند.
مثال: جستجوی دودویی در یک آرایه مرتب.
𝐎(𝐧) - زمان خطی
زمان اجرا به صورت خطی با اندازه ورودی افزایش مییابد.
مثال: یافتن یک عنصر در آرایه با پیمایش تمام عناصر.
𝐎(𝐧 𝐥𝐨𝐠 𝐧) - زمان خطی لگاریتمی
زمان اجرا کمی سریعتر از زمان خطی رشد میکند. این پیچیدگی معمولاً شامل تعداد لگاریتمی عملیات برای هر عنصر ورودی است.
مثال: مرتبسازی آرایه با استفاده از الگوریتمهایی مانند quick sort یا merge sort.
𝐎(𝐧^2) - زمان درجه دوم
زمان اجرا به مربع اندازه ورودی وابسته است.
مثال: الگوریتم حبابی که هر جفت از عناصر را مقایسه و در صورت نیاز جابجا میکند.
part1
▶️join: @readmemdd
README.md
8 پیچیدگی زمانی مهم که باید بدانید : 𝐎(1) - زمان ثابت زمان اجرا بدون توجه به اندازه ورودی تغییر نمیکند. مثال: دسترسی به یک عنصر در آرایه با استفاده از ایندکس. 𝐎(𝐥𝐨𝐠 𝐧) - زمان لگاریتمی زمان اجرا…
𝐎(2^𝐧) - زمان نمایی
زمان اجرا با هر واحد افزایش در ورودی دو برابر میشود. این الگوریتمها برای ورودیهای بزرگ غیرعملی هستند.
مثال: تولید تمام زیرمجموعههای یک مجموعه.
𝐎(𝐧!) - زمان فاکتوریل
زمان اجرا متناسب با فاکتوریل اندازه ورودی است.
مثال: تولید تمام جایگشتهای یک مجموعه.
𝐎(𝐧^𝐧) - زمان فوقنمایی
زمان اجرا به صورت نمایی با توان اندازه ورودی رشد میکند.
مثال 1 : ساخت تمام مسیرهای ممکن در یک گراف کامل (Complete Graph) که هر گره میتواند به هر گره دیگر متصل شود.
مثال 2 : تولید تمام توابع ممکن از یک مجموعه.
این پیچیدگی حتی سریعتر از O(n!) رشد میکند و برای ورودیهای بسیار کوچک نیز غیرعملی است.
part2
▶️join: @readmemdd
زمان اجرا با هر واحد افزایش در ورودی دو برابر میشود. این الگوریتمها برای ورودیهای بزرگ غیرعملی هستند.
مثال: تولید تمام زیرمجموعههای یک مجموعه.
𝐎(𝐧!) - زمان فاکتوریل
زمان اجرا متناسب با فاکتوریل اندازه ورودی است.
مثال: تولید تمام جایگشتهای یک مجموعه.
𝐎(𝐧^𝐧) - زمان فوقنمایی
زمان اجرا به صورت نمایی با توان اندازه ورودی رشد میکند.
مثال 1 : ساخت تمام مسیرهای ممکن در یک گراف کامل (Complete Graph) که هر گره میتواند به هر گره دیگر متصل شود.
مثال 2 : تولید تمام توابع ممکن از یک مجموعه.
این پیچیدگی حتی سریعتر از O(n!) رشد میکند و برای ورودیهای بسیار کوچک نیز غیرعملی است.
part2
▶️join: @readmemdd
اگر به مباحث سیستم_دیزاین علاقه دارید پیشنهاد میکنم مباحث زیر رو در نظر بگیرید
1) Scalability: https://lnkd.in/gPGhW-qK
2) Availability: https://lnkd.in/gQk2p4_6
3) CAP Theorem: https://lnkd.in/g_tFqJJb
4) ACID Transactions: https://lnkd.in/gKwRkp8j
5) DNS: https://lnkd.in/gkMcZW8V
6) CDN: https://lnkd.in/g2zvPhkA
7) Proxy vs Reverse Proxy: https://lnkd.in/gMTtidBq
Load Balancing: https://lnkd.in/gvxfwEUr
9) API Gateway: https://lnkd.in/gd6t2Pua
10) Latency vs Throughput: https://lnkd.in/g_amhAtN
11) Distributed Caching: https://lnkd.in/gf6pCqdi
12) Caching Strategies: https://lnkd.in/dVk7nZ_Y
13) SQL vs NoSQL: https://lnkd.in/gW_xxyWX
14) Database Indexes: https://lnkd.in/g_-bQWtA
15) Database Sharding: https://lnkd.in/g9mc-d5m
16) Database Scaling: https://lnkd.in/gSUtAwc7
17) SPOF: https://lnkd.in/gw_uHZWn
18) Message Queues: https://lnkd.in/g-jnNGDC
19) WebSockets: https://lnkd.in/gD-TUZep
20) Rate Limiting: https://lnkd.in/gYDxg8XY
21) Consensus: https://lnkd.in/ggc3tFbr
22) Idempotency: https://lnkd.in/gDB3AJij
23) API Design: https://lnkd.in/gse7YHwY
24) HeartBeats: https://lnkd.in/ggvzC9DU
25) Checksums: https://lnkd.in/gGPEKV8b
26) Batch vs Stream Processing: https://lnkd.in/gKtj_qWh
27) Service Discovery: https://lnkd.in/gmy7v783
28) Failover: https://lnkd.in/gMgcupDU
29) Circuit Breaker: https://lnkd.in/gCxyFzKm
30) Bloom Filters: https://lnkd.in/dt4QbSUz
▶️join: @readmemdd
1) Scalability: https://lnkd.in/gPGhW-qK
2) Availability: https://lnkd.in/gQk2p4_6
3) CAP Theorem: https://lnkd.in/g_tFqJJb
4) ACID Transactions: https://lnkd.in/gKwRkp8j
5) DNS: https://lnkd.in/gkMcZW8V
6) CDN: https://lnkd.in/g2zvPhkA
7) Proxy vs Reverse Proxy: https://lnkd.in/gMTtidBq
Load Balancing: https://lnkd.in/gvxfwEUr
9) API Gateway: https://lnkd.in/gd6t2Pua
10) Latency vs Throughput: https://lnkd.in/g_amhAtN
11) Distributed Caching: https://lnkd.in/gf6pCqdi
12) Caching Strategies: https://lnkd.in/dVk7nZ_Y
13) SQL vs NoSQL: https://lnkd.in/gW_xxyWX
14) Database Indexes: https://lnkd.in/g_-bQWtA
15) Database Sharding: https://lnkd.in/g9mc-d5m
16) Database Scaling: https://lnkd.in/gSUtAwc7
17) SPOF: https://lnkd.in/gw_uHZWn
18) Message Queues: https://lnkd.in/g-jnNGDC
19) WebSockets: https://lnkd.in/gD-TUZep
20) Rate Limiting: https://lnkd.in/gYDxg8XY
21) Consensus: https://lnkd.in/ggc3tFbr
22) Idempotency: https://lnkd.in/gDB3AJij
23) API Design: https://lnkd.in/gse7YHwY
24) HeartBeats: https://lnkd.in/ggvzC9DU
25) Checksums: https://lnkd.in/gGPEKV8b
26) Batch vs Stream Processing: https://lnkd.in/gKtj_qWh
27) Service Discovery: https://lnkd.in/gmy7v783
28) Failover: https://lnkd.in/gMgcupDU
29) Circuit Breaker: https://lnkd.in/gCxyFzKm
30) Bloom Filters: https://lnkd.in/dt4QbSUz
▶️join: @readmemdd
lnkd.in
LinkedIn
This link will take you to a page that’s not on LinkedIn
Forwarded from - Sec ⁴⁰⁴ -
Artificial_Intelligence,_Game_Theory_and_Mechanism_Design_in_Politics.pdf
2.8 MB
Artificial Intelligence, Game Theory and Mechanism Design in Politics
Tshilidzi Marwala, 2023
#Artificial_Intelligence #AI
┏━━━━━━━━┓
〓 @SecBookSs
┗━━━━━━━━┛
Tshilidzi Marwala, 2023
#Artificial_Intelligence #AI
┏━━━━━━━━┓
〓 @SecBookSs
┗━━━━━━━━┛
ضرب شست چینیها: R1 > O1
بیشک، رونمایی از مدل DeepSeek R1 داغترین اتفاق چند روز گذشته هوش مصنوعی بود. زلزلهای که لرزههاش به هوش مصنوعی محدود نموند و پسلرزههاش امروز باعث ریزش ۲۰ درصدی قیمت سهام nvidia در ۵ روز گذشته شده و این افت nvidia هم مثل یک دومینو باعث ریزش قیمت بیت کوین و سایررمزارزها شده. اما قضیه کلا از چه قراره و اهمیت DeepSeek R1 در چیه؟
- اولا این که این اولین جهش و درخشش DeepSeek نیست. حدود ۲۰ روز پیش این شرکت چینی، مدل DeepSeek V3 خودش رو به صورت اوپن سورس منتشر کرد. مدلی که در عملکرد بالاتر از Llama و در رقابت نزدیک با GPT-4o قرار میگیره و البته طبق ادعاش تنها با ۵.۵ میلیون دلار آموزش دیده. اهمیت DeepSeek V3 در این بود که آموزش مدل در اون ابعاد مخصوصا با در نظر گرفتن تحریم GPUهای H100 که آمریکا روی چینیها تحمیل کرده کار راحتی نیست. در واقع برای آموزش LLMهایی در این ابعاد باید تعداد بسیار زیادی H100 به هم متصل بشن و با هم آموزش ببینند و آمریکا هم فروش H100 به چین رو ممنوع کرده. سر همین داستان هم، nvidia یک نسخه دستکاریشده از H100 به نام H800 رو که نرخ انتقال داده کمتری نسبت به اون داره رو برای چینیها میسازه و بهشون میفروشه.. و این حدس زده شد که این چینیها GPUهای H800 رو به هم متصل کردند و سپس در سطحی پایینتر از Cuda اونها رو پروگرم کردند تا به چنین عملکردی بتونن برسند.
- دوما اما این که ماجرا به DeepSeek V3 ختم نشد و چینیها پس از پنجه در پنجه انداختن با GPT-4o این بار سراغ زورآزمایی با GPT-o1 رفتند و از مدل DeepSeek R1 رونمایی کردند. نکته این مدل اینه که قدرت reasoning ای در سطح o1 داره، با صرفا ۶ میلیون دلار هزینه درست شده و قیمت اینفرنسش هم نسبت به o1 پایین تره، به طوری که اگر قیمت o1 به ازای هر یک میلیون توکن ورودی و خروجی، ۱۵ دلار و ۶۰ دلاره، این نرخ برای R1 تنها ۰.۵۵ و ۲.۱۹ دلاره!
- سوما، اما نکته فنی که نتونستم ازش عبور کنم، نوآوری R1 در نحوه آموزشش هست. مغز نوآوری که چینیها برای این مدل به خرج دادند اینه که به جای استفاده از SFT مستقیما از RL استفاده کردند. دقت کنید که RL و نه RLHF! یعنی مدل رو صرفا در یک ستینگ RL اون هم با دو ریوارد مدل سادهای که یکیشون جواب نهایی رو قراره چک کنه و یکیشون هم قراره که مدل رو ملزم به خروجی داده در یک فورمت خاصی کنه، آموزش دادند. نکته جالب اینه که این ریوارد مدلها یعنی بسیار ساده هستند و صرفا میشه Rule-Based شون دید. نکته جالب دیگه این که گفتند استفاده از PRM یا همون Process Reward Model هم براشون سود خاصی نداشته و تکنیکهای Inference time compute هم تفاوت چندانی در جواب نداشته. در حالی که این تکنیکها، تکیهگاههای اصلی مدل O1 هستند، R1 بدون چنین تکنیکهایی به چنین سطح عملکرد رسیده. از کل این بند همون bitter lesson در ذهن تداعی میشه که وجود داده و ظرفیت محاسبه کافی، برای رسیدن به هوش کافیه.
- چهارما، حالا چرا سیلیکون ولی و nvidia شوک دیدند؟ حرف و حدیث در این زمینه زیاده. بعضیها با عینک خیلی فنی این جوری تحلیل کردند که شاید این که روش R1 تونسته بدون تکیه بر تکنیکهای Inference Time Compute که مستلزم استفاده بیشتر از قدرت محاسباتی هستند، به AGI نزدیک بشه از اهمیت GPUها کاسته. تکه اولش درسته ولی خب تکه دومش نه، چرا که به هر حال با رواج این مدل هم میزان مصرف GPUها بیشتر میشه. توضیح جالبی که دیدم این بود که اولا این یک شوک موقتی هست و ناشی از سه چیزه. اولا این که بالاخره چینیها تونستند در زمینه مدلهای زبانی به رقابت نزدیک به آمریکا برسند و در حالی که همیشه آزمایشگاههای هوش مصنوعی چینی عقبتر از آمریکاییها بودند، R3 به مثابه یک شوک و نقطه عطف برای مونوپلی آمریکا در هوش میتونه باشه. دوما این که قیمت پایین آموزش و اینفرنس R1 میتونه باعث یک تکانه به وابستگی به nvidia باشه که البته صرفا در حد یک شوک موقته. و سوما هم این که از این زاویه میشه نگاه کرد که DeepSeek تونسته تحریمهای آمریکا در زمینه GPU رو کماثرتر بکنه و شاید این روند در آینده ادامه دار باشه.
- پنجما، آیا DeepSeek برده؟ نه خیر و نه هنوز. چرا که o3 هنوز عملکرد بسیار بهتری نسبت به R1 داره، با این وجود R1 کاراتره، هم میتونه روی دیوایسها اجرا بشه و هم هزینه اینفرنس پایینتری داره و هم با اوپن سورس کردنش فشار رو برای کاهش قیمت به مدلهایی مثل o1 و o1-mini وارد میکنه. باید دید رقابت بین آمریکاییها و چینیها در ادامه چه خواهد شد. الله اعلم.
لینک پیپر R1:
arxiv.org/abs/2501.12948
یک سری لینک مفید دیگه برای توضیحات:
stratechery.com/2025/deepseek-faq/
youtubetranscriptoptimizer.com/blog/05_the_short_case_for_nvda
▶️join: @readmemdd
بیشک، رونمایی از مدل DeepSeek R1 داغترین اتفاق چند روز گذشته هوش مصنوعی بود. زلزلهای که لرزههاش به هوش مصنوعی محدود نموند و پسلرزههاش امروز باعث ریزش ۲۰ درصدی قیمت سهام nvidia در ۵ روز گذشته شده و این افت nvidia هم مثل یک دومینو باعث ریزش قیمت بیت کوین و سایررمزارزها شده. اما قضیه کلا از چه قراره و اهمیت DeepSeek R1 در چیه؟
- اولا این که این اولین جهش و درخشش DeepSeek نیست. حدود ۲۰ روز پیش این شرکت چینی، مدل DeepSeek V3 خودش رو به صورت اوپن سورس منتشر کرد. مدلی که در عملکرد بالاتر از Llama و در رقابت نزدیک با GPT-4o قرار میگیره و البته طبق ادعاش تنها با ۵.۵ میلیون دلار آموزش دیده. اهمیت DeepSeek V3 در این بود که آموزش مدل در اون ابعاد مخصوصا با در نظر گرفتن تحریم GPUهای H100 که آمریکا روی چینیها تحمیل کرده کار راحتی نیست. در واقع برای آموزش LLMهایی در این ابعاد باید تعداد بسیار زیادی H100 به هم متصل بشن و با هم آموزش ببینند و آمریکا هم فروش H100 به چین رو ممنوع کرده. سر همین داستان هم، nvidia یک نسخه دستکاریشده از H100 به نام H800 رو که نرخ انتقال داده کمتری نسبت به اون داره رو برای چینیها میسازه و بهشون میفروشه.. و این حدس زده شد که این چینیها GPUهای H800 رو به هم متصل کردند و سپس در سطحی پایینتر از Cuda اونها رو پروگرم کردند تا به چنین عملکردی بتونن برسند.
- دوما اما این که ماجرا به DeepSeek V3 ختم نشد و چینیها پس از پنجه در پنجه انداختن با GPT-4o این بار سراغ زورآزمایی با GPT-o1 رفتند و از مدل DeepSeek R1 رونمایی کردند. نکته این مدل اینه که قدرت reasoning ای در سطح o1 داره، با صرفا ۶ میلیون دلار هزینه درست شده و قیمت اینفرنسش هم نسبت به o1 پایین تره، به طوری که اگر قیمت o1 به ازای هر یک میلیون توکن ورودی و خروجی، ۱۵ دلار و ۶۰ دلاره، این نرخ برای R1 تنها ۰.۵۵ و ۲.۱۹ دلاره!
- سوما، اما نکته فنی که نتونستم ازش عبور کنم، نوآوری R1 در نحوه آموزشش هست. مغز نوآوری که چینیها برای این مدل به خرج دادند اینه که به جای استفاده از SFT مستقیما از RL استفاده کردند. دقت کنید که RL و نه RLHF! یعنی مدل رو صرفا در یک ستینگ RL اون هم با دو ریوارد مدل سادهای که یکیشون جواب نهایی رو قراره چک کنه و یکیشون هم قراره که مدل رو ملزم به خروجی داده در یک فورمت خاصی کنه، آموزش دادند. نکته جالب اینه که این ریوارد مدلها یعنی بسیار ساده هستند و صرفا میشه Rule-Based شون دید. نکته جالب دیگه این که گفتند استفاده از PRM یا همون Process Reward Model هم براشون سود خاصی نداشته و تکنیکهای Inference time compute هم تفاوت چندانی در جواب نداشته. در حالی که این تکنیکها، تکیهگاههای اصلی مدل O1 هستند، R1 بدون چنین تکنیکهایی به چنین سطح عملکرد رسیده. از کل این بند همون bitter lesson در ذهن تداعی میشه که وجود داده و ظرفیت محاسبه کافی، برای رسیدن به هوش کافیه.
- چهارما، حالا چرا سیلیکون ولی و nvidia شوک دیدند؟ حرف و حدیث در این زمینه زیاده. بعضیها با عینک خیلی فنی این جوری تحلیل کردند که شاید این که روش R1 تونسته بدون تکیه بر تکنیکهای Inference Time Compute که مستلزم استفاده بیشتر از قدرت محاسباتی هستند، به AGI نزدیک بشه از اهمیت GPUها کاسته. تکه اولش درسته ولی خب تکه دومش نه، چرا که به هر حال با رواج این مدل هم میزان مصرف GPUها بیشتر میشه. توضیح جالبی که دیدم این بود که اولا این یک شوک موقتی هست و ناشی از سه چیزه. اولا این که بالاخره چینیها تونستند در زمینه مدلهای زبانی به رقابت نزدیک به آمریکا برسند و در حالی که همیشه آزمایشگاههای هوش مصنوعی چینی عقبتر از آمریکاییها بودند، R3 به مثابه یک شوک و نقطه عطف برای مونوپلی آمریکا در هوش میتونه باشه. دوما این که قیمت پایین آموزش و اینفرنس R1 میتونه باعث یک تکانه به وابستگی به nvidia باشه که البته صرفا در حد یک شوک موقته. و سوما هم این که از این زاویه میشه نگاه کرد که DeepSeek تونسته تحریمهای آمریکا در زمینه GPU رو کماثرتر بکنه و شاید این روند در آینده ادامه دار باشه.
- پنجما، آیا DeepSeek برده؟ نه خیر و نه هنوز. چرا که o3 هنوز عملکرد بسیار بهتری نسبت به R1 داره، با این وجود R1 کاراتره، هم میتونه روی دیوایسها اجرا بشه و هم هزینه اینفرنس پایینتری داره و هم با اوپن سورس کردنش فشار رو برای کاهش قیمت به مدلهایی مثل o1 و o1-mini وارد میکنه. باید دید رقابت بین آمریکاییها و چینیها در ادامه چه خواهد شد. الله اعلم.
لینک پیپر R1:
arxiv.org/abs/2501.12948
یک سری لینک مفید دیگه برای توضیحات:
stratechery.com/2025/deepseek-faq/
youtubetranscriptoptimizer.com/blog/05_the_short_case_for_nvda
▶️join: @readmemdd
arXiv.org
DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via...
We introduce our first-generation reasoning models, DeepSeek-R1-Zero and DeepSeek-R1. DeepSeek-R1-Zero, a model trained via large-scale reinforcement learning (RL) without supervised fine-tuning...
ساعاتی پیش DeepSeek مدل هوشمصنوعی Multimodal خود با نام Janus-Pro-7b که قابلیتهایی نظیر تولید عکس از متن دارد را به صورت متنباز منتشر کرد.
https://huggingface.co/deepseek-ai/Janus-Pro-7B
https://github.com/deepseek-ai/Janus
▶️join: @readmemdd
https://huggingface.co/deepseek-ai/Janus-Pro-7B
https://github.com/deepseek-ai/Janus
▶️join: @readmemdd
- خب آقا داماد چیکارن؟
+ متخصص امنیت 🗿
- چیکار میکنن دقیقا؟
+ هیچی، اول همه فایلا انیکاد میذاره که از نفوذ شیطان به دور باشه☝️
▶️join: @readmemdd
+ متخصص امنیت 🗿
- چیکار میکنن دقیقا؟
+ هیچی، اول همه فایلا انیکاد میذاره که از نفوذ شیطان به دور باشه☝️
▶️join: @readmemdd
یه تیندر ولی برای برنامهنویسها، داخلش میتونن دوست برنامهنویس یا همکار پیدا کنن، از ایران هم پشتیبانی میکنه و مابقی فرایندهاش هم مثل تیندر هست یعنی swipe کنی، match شی، چت کنی.
https://codenearby.space
▶️join: @readmemdd
https://codenearby.space
▶️join: @readmemdd
CodeNearby
Find developers near you, share ideas, and build something awesome together.
Many managers see QA as a cost, not a value driver.
Why?
⚠ QA doesn’t directly build features, so the impact is less visible.
⚠ When testing is done well, nobody notices because nothing breaks.
⚠ Companies assume developers can “test their code.”
But here’s the reality:
A great QA engineer doesn’t just find bugs, they prevent disasters.
What needs to change?
✔ Every project needs a dedicated QA team. Testing isn’t optional.
✔ QA should verify as much as possible, not just functionality but usability, performance, and security.
✔ QAs need proper tools and training to test efficiently and uncover hidden risks.
✔ QA should be recognized. Preventing failures is just as valuable as delivering features.
Next time you enjoy a smooth, bug-free experience, remember:
A QA engineer made that possible.
▶️join: @readmemdd
Why?
⚠ QA doesn’t directly build features, so the impact is less visible.
⚠ When testing is done well, nobody notices because nothing breaks.
⚠ Companies assume developers can “test their code.”
But here’s the reality:
A great QA engineer doesn’t just find bugs, they prevent disasters.
What needs to change?
✔ Every project needs a dedicated QA team. Testing isn’t optional.
✔ QA should verify as much as possible, not just functionality but usability, performance, and security.
✔ QAs need proper tools and training to test efficiently and uncover hidden risks.
✔ QA should be recognized. Preventing failures is just as valuable as delivering features.
Next time you enjoy a smooth, bug-free experience, remember:
A QA engineer made that possible.
▶️join: @readmemdd
Add tests for InvokeSerializedClosureCommand
This PR adds comprehensive tests for the
The tests cover the following scenarios:
- Invoking a serialized closure from command argument
- Invoking a serialized closure from environment variable
- Default handling when no closure is provided
- Proper exception handling
- Custom exception parameters capture
These tests ensure that the command, which is used by the Concurrency system to execute serialized closures in separate processes, functions correctly in all scenarios.
https://github.com/laravel/framework/pull/55281
▶️join: @readmemdd
This PR adds comprehensive tests for the
InvokeSerializedClosureCommand
class located in the Concurrency component.The tests cover the following scenarios:
- Invoking a serialized closure from command argument
- Invoking a serialized closure from environment variable
- Default handling when no closure is provided
- Proper exception handling
- Custom exception parameters capture
These tests ensure that the command, which is used by the Concurrency system to execute serialized closures in separate processes, functions correctly in all scenarios.
https://github.com/laravel/framework/pull/55281
▶️join: @readmemdd
GitHub
Add tests for InvokeSerializedClosureCommand by Amirhf1 · Pull Request #55281 · laravel/framework
This PR adds comprehensive tests for the InvokeSerializedClosureCommand class located in the Concurrency component.
The tests cover the following scenarios:
Invoking a serialized closure from comm...
The tests cover the following scenarios:
Invoking a serialized closure from comm...
It might sound controversial but the difference between most $60k and $200k software engineers is this:
6 months of LeetCode grind.
I have talked with brilliant SWEs who are earning tops $100k.
I have talked with SWEs who are making more than $200k who are not geniuses.
The difference in almost all of them is Leetcode and a good Interview Prep strategy.
6 months grind.
With a strategy.
With 1-3 hours investment per day.
There are 3000+ problems on Leetcode.
If you do just 300 quality problems with more focus on understanding the pattern than solving it
you can clear almost any Interview that’s out there.
$60k to $200k in 6-8 months
I have seen several SWEs realising it and transforming their life.
It’s only a matter of when you realize it
▶️join: @readmemdd
6 months of LeetCode grind.
I have talked with brilliant SWEs who are earning tops $100k.
I have talked with SWEs who are making more than $200k who are not geniuses.
The difference in almost all of them is Leetcode and a good Interview Prep strategy.
6 months grind.
With a strategy.
With 1-3 hours investment per day.
There are 3000+ problems on Leetcode.
If you do just 300 quality problems with more focus on understanding the pattern than solving it
you can clear almost any Interview that’s out there.
$60k to $200k in 6-8 months
I have seen several SWEs realising it and transforming their life.
It’s only a matter of when you realize it
▶️join: @readmemdd
همهمون این مسیر رو رفتیم... 👨💻
از ساده نوشتن چون بلد نبودیم،
تا پیچیده نوشتن چون فکر میکردیم حرفهای شدیم،
و در نهایت برگشتن به سادگی، چون فهمیدیم سادگی یعنی بلوغ.
🔁 این چرخهی جونیور تا سینیوره؛
سادگیای که از تجربه میاد، نه ناتوانی.
شما تو کدوم مرحلهاید؟ 😄
▶️join: @readmemdd
از ساده نوشتن چون بلد نبودیم،
تا پیچیده نوشتن چون فکر میکردیم حرفهای شدیم،
و در نهایت برگشتن به سادگی، چون فهمیدیم سادگی یعنی بلوغ.
🔁 این چرخهی جونیور تا سینیوره؛
سادگیای که از تجربه میاد، نه ناتوانی.
شما تو کدوم مرحلهاید؟ 😄
▶️join: @readmemdd
Prompt Engineering_v7.pdf
6.5 MB
هنر گفتگو با هوش مصنوعی: راهنمای جامع Prompt Engineering از گوگل
گوگل یه کتابچه (Whitepaper) عالی منتشر کرده که تکنیکهای کلیدی (مثل Zero-shot, Few-shot, CoT) و بهترین روشها (Best Practices) رو کامل توضیح داده.
چرا برای مدیران محصول مهمه؟
کمک میکنه نیازمندیهای AI رو دقیقتر تعریف کنیم، مدلها رو بهتر تست کنیم و در نهایت محصولات هوشمندتری بسازیم.
#LLM #PromptEngineering #AI
▶️join: @readmemdd
گوگل یه کتابچه (Whitepaper) عالی منتشر کرده که تکنیکهای کلیدی (مثل Zero-shot, Few-shot, CoT) و بهترین روشها (Best Practices) رو کامل توضیح داده.
چرا برای مدیران محصول مهمه؟
کمک میکنه نیازمندیهای AI رو دقیقتر تعریف کنیم، مدلها رو بهتر تست کنیم و در نهایت محصولات هوشمندتری بسازیم.
#LLM #PromptEngineering #AI
▶️join: @readmemdd
https://github.com/PatrickJS/awesome-cursorrules/tree/main
Awesome CursorRules
A curated list of awesome .cursorrules files for enhancing your Cursor AI experience.
Why .cursorrules?
.cursorrules is a powerful feature in Cursor AI that allows developers to define project-specific instructions for the AI. Here's why you might want to use it:
1. Customized AI Behavior: .cursorrules files help tailor the AI's responses to your project's specific needs, ensuring more relevant and accurate code suggestions.
2. Consistency: By defining coding standards and best practices in your .cursorrules file, you can ensure that the AI generates code that aligns with your project's style guidelines.
3. Context Awareness: You can provide the AI with important context about your project, such as commonly used methods, architectural decisions, or specific libraries, leading to more informed code generation.
4. Improved Productivity: With well-defined rules, the AI can generate code that requires less manual editing, speeding up your development process.
5. Team Alignment: For team projects, a shared .cursorrules file ensures that all team members receive consistent AI assistance, promoting cohesion in coding practices.
6. Project-Specific Knowledge: You can include information about your project's structure, dependencies, or unique requirements, helping the AI to provide more accurate and relevant suggestions.
By creating a .cursorrules file in your project's root directory, you can leverage these benefits and enhance your coding experience with Cursor AI.
#tools #cursor
▶️join: @readmemdd
Awesome CursorRules
A curated list of awesome .cursorrules files for enhancing your Cursor AI experience.
Why .cursorrules?
.cursorrules is a powerful feature in Cursor AI that allows developers to define project-specific instructions for the AI. Here's why you might want to use it:
1. Customized AI Behavior: .cursorrules files help tailor the AI's responses to your project's specific needs, ensuring more relevant and accurate code suggestions.
2. Consistency: By defining coding standards and best practices in your .cursorrules file, you can ensure that the AI generates code that aligns with your project's style guidelines.
3. Context Awareness: You can provide the AI with important context about your project, such as commonly used methods, architectural decisions, or specific libraries, leading to more informed code generation.
4. Improved Productivity: With well-defined rules, the AI can generate code that requires less manual editing, speeding up your development process.
5. Team Alignment: For team projects, a shared .cursorrules file ensures that all team members receive consistent AI assistance, promoting cohesion in coding practices.
6. Project-Specific Knowledge: You can include information about your project's structure, dependencies, or unique requirements, helping the AI to provide more accurate and relevant suggestions.
By creating a .cursorrules file in your project's root directory, you can leverage these benefits and enhance your coding experience with Cursor AI.
#tools #cursor
▶️join: @readmemdd
GitHub
GitHub - PatrickJS/awesome-cursorrules: 📄 A curated list of awesome .cursorrules files
📄 A curated list of awesome .cursorrules files. Contribute to PatrickJS/awesome-cursorrules development by creating an account on GitHub.