README.md
294 subscribers
20 photos
9 files
608 links
Everything about software engineering
⌨️

https://t.me/boost/readmemdd
Download Telegram
8 پیچیدگی زمانی مهم که باید بدانید :



𝐎(1) - زمان ثابت
زمان اجرا بدون توجه به اندازه ورودی تغییر نمی‌کند.
مثال: دسترسی به یک عنصر در آرایه با استفاده از ایندکس.

𝐎(𝐥𝐨𝐠 𝐧) - زمان لگاریتمی
زمان اجرا به‌آرامی با افزایش اندازه ورودی رشد می‌کند. معمولاً در الگوریتم‌هایی دیده می‌شود که مسئله را در هر مرحله نصف می‌کنند.
مثال: جستجوی دودویی در یک آرایه مرتب.

𝐎(𝐧) - زمان خطی
زمان اجرا به صورت خطی با اندازه ورودی افزایش می‌یابد.
مثال: یافتن یک عنصر در آرایه با پیمایش تمام عناصر.

𝐎(𝐧 𝐥𝐨𝐠 𝐧) - زمان خطی لگاریتمی
زمان اجرا کمی سریع‌تر از زمان خطی رشد می‌کند. این پیچیدگی معمولاً شامل تعداد لگاریتمی عملیات برای هر عنصر ورودی است.
مثال: مرتب‌سازی آرایه با استفاده از الگوریتم‌هایی مانند quick sort یا merge sort.

𝐎(𝐧^2) - زمان درجه دوم
زمان اجرا به مربع اندازه ورودی وابسته است.
مثال: الگوریتم حبابی که هر جفت از عناصر را مقایسه و در صورت نیاز جابجا می‌کند.

part1

▶️join: @readmemdd
README.md
8 پیچیدگی زمانی مهم که باید بدانید : 𝐎(1) - زمان ثابت زمان اجرا بدون توجه به اندازه ورودی تغییر نمی‌کند. مثال: دسترسی به یک عنصر در آرایه با استفاده از ایندکس. 𝐎(𝐥𝐨𝐠 𝐧) - زمان لگاریتمی زمان اجرا…
𝐎(2^𝐧) - زمان نمایی
زمان اجرا با هر واحد افزایش در ورودی دو برابر می‌شود. این الگوریتم‌ها برای ورودی‌های بزرگ غیرعملی هستند.
مثال: تولید تمام زیرمجموعه‌های یک مجموعه.

𝐎(𝐧!) - زمان فاکتوریل
زمان اجرا متناسب با فاکتوریل اندازه ورودی است.
مثال: تولید تمام جایگشت‌های یک مجموعه.

𝐎(𝐧^𝐧) - زمان فوق‌نمایی
زمان اجرا به صورت نمایی با توان اندازه ورودی رشد می‌کند.
مثال 1 : ساخت تمام مسیرهای ممکن در یک گراف کامل (Complete Graph) که هر گره می‌تواند به هر گره دیگر متصل شود.
مثال 2 : تولید تمام توابع ممکن از یک مجموعه.
این پیچیدگی حتی سریع‌تر از O(n!) رشد می‌کند و برای ورودی‌های بسیار کوچک نیز غیرعملی است.

part2
▶️join: @readmemdd
Welcome to my YouDoobe channel. 😶‍🌫️

▶️join: @readmemdd
اگر به مباحث سیستم_دیزاین علاقه دارید پیشنهاد میکنم مباحث زیر رو در نظر بگیرید

1) Scalability: https://lnkd.in/gPGhW-qK
2) Availability: https://lnkd.in/gQk2p4_6
3) CAP Theorem: https://lnkd.in/g_tFqJJb
4) ACID Transactions: https://lnkd.in/gKwRkp8j
5) DNS: https://lnkd.in/gkMcZW8V
6) CDN: https://lnkd.in/g2zvPhkA
7) Proxy vs Reverse Proxy: https://lnkd.in/gMTtidBq
Load Balancing: https://lnkd.in/gvxfwEUr
9) API Gateway: https://lnkd.in/gd6t2Pua
10) Latency vs Throughput: https://lnkd.in/g_amhAtN
11) Distributed Caching: https://lnkd.in/gf6pCqdi
12) Caching Strategies: https://lnkd.in/dVk7nZ_Y
13) SQL vs NoSQL: https://lnkd.in/gW_xxyWX
14) Database Indexes: https://lnkd.in/g_-bQWtA
15) Database Sharding: https://lnkd.in/g9mc-d5m
16) Database Scaling: https://lnkd.in/gSUtAwc7
17) SPOF: https://lnkd.in/gw_uHZWn
18) Message Queues: https://lnkd.in/g-jnNGDC
19) WebSockets: https://lnkd.in/gD-TUZep
20) Rate Limiting: https://lnkd.in/gYDxg8XY
21) Consensus: https://lnkd.in/ggc3tFbr
22) Idempotency: https://lnkd.in/gDB3AJij
23) API Design: https://lnkd.in/gse7YHwY
24) HeartBeats: https://lnkd.in/ggvzC9DU
25) Checksums: https://lnkd.in/gGPEKV8b
26) Batch vs Stream Processing: https://lnkd.in/gKtj_qWh
27) Service Discovery: https://lnkd.in/gmy7v783
28) Failover: https://lnkd.in/gMgcupDU
29) Circuit Breaker: https://lnkd.in/gCxyFzKm
30) Bloom Filters: https://lnkd.in/dt4QbSUz

▶️join: @readmemdd
Please open Telegram to view this post
VIEW IN TELEGRAM
▶️join: @readmemdd
Forwarded from - Sec ⁴⁰⁴ -
Artificial_Intelligence,_Game_Theory_and_Mechanism_Design_in_Politics.pdf
2.8 MB
Artificial Intelligence, Game Theory and Mechanism Design in Politics

Tshilidzi Marwala, 2023

#Artificial_Intelligence #AI
┏━━━━━━━━┓
@SecBookSs
┗━━━━━━━━┛
ضرب شست چینی‌ها:‌ R1 > O1

بی‌شک، رونمایی از مدل DeepSeek R1 داغ‌ترین اتفاق چند روز گذشته هوش مصنوعی بود. زلزله‌ای که لرزه‌هاش به هوش مصنوعی محدود نموند و پس‌لرزه‌هاش امروز باعث ریزش ۲۰ درصدی قیمت سهام nvidia در ۵ روز گذشته شده و این افت nvidia هم مثل یک دومینو باعث ریزش قیمت بیت کوین و سایررمز‌ارزها شده. اما قضیه کلا از چه قراره و اهمیت DeepSeek R1 در چیه؟

- اولا این که این اولین جهش و درخشش DeepSeek نیست. حدود ۲۰ روز پیش این شرکت چینی، مدل DeepSeek V3 خودش رو به صورت اوپن سورس منتشر کرد. مدلی که در عملکرد بالاتر از Llama و در رقابت نزدیک با GPT-4o قرار می‌گیره و البته طبق ادعاش تنها با ۵.۵ میلیون دلار آموزش دیده. اهمیت DeepSeek V3 در این بود که آموزش مدل در اون ابعاد مخصوصا با در نظر گرفتن تحریم GPU‌های H100 که آمریکا روی چینی‌ها تحمیل کرده کار راحتی نیست. در واقع برای آموزش LLM‌هایی در این ابعاد باید تعداد بسیار زیادی H100 به هم متصل بشن و با هم آموزش ببینند و آمریکا هم فروش H100 به چین رو ممنوع کرده. سر همین داستان هم، nvidia یک نسخه دستکاری‌شده از H100 به نام H800 رو که نرخ انتقال داده کمتری نسبت به اون داره رو برای چینی‌ها می‌سازه و بهشون می‌فروشه.. و این حدس زده شد که این‌ چینی‌ها GPU‌های H800 رو به هم متصل کردند و سپس در سطحی پایین‌تر از Cuda اونها رو پروگرم کردند تا به چنین عملکردی بتونن برسند.

- دوما اما این که ماجرا به DeepSeek V3 ختم نشد و چینی‌ها پس از پنجه در پنجه انداختن با GPT-4o این بار سراغ زورآزمایی با GPT-o1 رفتند و از مدل DeepSeek R1 رونمایی کردند. نکته این مدل اینه که قدرت reasoning ای در سطح o1 داره، با صرفا ۶ میلیون دلار هزینه درست شده و قیمت اینفرنسش هم نسبت به o1 پایین تره، به طوری که اگر قیمت o1 به ازای هر یک میلیون توکن ورودی و خروجی، ۱۵ دلار و ۶۰ دلاره، این نرخ برای R1 تنها ۰.۵۵ و ۲.۱۹ دلاره!

- سوما، اما نکته‌ فنی که نتونستم ازش عبور کنم، نوآوری R1 در نحوه آموزشش هست. مغز نوآوری که چینی‌ها برای این مدل به خرج دادند اینه که به جای استفاده از SFT مستقیما از RL استفاده کردند. دقت کنید که RL و نه RLHF! یعنی مدل رو صرفا در یک ستینگ RL اون هم با دو ریوارد مدل ساده‌ای که یکیشون جواب نهایی رو قراره چک کنه و یکیشون هم قراره که مدل رو ملزم به خروجی داده در یک فورمت خاصی کنه، آموزش دادند. نکته جالب اینه که این ریوارد مدل‌ها یعنی بسیار ساده هستند و صرفا می‌شه Rule-Based شون دید. نکته جالب دیگه این که گفتند استفاده از PRM یا همون Process Reward Model هم براشون سود خاصی نداشته و تکنیک‌های Inference time compute هم تفاوت چندانی در جواب نداشته. در حالی که این تکنیک‌ها، تکیه‌گاه‌های اصلی مدل O1 هستند، R1 بدون چنین تکنیک‌هایی به چنین سطح عملکرد رسیده. از کل این بند همون bitter lesson در ذهن تداعی می‌شه که وجود داده و ظرفیت محاسبه کافی،‌ برای رسیدن به هوش کافیه.

- چهارما، حالا چرا سیلیکون ولی و nvidia شوک دیدند؟ حرف‌ و حدیث در این زمینه زیاده. بعضی‌ها با عینک خیلی فنی این جوری تحلیل کردند که شاید این که روش R1 تونسته بدون تکیه بر تکنیک‌های Inference Time Compute که مستلزم استفاده بیشتر از قدرت محاسباتی هستند، به AGI نزدیک بشه از اهمیت GPU‌ها کاسته. تکه اولش درسته ولی خب تکه دومش نه، چرا که به هر حال با رواج این مدل هم میزان مصرف GPU‌ها بیشتر میشه. توضیح جالبی که دیدم این بود که اولا این یک شوک موقتی هست و ناشی از سه چیزه. اولا این که بالاخره چینی‌ها تونستند در زمینه مدل‌های زبانی به رقابت نزدیک به آمریکا برسند و در حالی که همیشه آزمایشگاه‌های هوش مصنوعی چینی عقب‌تر از آمریکایی‌‌ها بودند، R3 به مثابه یک شوک و نقطه عطف برای مونوپلی آمریکا در هوش می‌تونه باشه. دوما این که قیمت پایین‌ آموزش و اینفرنس R1 می‌تونه باعث یک تکانه به وابستگی به nvidia باشه که البته صرفا در حد یک شوک موقته. و سوما هم این که از این زاویه می‌شه نگاه کرد که DeepSeek تونسته تحریم‌های آمریکا در زمینه GPU رو کم‌اثرتر بکنه و شاید این روند در آینده ادامه دار باشه.

- پنجما، آیا DeepSeek برده؟ نه خیر و نه هنوز. چرا که o3 هنوز عملکرد بسیار بهتری نسبت به R1 داره، با این وجود R1 کاراتره، هم می‌تونه روی دیوایس‌ها اجرا بشه و هم هزینه اینفرنس پایین‌تری داره و هم با اوپن سورس کردنش فشار رو برای کاهش قیمت به مدل‌هایی مثل o1 و o1-mini وارد می‌کنه. باید دید رقابت بین آمریکایی‌ها و چینی‌ها در ادامه چه خواهد شد. الله اعلم.

لینک پیپر R1:
arxiv.org/abs/2501.12948

یک سری لینک مفید دیگه برای توضیحات:
stratechery.com/2025/deepseek-faq/
youtubetranscriptoptimizer.com/blog/05_the_short_case_for_nvda


▶️join: @readmemdd
ساعاتی پیش DeepSeek مدل هوش‌مصنوعی Multimodal خود با نام Janus-Pro-7b که قابلیت‌هایی نظیر تولید عکس از متن دارد را به صورت متن‌باز منتشر کرد.

https://huggingface.co/deepseek-ai/Janus-Pro-7B

https://github.com/deepseek-ai/Janus

▶️join: @readmemdd
- خب آقا داماد چیکارن؟
‏+ متخصص امنیت 🗿
‏- چیکار میکنن دقیقا؟
‏+ هیچی، اول همه فایلا ان‌یکاد میذاره که از نفوذ شیطان به دور باشه☝️

▶️join: @readmemdd
Forwarded from Gopher Academy
یه تیندر ولی برای برنامه‌نویس‌ها، داخلش میتونن دوست برنامه‌نویس یا همکار پیدا کنن، از ایران هم پشتیبانی میکنه و مابقی فرایند‌هاش هم مثل تیندر هست یعنی swipe کنی، match شی، چت کنی.
https://codenearby.space

▶️join: @readmemdd
Many managers see QA as a cost, not a value driver.

Why?
QA doesn’t directly build features, so the impact is less visible.
When testing is done well, nobody notices because nothing breaks.
Companies assume developers can “test their code.”

But here’s the reality:

A great QA engineer doesn’t just find bugs, they prevent disasters.

What needs to change?
Every project needs a dedicated QA team. Testing isn’t optional.
QA should verify as much as possible, not just functionality but usability, performance, and security.
QAs need proper tools and training to test efficiently and uncover hidden risks.
QA should be recognized. Preventing failures is just as valuable as delivering features.

Next time you enjoy a smooth, bug-free experience, remember:

A QA engineer made that possible.

▶️join: @readmemdd
Add tests for InvokeSerializedClosureCommand

This PR adds comprehensive tests for the InvokeSerializedClosureCommand class located in the Concurrency component.

The tests cover the following scenarios:
- Invoking a serialized closure from command argument
- Invoking a serialized closure from environment variable
- Default handling when no closure is provided
- Proper exception handling
- Custom exception parameters capture

These tests ensure that the command, which is used by the Concurrency system to execute serialized closures in separate processes, functions correctly in all scenarios.

https://github.com/laravel/framework/pull/55281


▶️join: @readmemdd
It might sound controversial but the difference between most $60k and $200k software engineers is this:

6 months of LeetCode grind.

I have talked with brilliant SWEs who are earning tops $100k.

I have talked with SWEs who are making more than $200k who are not geniuses.

The difference in almost all of them is Leetcode and a good Interview Prep strategy.

6 months grind.
With a strategy.
With 1-3 hours investment per day.

There are 3000+ problems on Leetcode.

If you do just 300 quality problems with more focus on understanding the pattern than solving it

you can clear almost any Interview that’s out there.

$60k to $200k in 6-8 months

I have seen several SWEs realising it and transforming their life.

It’s only a matter of when you realize it

▶️join: @readmemdd
همه‌مون این مسیر رو رفتیم... 👨‍💻
از ساده نوشتن چون بلد نبودیم،
تا پیچیده نوشتن چون فکر می‌کردیم حرفه‌ای شدیم،
و در نهایت برگشتن به سادگی، چون فهمیدیم سادگی یعنی بلوغ.
🔁 این چرخه‌ی جونیور تا سینیوره؛
سادگی‌ای که از تجربه میاد، نه ناتوانی.
شما تو کدوم مرحله‌اید؟ 😄


▶️join: @readmemdd
Prompt Engineering_v7.pdf
6.5 MB
هنر گفتگو با هوش مصنوعی: راهنمای جامع Prompt Engineering از گوگل

گوگل یه کتابچه (Whitepaper) عالی منتشر کرده که تکنیک‌های کلیدی (مثل Zero-shot, Few-shot, CoT) و بهترین روش‌ها (Best Practices) رو کامل توضیح داده.

چرا برای مدیران محصول مهمه؟
کمک می‌کنه نیازمندی‌های AI رو دقیق‌تر تعریف کنیم، مدل‌ها رو بهتر تست کنیم و در نهایت محصولات هوشمندتری بسازیم.

#LLM #PromptEngineering #AI

▶️join: @readmemdd
https://github.com/PatrickJS/awesome-cursorrules/tree/main

Awesome CursorRules

A curated list of awesome .cursorrules files for enhancing your Cursor AI experience.

Why .cursorrules?

.cursorrules is a powerful feature in Cursor AI that allows developers to define project-specific instructions for the AI. Here's why you might want to use it:

1. Customized AI Behavior: .cursorrules files help tailor the AI's responses to your project's specific needs, ensuring more relevant and accurate code suggestions.

2. Consistency: By defining coding standards and best practices in your .cursorrules file, you can ensure that the AI generates code that aligns with your project's style guidelines.

3. Context Awareness: You can provide the AI with important context about your project, such as commonly used methods, architectural decisions, or specific libraries, leading to more informed code generation.

4. Improved Productivity: With well-defined rules, the AI can generate code that requires less manual editing, speeding up your development process.

5. Team Alignment: For team projects, a shared .cursorrules file ensures that all team members receive consistent AI assistance, promoting cohesion in coding practices.

6. Project-Specific Knowledge: You can include information about your project's structure, dependencies, or unique requirements, helping the AI to provide more accurate and relevant suggestions.

By creating a .cursorrules file in your project's root directory, you can leverage these benefits and enhance your coding experience with Cursor AI.

#tools #cursor

▶️join: @readmemdd