Algorithm design & data structure
6.63K subscribers
950 photos
142 videos
175 files
545 links
این کانال برای تمامی علاقه‌مندان به کامپیوتر، مخصوصاً حوزه ساختمان داده‌ها و الگوریتم‌ها، مفید می باشد. آشنایی با ریاضیات مقدماتی، برنامه‌نویسی مقدماتی و پیشرفته و همچنین شی‌گرایی می‌تواند در درک بهتر مفاهیم این درس کمک‌ کند.

👨‍💻Admin👉 @Se_mohamad
Download Telegram
✔️سودمندی دنباله ای از اعمال(تخفیف)
🔴اگر به زندگی روزمره توجه کنید شما در هنگام خرید یک کالا نقد را به نسیه ترجیح میدهید یا کالایی را خریداری میکنید که سود بیشتری برا شما دارد. در اینجا هم ما به دنبال بیشینه کردن مجموع سودها هستیم همچنین ترجیح دادن جوایز فعلی(نقد) به جوایز آینده(نسیه) عقلانی است.
🔍 یک راه حل این است که میزان سودمندی ها را با گذشت زمان به صورت نمایی کم شود البته باید توجه کنید که ϒ باید بین 0 و 1 باشد.
حال ممکن است سوالی برایتان پیش بیاید چرا تخفیف اعمال میکنیم؟ یکی از دلایل استفاده از آن این است که باعث کمک به همگرایی الگوریتم میشود و یکی دیگر جوایزی که زودتر دریافت میشوند سودمندی یا ضرر بیشتری دارند.
نحوه ی اعمال آن به این صورت می باشد که در صورتی که قرار باشد به حالت بعدی یعنی از حالت S به حالت Sُ برویم جایزه آن حالت را در فاکتور تخفیف ضرب میکنیم.

📣👨‍💻 @AlgorithmDesign_DataStructuer
👍3
All Lectures.pdf
68 MB
جزوه‌ی درسی «جبر خطی ۱» دانشگاه آکسفورد

برای دسترسی به اسلاید ها و وب سایت درس روی لینک زیر کلیک کنید.
📚Linear Algebra 1

📣👨‍💻 @AlgorithmDesign_DataStructuer
🙏3
به دست آوردن ترانهاده:
import numpy as np

Martrix = np.array([[1, 2] , [3, 4] , [5, 6]])
print(Martrix)
Martrix => 3x2
[[1 2]
[3 4]
[5 6]]

Martrix_transpose = np.transpose(Martrix)

print(Martrix_transpose)
[[1 3 5]
[2 4 6]]
Martrix_transpose => 2x3



📣👨‍💻 @AlgorithmDesign_DataStructuer
👍4
هرس کردن گره ها در فضای جستجو حل برای کدام یک از روش های حل زیر یک اصل اساسی می باشد؟
Anonymous Quiz
18%
تقسیم و غلبه
35%
برنامه نویسی پویا
27%
عقبگرد
20%
انشعاب و تحدید
سلام به همگی👋🏻🤗
در آغازین لحظات زندگی، شما از شیر مادرانه خود تغذیه می‌شوید، این تجربه‌ی ناب انسانی، اولین قدم در جهت فراموش کردن بوی کودکی است. این فرایند نشان می‌دهد که برای از دست دادن چیزی که دوستش دارید، چه ارزشمند و چالش برانگیز است. این درس زندگی به ما آموزش می‌دهد که بسیاری از چیزهایی که دوست داریم، ممکن است در طول زمان از دست برود از عروسک‌های کودکی تا ارتباطات انسانی، از خانواده گرامی تا عشق‌هایی که برای همیشه در دل مان می‌مانند، زندگی مانند صحنه‌های یک فیلم است. اما مهمتر از همه، این است که ما باید از هر لحظه و هر صحنه‌ای از این فیلم بهره‌برداری کنیم و از آن لذت ببریم. نگران پایان فیلم نباشید، زیرا هرگز پایان واقعی فیلم زندگی نیست؛ ما خودمان می‌توانیم داستان خود را ادامه دهیم و پایانی را برای آن ترسیم کنیم. واقعیتی که باید به آن پی ببریم این است که واقعیتی که سال جدید برایمان دارد، بیشتر از جشن گرفتن پایان سال است؛ بلکه به بازنگری در خودمان، به پیشرفت‌هایی که داشته‌ایم و به اندیشه در مورد اخلاق و رفتارهایمان متمایل است. ما باید یاد بگیریم که از دیگران کمک کنیم و به اهدافمان پایبند باشیم. هر کسی سعی می‌کند در سیره‌ی خود، قول‌هایی را به خودش بدهد و به عهده‌ی آن‌ها بایستد.

آرزو می‌کنم که همگی به اهداف خود برسید و از همه‌ی زحماتتان لذت ببرید. هیچ ایده‌ای برای رسیدن به چیزی که می‌خواهید، بی‌اهمیت نیست. ممکن است چندین بار شکست بخورید، اما باید از این تجربیات درس‌هایی بگیرید و ادامه دهید. از خداوند همیشه کمک بخواهید، زیرا او همیشه در کنار شماست.

آرزوی یک سال خوب و پربرکت برای شما دارم، و امیدوارم که همیشه سرزنده و خوشحال باشید.🌺
🎉10🙏5👌2😍2
Activation Functions
شاید براتون سوال شده باشد که چرا از توابع فعال ساز در شبکه های عصبی استفاده میشود. در واقع تابع فعال سازی با محاسبه مجموع وزنی و اضافه کردن بایاس به آن تصمیم می گیرد که آیا یک نورون باید فعال شود یا نه. هدف از تابع فعال سازی، وارد کردن غیر خطی بودن به خروجی یک نورون است در واقع یک شبکه عصبی بدون تابع فعال سازی در اصل فقط یک مدل رگرسیون خطی است. تابع فعال سازی تبدیل غیرخطی را به ورودی انجام می دهد و آن را قادر به یادگیری و انجام وظایف پیچیده تر می کند.می دانیم که شبکه عصبی دارای نورون هایی است که مطابق با وزن، بایاس و عملکرد فعال سازی مربوطه کار می کنند. در یک شبکه عصبی، وزن‌ها و بایاس‌های نورون‌ها را بر اساس خطای خروجی به‌روزرسانی می‌کنیم. این فرآیند به عنوان back-propagation شناخته می شود. توابع فعال سازی پ back-propagation را ممکن می کند زیرا گرادیان ها همراه با خطا برای به روز رسانی وزن ها و بایاس ها ارائه می شوند.

🌐مطالعه بیشتر👇🏻👇🏻

🔶Activation Functions

📣👨‍💻 @AlgorithmDesign_DataStructuer
💯1
یادگیری تقویتی(Reinforcement learning):
یادگیری تقویتی یکی از رویکردهای مهم در علوم هوش مصنوعی و روانشناسی است که بر روی رفتارهای انسانی و ماشینی تأثیرگذار است. در اینجا، توضیحی جامع در مورد یادگیری تقویتی ارائه خواهم داد:

1️⃣. تعریف اصطلاحی:
یادگیری تقویتی یک فرآیند یادگیری است که در آن یک عامل (مانند یک ربات، یک نرم‌افزار کامپیوتری یا حتی انسان) با محیط ارتباط برقرار کرده و از طریق انجام اعمال مختلف و دریافت بازخورد، سعی در یادگیری رفتارهایی دارد که منجر به بیشینه‌سازی پاداش (یا کاهش مجازات) می‌شود.

2️⃣. عوامل اصلی:
🔸- عامل: شخص یا سیستمی که در محیط عمل می‌کند و با آن تعامل دارد.
🔸- محیط: هر محیطی که عامل در آن فعالیت می‌کند، می‌تواند محیط فیزیکی و یا محیط مجازی (مانند شبیه‌سازی‌های کامپیوتری) باشد.
🔸 - عمل: اعمالی که عامل انجام می‌دهد.
🔸 - پاداش: این ممکن است یک پادازش مثبت (مثل پادازش مالی یا امتیاز) یا پاداش منفی (مثل مجازات) باشد که به عامل بر اساس اعمالش تعلق می‌گیرد.

3️⃣. الگوریتم‌ها و مدل‌ها:
- الگوریتم‌های یادگیری تقویتی متنوعی وجود دارند، از جمله Q-learning، Deep Q-Networks (DQN)، Policy Gradient، Actor-Critic، و موارد دیگر.
- این الگوریتم‌ها ممکن است بر پایه مدلی از محیط که به عامل ارائه می‌شود عمل کنند. مدل محیط می‌تواند deterministic یا stochastic باشد، به این معنا که نتیجه هر عمل برای ورودی‌های مشخصی ثابت باشد یا احتمالی.

4️⃣. مفاهیم اصلی:
🔹- سیاست (Policy): راهنمایی که عامل را به انتخاب اعمال در محیط هدایت می‌کند.
🔹- ارزش (Value): میزان پاداز کلی که عامل می‌تواند در طول زمان کسب کند.
🔹- تابع پاداش (Reward Function): تابعی که پاداش را بر اساس وضعیت فعلی محیط و عمل انجام شده توسط عامل محاسبه می‌کند.
🔹- تابع ارزش (Value Function): تخمینی از ارزش هر وضعیت یا جفت وضعیت و عمل در محیط.
🔹- فرآیند تصمیم‌گیری مارکوف (MDP): یک مدل ریاضی برای توصیف یک محیط تصمیم‌گیری است که شامل وضعیت‌ها، عمل‌ها، پاداز‌ها و احتمالات انتقال بین وضعیت‌ها می‌شود.

5️⃣. کاربردها:
- یادگیری تقویتی در زمینه‌های مختلفی مانند رباتیک، بازی‌های کامپیوتری، مدیریت منابع، سیستم‌های توصیه‌گر، اتوماسیون صنعتی و موارد دیگر مورد استفاده قرار می‌گیرد.

با توجه به پیچیدگی و چالش‌های مختلف موجود در یادگیری تقویتی، این زمینه همچنان موضوع تحقیقات فراوانی در علوم هوش مصنوعی و مهندسی رایانه است و پتانسیل‌های بسیاری برای توسعه فناوری‌های جدید دارد.

📣👨‍💻 @AlgorithmDesign_DataStructuer
👍2
درج در پشته
📣👨‍💻 @AlgorithmDesign_DataStructuer
👨‍💻1
برنامه زیر به ازای m=4 , n=5 کدام گزینه خواهد شد؟
def f(m,n):
if m<=1 or m==n:
return 1
else:
return f(m-1,n)+f(m,n-1)
گزینه صحیح را انتخاب کنید؟
Anonymous Quiz
13%
4
35%
8
31%
9
22%
2
عید همگی مبارک✌🏻🤩🥳

با لطف خداوند 🤲سال جدید فرا رسیده است، زمانی که در افق آسمان زندگی، نور و امید دیگر باران می‌بارد. امروز به زمینهای دلتنگی و انتظار، شادی و نوید می‌آوریم.

سال جدید فرصتی است برای بازسازی رویاها، آغاز دوباره ماجراهای جدید، و تکریم لحظات گذشته. با وجود تمام چالش‌ها و دشواری‌هایی که پشت سر گذاشتیم، همچنان باور داریم که زندگی می‌تواند پر از زیبایی و معنا باشد.

از اعماق قلب💜، آرزو دارم که سال جدید برای شما پر از لحظات شادی، آرامش و موفقیت باشد🌙امیدوارم در این سال، هر روزتان به روشنی نور خورشید☀️ و دلگرمی اندیشه‌های خوب بخشیده شود.

با آرزوی بهترین‌ها برای شما در سال جدید😉🌺
🎉12😍3👍2
مثالی از به دست آوردن درخت الگوریتم هافمن

📣👨‍💻 @AlgorithmDesign_DataStructuer
👍3
کدام مورد بیانگر هزینه الگوریتم برناما نویسی پویا برای مسئله فروشنده دوره گرد است؟
Anonymous Quiz
22%
n^n , n^2
19%
n^2
42%
n^2 log n
16%
n log n
🤔4
رایج ترین زمان های اجرای O بزرگ

📣👨‍💻 @AlgorithmDesign_DataStructuer