All Lectures.pdf
68 MB
جزوهی درسی «جبر خطی ۱» دانشگاه آکسفورد
برای دسترسی به اسلاید ها و وب سایت درس روی لینک زیر کلیک کنید.
✅📚Linear Algebra 1
📣👨💻 @AlgorithmDesign_DataStructuer
برای دسترسی به اسلاید ها و وب سایت درس روی لینک زیر کلیک کنید.
✅📚Linear Algebra 1
📣👨💻 @AlgorithmDesign_DataStructuer
🙏3
به دست آوردن ترانهاده:
📣👨💻 @AlgorithmDesign_DataStructuer
import numpy as np
Martrix = np.array([[1, 2] , [3, 4] , [5, 6]])
print(Martrix)
Martrix => 3x2
[[1 2]
[3 4]
[5 6]]
Martrix_transpose = np.transpose(Martrix)
print(Martrix_transpose)
[[1 3 5]
[2 4 6]]
Martrix_transpose => 2x3
📣👨💻 @AlgorithmDesign_DataStructuer
👍4
هرس کردن گره ها در فضای جستجو حل برای کدام یک از روش های حل زیر یک اصل اساسی می باشد؟
Anonymous Quiz
18%
تقسیم و غلبه
35%
برنامه نویسی پویا
27%
عقبگرد
20%
انشعاب و تحدید
سلام به همگی👋🏻🤗
در آغازین لحظات زندگی، شما از شیر مادرانه خود تغذیه میشوید، این تجربهی ناب انسانی، اولین قدم در جهت فراموش کردن بوی کودکی است. این فرایند نشان میدهد که برای از دست دادن چیزی که دوستش دارید، چه ارزشمند و چالش برانگیز است. این درس زندگی به ما آموزش میدهد که بسیاری از چیزهایی که دوست داریم، ممکن است در طول زمان از دست برود از عروسکهای کودکی تا ارتباطات انسانی، از خانواده گرامی تا عشقهایی که برای همیشه در دل مان میمانند، زندگی مانند صحنههای یک فیلم است. اما مهمتر از همه، این است که ما باید از هر لحظه و هر صحنهای از این فیلم بهرهبرداری کنیم و از آن لذت ببریم. نگران پایان فیلم نباشید، زیرا هرگز پایان واقعی فیلم زندگی نیست؛ ما خودمان میتوانیم داستان خود را ادامه دهیم و پایانی را برای آن ترسیم کنیم. واقعیتی که باید به آن پی ببریم این است که واقعیتی که سال جدید برایمان دارد، بیشتر از جشن گرفتن پایان سال است؛ بلکه به بازنگری در خودمان، به پیشرفتهایی که داشتهایم و به اندیشه در مورد اخلاق و رفتارهایمان متمایل است. ما باید یاد بگیریم که از دیگران کمک کنیم و به اهدافمان پایبند باشیم. هر کسی سعی میکند در سیرهی خود، قولهایی را به خودش بدهد و به عهدهی آنها بایستد.
آرزو میکنم که همگی به اهداف خود برسید و از همهی زحماتتان لذت ببرید. هیچ ایدهای برای رسیدن به چیزی که میخواهید، بیاهمیت نیست. ممکن است چندین بار شکست بخورید، اما باید از این تجربیات درسهایی بگیرید و ادامه دهید. از خداوند همیشه کمک بخواهید، زیرا او همیشه در کنار شماست.
آرزوی یک سال خوب و پربرکت برای شما دارم، و امیدوارم که همیشه سرزنده و خوشحال باشید.🌺✨
در آغازین لحظات زندگی، شما از شیر مادرانه خود تغذیه میشوید، این تجربهی ناب انسانی، اولین قدم در جهت فراموش کردن بوی کودکی است. این فرایند نشان میدهد که برای از دست دادن چیزی که دوستش دارید، چه ارزشمند و چالش برانگیز است. این درس زندگی به ما آموزش میدهد که بسیاری از چیزهایی که دوست داریم، ممکن است در طول زمان از دست برود از عروسکهای کودکی تا ارتباطات انسانی، از خانواده گرامی تا عشقهایی که برای همیشه در دل مان میمانند، زندگی مانند صحنههای یک فیلم است. اما مهمتر از همه، این است که ما باید از هر لحظه و هر صحنهای از این فیلم بهرهبرداری کنیم و از آن لذت ببریم. نگران پایان فیلم نباشید، زیرا هرگز پایان واقعی فیلم زندگی نیست؛ ما خودمان میتوانیم داستان خود را ادامه دهیم و پایانی را برای آن ترسیم کنیم. واقعیتی که باید به آن پی ببریم این است که واقعیتی که سال جدید برایمان دارد، بیشتر از جشن گرفتن پایان سال است؛ بلکه به بازنگری در خودمان، به پیشرفتهایی که داشتهایم و به اندیشه در مورد اخلاق و رفتارهایمان متمایل است. ما باید یاد بگیریم که از دیگران کمک کنیم و به اهدافمان پایبند باشیم. هر کسی سعی میکند در سیرهی خود، قولهایی را به خودش بدهد و به عهدهی آنها بایستد.
آرزو میکنم که همگی به اهداف خود برسید و از همهی زحماتتان لذت ببرید. هیچ ایدهای برای رسیدن به چیزی که میخواهید، بیاهمیت نیست. ممکن است چندین بار شکست بخورید، اما باید از این تجربیات درسهایی بگیرید و ادامه دهید. از خداوند همیشه کمک بخواهید، زیرا او همیشه در کنار شماست.
آرزوی یک سال خوب و پربرکت برای شما دارم، و امیدوارم که همیشه سرزنده و خوشحال باشید.🌺✨
🎉10🙏5👌2😍2
Activation Functions
✅شاید براتون سوال شده باشد که چرا از توابع فعال ساز در شبکه های عصبی استفاده میشود. در واقع تابع فعال سازی با محاسبه مجموع وزنی و اضافه کردن بایاس به آن تصمیم می گیرد که آیا یک نورون باید فعال شود یا نه. هدف از تابع فعال سازی، وارد کردن غیر خطی بودن به خروجی یک نورون است در واقع یک شبکه عصبی بدون تابع فعال سازی در اصل فقط یک مدل رگرسیون خطی است. تابع فعال سازی تبدیل غیرخطی را به ورودی انجام می دهد و آن را قادر به یادگیری و انجام وظایف پیچیده تر می کند.می دانیم که شبکه عصبی دارای نورون هایی است که مطابق با وزن، بایاس و عملکرد فعال سازی مربوطه کار می کنند. در یک شبکه عصبی، وزنها و بایاسهای نورونها را بر اساس خطای خروجی بهروزرسانی میکنیم. این فرآیند به عنوان back-propagation شناخته می شود. توابع فعال سازی پ back-propagation را ممکن می کند زیرا گرادیان ها همراه با خطا برای به روز رسانی وزن ها و بایاس ها ارائه می شوند.
🌐مطالعه بیشتر👇🏻👇🏻
🔶Activation Functions
📣👨💻 @AlgorithmDesign_DataStructuer
✅شاید براتون سوال شده باشد که چرا از توابع فعال ساز در شبکه های عصبی استفاده میشود. در واقع تابع فعال سازی با محاسبه مجموع وزنی و اضافه کردن بایاس به آن تصمیم می گیرد که آیا یک نورون باید فعال شود یا نه. هدف از تابع فعال سازی، وارد کردن غیر خطی بودن به خروجی یک نورون است در واقع یک شبکه عصبی بدون تابع فعال سازی در اصل فقط یک مدل رگرسیون خطی است. تابع فعال سازی تبدیل غیرخطی را به ورودی انجام می دهد و آن را قادر به یادگیری و انجام وظایف پیچیده تر می کند.می دانیم که شبکه عصبی دارای نورون هایی است که مطابق با وزن، بایاس و عملکرد فعال سازی مربوطه کار می کنند. در یک شبکه عصبی، وزنها و بایاسهای نورونها را بر اساس خطای خروجی بهروزرسانی میکنیم. این فرآیند به عنوان back-propagation شناخته می شود. توابع فعال سازی پ back-propagation را ممکن می کند زیرا گرادیان ها همراه با خطا برای به روز رسانی وزن ها و بایاس ها ارائه می شوند.
🌐مطالعه بیشتر👇🏻👇🏻
🔶Activation Functions
📣👨💻 @AlgorithmDesign_DataStructuer
💯1
در کدام گزینه هر دو مسئله ذکر شده در رده مسائل P قرار گرفته اند؟
Anonymous Quiz
21%
رنگ آمیزی گراف ها و فروشنده دوره گرد
49%
کوتاه ترین مسیر بین دو گروه و مرتب سازی
24%
درخت پوشای کمینه و فروشنده دوره گرد
7%
حلقه هامیلتونی کمینه و جستجوی دودویی
یادگیری تقویتی(Reinforcement learning):
✅یادگیری تقویتی یکی از رویکردهای مهم در علوم هوش مصنوعی و روانشناسی است که بر روی رفتارهای انسانی و ماشینی تأثیرگذار است. در اینجا، توضیحی جامع در مورد یادگیری تقویتی ارائه خواهم داد:
1️⃣. تعریف اصطلاحی:
یادگیری تقویتی یک فرآیند یادگیری است که در آن یک عامل (مانند یک ربات، یک نرمافزار کامپیوتری یا حتی انسان) با محیط ارتباط برقرار کرده و از طریق انجام اعمال مختلف و دریافت بازخورد، سعی در یادگیری رفتارهایی دارد که منجر به بیشینهسازی پاداش (یا کاهش مجازات) میشود.
2️⃣. عوامل اصلی:
🔸- عامل: شخص یا سیستمی که در محیط عمل میکند و با آن تعامل دارد.
🔸- محیط: هر محیطی که عامل در آن فعالیت میکند، میتواند محیط فیزیکی و یا محیط مجازی (مانند شبیهسازیهای کامپیوتری) باشد.
🔸 - عمل: اعمالی که عامل انجام میدهد.
🔸 - پاداش: این ممکن است یک پادازش مثبت (مثل پادازش مالی یا امتیاز) یا پاداش منفی (مثل مجازات) باشد که به عامل بر اساس اعمالش تعلق میگیرد.
3️⃣. الگوریتمها و مدلها:
- الگوریتمهای یادگیری تقویتی متنوعی وجود دارند، از جمله Q-learning، Deep Q-Networks (DQN)، Policy Gradient، Actor-Critic، و موارد دیگر.
- این الگوریتمها ممکن است بر پایه مدلی از محیط که به عامل ارائه میشود عمل کنند. مدل محیط میتواند deterministic یا stochastic باشد، به این معنا که نتیجه هر عمل برای ورودیهای مشخصی ثابت باشد یا احتمالی.
4️⃣. مفاهیم اصلی:
🔹- سیاست (Policy): راهنمایی که عامل را به انتخاب اعمال در محیط هدایت میکند.
🔹- ارزش (Value): میزان پاداز کلی که عامل میتواند در طول زمان کسب کند.
🔹- تابع پاداش (Reward Function): تابعی که پاداش را بر اساس وضعیت فعلی محیط و عمل انجام شده توسط عامل محاسبه میکند.
🔹- تابع ارزش (Value Function): تخمینی از ارزش هر وضعیت یا جفت وضعیت و عمل در محیط.
🔹- فرآیند تصمیمگیری مارکوف (MDP): یک مدل ریاضی برای توصیف یک محیط تصمیمگیری است که شامل وضعیتها، عملها، پادازها و احتمالات انتقال بین وضعیتها میشود.
5️⃣. کاربردها:
- یادگیری تقویتی در زمینههای مختلفی مانند رباتیک، بازیهای کامپیوتری، مدیریت منابع، سیستمهای توصیهگر، اتوماسیون صنعتی و موارد دیگر مورد استفاده قرار میگیرد.
با توجه به پیچیدگی و چالشهای مختلف موجود در یادگیری تقویتی، این زمینه همچنان موضوع تحقیقات فراوانی در علوم هوش مصنوعی و مهندسی رایانه است و پتانسیلهای بسیاری برای توسعه فناوریهای جدید دارد.
📣👨💻 @AlgorithmDesign_DataStructuer
✅یادگیری تقویتی یکی از رویکردهای مهم در علوم هوش مصنوعی و روانشناسی است که بر روی رفتارهای انسانی و ماشینی تأثیرگذار است. در اینجا، توضیحی جامع در مورد یادگیری تقویتی ارائه خواهم داد:
1️⃣. تعریف اصطلاحی:
یادگیری تقویتی یک فرآیند یادگیری است که در آن یک عامل (مانند یک ربات، یک نرمافزار کامپیوتری یا حتی انسان) با محیط ارتباط برقرار کرده و از طریق انجام اعمال مختلف و دریافت بازخورد، سعی در یادگیری رفتارهایی دارد که منجر به بیشینهسازی پاداش (یا کاهش مجازات) میشود.
2️⃣. عوامل اصلی:
🔸- عامل: شخص یا سیستمی که در محیط عمل میکند و با آن تعامل دارد.
🔸- محیط: هر محیطی که عامل در آن فعالیت میکند، میتواند محیط فیزیکی و یا محیط مجازی (مانند شبیهسازیهای کامپیوتری) باشد.
🔸 - عمل: اعمالی که عامل انجام میدهد.
🔸 - پاداش: این ممکن است یک پادازش مثبت (مثل پادازش مالی یا امتیاز) یا پاداش منفی (مثل مجازات) باشد که به عامل بر اساس اعمالش تعلق میگیرد.
3️⃣. الگوریتمها و مدلها:
- الگوریتمهای یادگیری تقویتی متنوعی وجود دارند، از جمله Q-learning، Deep Q-Networks (DQN)، Policy Gradient، Actor-Critic، و موارد دیگر.
- این الگوریتمها ممکن است بر پایه مدلی از محیط که به عامل ارائه میشود عمل کنند. مدل محیط میتواند deterministic یا stochastic باشد، به این معنا که نتیجه هر عمل برای ورودیهای مشخصی ثابت باشد یا احتمالی.
4️⃣. مفاهیم اصلی:
🔹- سیاست (Policy): راهنمایی که عامل را به انتخاب اعمال در محیط هدایت میکند.
🔹- ارزش (Value): میزان پاداز کلی که عامل میتواند در طول زمان کسب کند.
🔹- تابع پاداش (Reward Function): تابعی که پاداش را بر اساس وضعیت فعلی محیط و عمل انجام شده توسط عامل محاسبه میکند.
🔹- تابع ارزش (Value Function): تخمینی از ارزش هر وضعیت یا جفت وضعیت و عمل در محیط.
🔹- فرآیند تصمیمگیری مارکوف (MDP): یک مدل ریاضی برای توصیف یک محیط تصمیمگیری است که شامل وضعیتها، عملها، پادازها و احتمالات انتقال بین وضعیتها میشود.
5️⃣. کاربردها:
- یادگیری تقویتی در زمینههای مختلفی مانند رباتیک، بازیهای کامپیوتری، مدیریت منابع، سیستمهای توصیهگر، اتوماسیون صنعتی و موارد دیگر مورد استفاده قرار میگیرد.
با توجه به پیچیدگی و چالشهای مختلف موجود در یادگیری تقویتی، این زمینه همچنان موضوع تحقیقات فراوانی در علوم هوش مصنوعی و مهندسی رایانه است و پتانسیلهای بسیاری برای توسعه فناوریهای جدید دارد.
📣👨💻 @AlgorithmDesign_DataStructuer
👍2
برنامه زیر به ازای m=4 , n=5 کدام گزینه خواهد شد؟
def f(m,n):
if m<=1 or m==n:
return 1
else:
return f(m-1,n)+f(m,n-1)
عید همگی مبارک✌🏻🤩🥳
با لطف خداوند 🤲سال جدید فرا رسیده است، زمانی که در افق آسمان زندگی، نور و امید دیگر باران میبارد. امروز به زمینهای دلتنگی و انتظار، شادی و نوید میآوریم.
سال جدید✨ فرصتی است برای بازسازی رویاها، آغاز دوباره ماجراهای جدید، و تکریم لحظات گذشته. با وجود تمام چالشها و دشواریهایی که پشت سر گذاشتیم، همچنان باور داریم که زندگی میتواند پر از زیبایی و معنا باشد.
از اعماق قلب💜، آرزو دارم که سال جدید برای شما پر از لحظات شادی، آرامش و موفقیت باشد🌙امیدوارم در این سال، هر روزتان به روشنی نور خورشید☀️ و دلگرمی اندیشههای خوب بخشیده شود.
با آرزوی بهترینها برای شما در سال جدید😉✨🌺
با لطف خداوند 🤲سال جدید فرا رسیده است، زمانی که در افق آسمان زندگی، نور و امید دیگر باران میبارد. امروز به زمینهای دلتنگی و انتظار، شادی و نوید میآوریم.
سال جدید✨ فرصتی است برای بازسازی رویاها، آغاز دوباره ماجراهای جدید، و تکریم لحظات گذشته. با وجود تمام چالشها و دشواریهایی که پشت سر گذاشتیم، همچنان باور داریم که زندگی میتواند پر از زیبایی و معنا باشد.
از اعماق قلب💜، آرزو دارم که سال جدید برای شما پر از لحظات شادی، آرامش و موفقیت باشد🌙امیدوارم در این سال، هر روزتان به روشنی نور خورشید☀️ و دلگرمی اندیشههای خوب بخشیده شود.
با آرزوی بهترینها برای شما در سال جدید😉✨🌺
🎉12😍3👍2
کدام مورد بیانگر هزینه الگوریتم برناما نویسی پویا برای مسئله فروشنده دوره گرد است؟
Anonymous Quiz
22%
n^n , n^2
19%
n^2
42%
n^2 log n
16%
n log n
🤔4
تابع Hash یک کلید را به عنوان ورودی می گیرد و یک مقدار عددی منحصر به فرد به نام کد Hash تولید می کند که به عنوان یک شاخص برای یک عنصر داده خاص عمل می کند. این فرآیند نگاشت قطعی است، به این معنی که یک کلید همیشه به همان شاخص Hash می شود و جستجو و بازیابی سریع مقادیر را تسهیل می کند.
ما از جداول Hash برای نگاشت سریع کلیدها به مکان های خاص در آرایه استفاده می کنیم. هدف تابع Hash توزیع مناسب کلیدها در بین شاخصهای آرایه، به حداقل رساندن برخوردها (موقعیتهایی که چندین کلید به یک شاخص نگاشت میشوند) است.
جداول Hash در سناریوهایی که به ذخیره سازی و بازیابی کارآمد جفت های کلید-مقدار مورد نیاز است - برای مثال، سیستم های حافظه پنهان، رایج هستند. علاوه بر این، ما از جداول Hash در وظایف پردازش داده ها مانند نمایه سازی و حذف مجدد استفاده می کنیم.
📣👨💻 @AlgorithmDesign_DataStructuer
ما از جداول Hash برای نگاشت سریع کلیدها به مکان های خاص در آرایه استفاده می کنیم. هدف تابع Hash توزیع مناسب کلیدها در بین شاخصهای آرایه، به حداقل رساندن برخوردها (موقعیتهایی که چندین کلید به یک شاخص نگاشت میشوند) است.
جداول Hash در سناریوهایی که به ذخیره سازی و بازیابی کارآمد جفت های کلید-مقدار مورد نیاز است - برای مثال، سیستم های حافظه پنهان، رایج هستند. علاوه بر این، ما از جداول Hash در وظایف پردازش داده ها مانند نمایه سازی و حذف مجدد استفاده می کنیم.
📣👨💻 @AlgorithmDesign_DataStructuer
👍1