✔️سودمندی دنباله ای از اعمال(تخفیف)
🔴اگر به زندگی روزمره توجه کنید شما در هنگام خرید یک کالا نقد را به نسیه ترجیح میدهید یا کالایی را خریداری میکنید که سود بیشتری برا شما دارد. در اینجا هم ما به دنبال بیشینه کردن مجموع سودها هستیم همچنین ترجیح دادن جوایز فعلی(نقد) به جوایز آینده(نسیه) عقلانی است.
🔍 یک راه حل این است که میزان سودمندی ها را با گذشت زمان به صورت نمایی کم شود البته باید توجه کنید که ϒ باید بین 0 و 1 باشد.
❓حال ممکن است سوالی برایتان پیش بیاید چرا تخفیف اعمال میکنیم؟ یکی از دلایل استفاده از آن این است که باعث کمک به همگرایی الگوریتم میشود و یکی دیگر جوایزی که زودتر دریافت میشوند سودمندی یا ضرر بیشتری دارند.
✅نحوه ی اعمال آن به این صورت می باشد که در صورتی که قرار باشد به حالت بعدی یعنی از حالت S به حالت Sُ برویم جایزه آن حالت را در فاکتور تخفیف ضرب میکنیم.
📣👨💻 @AlgorithmDesign_DataStructuer
🔴اگر به زندگی روزمره توجه کنید شما در هنگام خرید یک کالا نقد را به نسیه ترجیح میدهید یا کالایی را خریداری میکنید که سود بیشتری برا شما دارد. در اینجا هم ما به دنبال بیشینه کردن مجموع سودها هستیم همچنین ترجیح دادن جوایز فعلی(نقد) به جوایز آینده(نسیه) عقلانی است.
🔍 یک راه حل این است که میزان سودمندی ها را با گذشت زمان به صورت نمایی کم شود البته باید توجه کنید که ϒ باید بین 0 و 1 باشد.
❓حال ممکن است سوالی برایتان پیش بیاید چرا تخفیف اعمال میکنیم؟ یکی از دلایل استفاده از آن این است که باعث کمک به همگرایی الگوریتم میشود و یکی دیگر جوایزی که زودتر دریافت میشوند سودمندی یا ضرر بیشتری دارند.
✅نحوه ی اعمال آن به این صورت می باشد که در صورتی که قرار باشد به حالت بعدی یعنی از حالت S به حالت Sُ برویم جایزه آن حالت را در فاکتور تخفیف ضرب میکنیم.
📣👨💻 @AlgorithmDesign_DataStructuer
👍3
All Lectures.pdf
68 MB
جزوهی درسی «جبر خطی ۱» دانشگاه آکسفورد
برای دسترسی به اسلاید ها و وب سایت درس روی لینک زیر کلیک کنید.
✅📚Linear Algebra 1
📣👨💻 @AlgorithmDesign_DataStructuer
برای دسترسی به اسلاید ها و وب سایت درس روی لینک زیر کلیک کنید.
✅📚Linear Algebra 1
📣👨💻 @AlgorithmDesign_DataStructuer
🙏3
به دست آوردن ترانهاده:
📣👨💻 @AlgorithmDesign_DataStructuer
import numpy as np
Martrix = np.array([[1, 2] , [3, 4] , [5, 6]])
print(Martrix)
Martrix => 3x2
[[1 2]
[3 4]
[5 6]]
Martrix_transpose = np.transpose(Martrix)
print(Martrix_transpose)
[[1 3 5]
[2 4 6]]
Martrix_transpose => 2x3
📣👨💻 @AlgorithmDesign_DataStructuer
👍4
هرس کردن گره ها در فضای جستجو حل برای کدام یک از روش های حل زیر یک اصل اساسی می باشد؟
Anonymous Quiz
18%
تقسیم و غلبه
35%
برنامه نویسی پویا
27%
عقبگرد
20%
انشعاب و تحدید
سلام به همگی👋🏻🤗
در آغازین لحظات زندگی، شما از شیر مادرانه خود تغذیه میشوید، این تجربهی ناب انسانی، اولین قدم در جهت فراموش کردن بوی کودکی است. این فرایند نشان میدهد که برای از دست دادن چیزی که دوستش دارید، چه ارزشمند و چالش برانگیز است. این درس زندگی به ما آموزش میدهد که بسیاری از چیزهایی که دوست داریم، ممکن است در طول زمان از دست برود از عروسکهای کودکی تا ارتباطات انسانی، از خانواده گرامی تا عشقهایی که برای همیشه در دل مان میمانند، زندگی مانند صحنههای یک فیلم است. اما مهمتر از همه، این است که ما باید از هر لحظه و هر صحنهای از این فیلم بهرهبرداری کنیم و از آن لذت ببریم. نگران پایان فیلم نباشید، زیرا هرگز پایان واقعی فیلم زندگی نیست؛ ما خودمان میتوانیم داستان خود را ادامه دهیم و پایانی را برای آن ترسیم کنیم. واقعیتی که باید به آن پی ببریم این است که واقعیتی که سال جدید برایمان دارد، بیشتر از جشن گرفتن پایان سال است؛ بلکه به بازنگری در خودمان، به پیشرفتهایی که داشتهایم و به اندیشه در مورد اخلاق و رفتارهایمان متمایل است. ما باید یاد بگیریم که از دیگران کمک کنیم و به اهدافمان پایبند باشیم. هر کسی سعی میکند در سیرهی خود، قولهایی را به خودش بدهد و به عهدهی آنها بایستد.
آرزو میکنم که همگی به اهداف خود برسید و از همهی زحماتتان لذت ببرید. هیچ ایدهای برای رسیدن به چیزی که میخواهید، بیاهمیت نیست. ممکن است چندین بار شکست بخورید، اما باید از این تجربیات درسهایی بگیرید و ادامه دهید. از خداوند همیشه کمک بخواهید، زیرا او همیشه در کنار شماست.
آرزوی یک سال خوب و پربرکت برای شما دارم، و امیدوارم که همیشه سرزنده و خوشحال باشید.🌺✨
در آغازین لحظات زندگی، شما از شیر مادرانه خود تغذیه میشوید، این تجربهی ناب انسانی، اولین قدم در جهت فراموش کردن بوی کودکی است. این فرایند نشان میدهد که برای از دست دادن چیزی که دوستش دارید، چه ارزشمند و چالش برانگیز است. این درس زندگی به ما آموزش میدهد که بسیاری از چیزهایی که دوست داریم، ممکن است در طول زمان از دست برود از عروسکهای کودکی تا ارتباطات انسانی، از خانواده گرامی تا عشقهایی که برای همیشه در دل مان میمانند، زندگی مانند صحنههای یک فیلم است. اما مهمتر از همه، این است که ما باید از هر لحظه و هر صحنهای از این فیلم بهرهبرداری کنیم و از آن لذت ببریم. نگران پایان فیلم نباشید، زیرا هرگز پایان واقعی فیلم زندگی نیست؛ ما خودمان میتوانیم داستان خود را ادامه دهیم و پایانی را برای آن ترسیم کنیم. واقعیتی که باید به آن پی ببریم این است که واقعیتی که سال جدید برایمان دارد، بیشتر از جشن گرفتن پایان سال است؛ بلکه به بازنگری در خودمان، به پیشرفتهایی که داشتهایم و به اندیشه در مورد اخلاق و رفتارهایمان متمایل است. ما باید یاد بگیریم که از دیگران کمک کنیم و به اهدافمان پایبند باشیم. هر کسی سعی میکند در سیرهی خود، قولهایی را به خودش بدهد و به عهدهی آنها بایستد.
آرزو میکنم که همگی به اهداف خود برسید و از همهی زحماتتان لذت ببرید. هیچ ایدهای برای رسیدن به چیزی که میخواهید، بیاهمیت نیست. ممکن است چندین بار شکست بخورید، اما باید از این تجربیات درسهایی بگیرید و ادامه دهید. از خداوند همیشه کمک بخواهید، زیرا او همیشه در کنار شماست.
آرزوی یک سال خوب و پربرکت برای شما دارم، و امیدوارم که همیشه سرزنده و خوشحال باشید.🌺✨
🎉10🙏5👌2😍2
Activation Functions
✅شاید براتون سوال شده باشد که چرا از توابع فعال ساز در شبکه های عصبی استفاده میشود. در واقع تابع فعال سازی با محاسبه مجموع وزنی و اضافه کردن بایاس به آن تصمیم می گیرد که آیا یک نورون باید فعال شود یا نه. هدف از تابع فعال سازی، وارد کردن غیر خطی بودن به خروجی یک نورون است در واقع یک شبکه عصبی بدون تابع فعال سازی در اصل فقط یک مدل رگرسیون خطی است. تابع فعال سازی تبدیل غیرخطی را به ورودی انجام می دهد و آن را قادر به یادگیری و انجام وظایف پیچیده تر می کند.می دانیم که شبکه عصبی دارای نورون هایی است که مطابق با وزن، بایاس و عملکرد فعال سازی مربوطه کار می کنند. در یک شبکه عصبی، وزنها و بایاسهای نورونها را بر اساس خطای خروجی بهروزرسانی میکنیم. این فرآیند به عنوان back-propagation شناخته می شود. توابع فعال سازی پ back-propagation را ممکن می کند زیرا گرادیان ها همراه با خطا برای به روز رسانی وزن ها و بایاس ها ارائه می شوند.
🌐مطالعه بیشتر👇🏻👇🏻
🔶Activation Functions
📣👨💻 @AlgorithmDesign_DataStructuer
✅شاید براتون سوال شده باشد که چرا از توابع فعال ساز در شبکه های عصبی استفاده میشود. در واقع تابع فعال سازی با محاسبه مجموع وزنی و اضافه کردن بایاس به آن تصمیم می گیرد که آیا یک نورون باید فعال شود یا نه. هدف از تابع فعال سازی، وارد کردن غیر خطی بودن به خروجی یک نورون است در واقع یک شبکه عصبی بدون تابع فعال سازی در اصل فقط یک مدل رگرسیون خطی است. تابع فعال سازی تبدیل غیرخطی را به ورودی انجام می دهد و آن را قادر به یادگیری و انجام وظایف پیچیده تر می کند.می دانیم که شبکه عصبی دارای نورون هایی است که مطابق با وزن، بایاس و عملکرد فعال سازی مربوطه کار می کنند. در یک شبکه عصبی، وزنها و بایاسهای نورونها را بر اساس خطای خروجی بهروزرسانی میکنیم. این فرآیند به عنوان back-propagation شناخته می شود. توابع فعال سازی پ back-propagation را ممکن می کند زیرا گرادیان ها همراه با خطا برای به روز رسانی وزن ها و بایاس ها ارائه می شوند.
🌐مطالعه بیشتر👇🏻👇🏻
🔶Activation Functions
📣👨💻 @AlgorithmDesign_DataStructuer
💯1
در کدام گزینه هر دو مسئله ذکر شده در رده مسائل P قرار گرفته اند؟
Anonymous Quiz
21%
رنگ آمیزی گراف ها و فروشنده دوره گرد
49%
کوتاه ترین مسیر بین دو گروه و مرتب سازی
24%
درخت پوشای کمینه و فروشنده دوره گرد
7%
حلقه هامیلتونی کمینه و جستجوی دودویی
یادگیری تقویتی(Reinforcement learning):
✅یادگیری تقویتی یکی از رویکردهای مهم در علوم هوش مصنوعی و روانشناسی است که بر روی رفتارهای انسانی و ماشینی تأثیرگذار است. در اینجا، توضیحی جامع در مورد یادگیری تقویتی ارائه خواهم داد:
1️⃣. تعریف اصطلاحی:
یادگیری تقویتی یک فرآیند یادگیری است که در آن یک عامل (مانند یک ربات، یک نرمافزار کامپیوتری یا حتی انسان) با محیط ارتباط برقرار کرده و از طریق انجام اعمال مختلف و دریافت بازخورد، سعی در یادگیری رفتارهایی دارد که منجر به بیشینهسازی پاداش (یا کاهش مجازات) میشود.
2️⃣. عوامل اصلی:
🔸- عامل: شخص یا سیستمی که در محیط عمل میکند و با آن تعامل دارد.
🔸- محیط: هر محیطی که عامل در آن فعالیت میکند، میتواند محیط فیزیکی و یا محیط مجازی (مانند شبیهسازیهای کامپیوتری) باشد.
🔸 - عمل: اعمالی که عامل انجام میدهد.
🔸 - پاداش: این ممکن است یک پادازش مثبت (مثل پادازش مالی یا امتیاز) یا پاداش منفی (مثل مجازات) باشد که به عامل بر اساس اعمالش تعلق میگیرد.
3️⃣. الگوریتمها و مدلها:
- الگوریتمهای یادگیری تقویتی متنوعی وجود دارند، از جمله Q-learning، Deep Q-Networks (DQN)، Policy Gradient، Actor-Critic، و موارد دیگر.
- این الگوریتمها ممکن است بر پایه مدلی از محیط که به عامل ارائه میشود عمل کنند. مدل محیط میتواند deterministic یا stochastic باشد، به این معنا که نتیجه هر عمل برای ورودیهای مشخصی ثابت باشد یا احتمالی.
4️⃣. مفاهیم اصلی:
🔹- سیاست (Policy): راهنمایی که عامل را به انتخاب اعمال در محیط هدایت میکند.
🔹- ارزش (Value): میزان پاداز کلی که عامل میتواند در طول زمان کسب کند.
🔹- تابع پاداش (Reward Function): تابعی که پاداش را بر اساس وضعیت فعلی محیط و عمل انجام شده توسط عامل محاسبه میکند.
🔹- تابع ارزش (Value Function): تخمینی از ارزش هر وضعیت یا جفت وضعیت و عمل در محیط.
🔹- فرآیند تصمیمگیری مارکوف (MDP): یک مدل ریاضی برای توصیف یک محیط تصمیمگیری است که شامل وضعیتها، عملها، پادازها و احتمالات انتقال بین وضعیتها میشود.
5️⃣. کاربردها:
- یادگیری تقویتی در زمینههای مختلفی مانند رباتیک، بازیهای کامپیوتری، مدیریت منابع، سیستمهای توصیهگر، اتوماسیون صنعتی و موارد دیگر مورد استفاده قرار میگیرد.
با توجه به پیچیدگی و چالشهای مختلف موجود در یادگیری تقویتی، این زمینه همچنان موضوع تحقیقات فراوانی در علوم هوش مصنوعی و مهندسی رایانه است و پتانسیلهای بسیاری برای توسعه فناوریهای جدید دارد.
📣👨💻 @AlgorithmDesign_DataStructuer
✅یادگیری تقویتی یکی از رویکردهای مهم در علوم هوش مصنوعی و روانشناسی است که بر روی رفتارهای انسانی و ماشینی تأثیرگذار است. در اینجا، توضیحی جامع در مورد یادگیری تقویتی ارائه خواهم داد:
1️⃣. تعریف اصطلاحی:
یادگیری تقویتی یک فرآیند یادگیری است که در آن یک عامل (مانند یک ربات، یک نرمافزار کامپیوتری یا حتی انسان) با محیط ارتباط برقرار کرده و از طریق انجام اعمال مختلف و دریافت بازخورد، سعی در یادگیری رفتارهایی دارد که منجر به بیشینهسازی پاداش (یا کاهش مجازات) میشود.
2️⃣. عوامل اصلی:
🔸- عامل: شخص یا سیستمی که در محیط عمل میکند و با آن تعامل دارد.
🔸- محیط: هر محیطی که عامل در آن فعالیت میکند، میتواند محیط فیزیکی و یا محیط مجازی (مانند شبیهسازیهای کامپیوتری) باشد.
🔸 - عمل: اعمالی که عامل انجام میدهد.
🔸 - پاداش: این ممکن است یک پادازش مثبت (مثل پادازش مالی یا امتیاز) یا پاداش منفی (مثل مجازات) باشد که به عامل بر اساس اعمالش تعلق میگیرد.
3️⃣. الگوریتمها و مدلها:
- الگوریتمهای یادگیری تقویتی متنوعی وجود دارند، از جمله Q-learning، Deep Q-Networks (DQN)، Policy Gradient، Actor-Critic، و موارد دیگر.
- این الگوریتمها ممکن است بر پایه مدلی از محیط که به عامل ارائه میشود عمل کنند. مدل محیط میتواند deterministic یا stochastic باشد، به این معنا که نتیجه هر عمل برای ورودیهای مشخصی ثابت باشد یا احتمالی.
4️⃣. مفاهیم اصلی:
🔹- سیاست (Policy): راهنمایی که عامل را به انتخاب اعمال در محیط هدایت میکند.
🔹- ارزش (Value): میزان پاداز کلی که عامل میتواند در طول زمان کسب کند.
🔹- تابع پاداش (Reward Function): تابعی که پاداش را بر اساس وضعیت فعلی محیط و عمل انجام شده توسط عامل محاسبه میکند.
🔹- تابع ارزش (Value Function): تخمینی از ارزش هر وضعیت یا جفت وضعیت و عمل در محیط.
🔹- فرآیند تصمیمگیری مارکوف (MDP): یک مدل ریاضی برای توصیف یک محیط تصمیمگیری است که شامل وضعیتها، عملها، پادازها و احتمالات انتقال بین وضعیتها میشود.
5️⃣. کاربردها:
- یادگیری تقویتی در زمینههای مختلفی مانند رباتیک، بازیهای کامپیوتری، مدیریت منابع، سیستمهای توصیهگر، اتوماسیون صنعتی و موارد دیگر مورد استفاده قرار میگیرد.
با توجه به پیچیدگی و چالشهای مختلف موجود در یادگیری تقویتی، این زمینه همچنان موضوع تحقیقات فراوانی در علوم هوش مصنوعی و مهندسی رایانه است و پتانسیلهای بسیاری برای توسعه فناوریهای جدید دارد.
📣👨💻 @AlgorithmDesign_DataStructuer
👍2
برنامه زیر به ازای m=4 , n=5 کدام گزینه خواهد شد؟
def f(m,n):
if m<=1 or m==n:
return 1
else:
return f(m-1,n)+f(m,n-1)
عید همگی مبارک✌🏻🤩🥳
با لطف خداوند 🤲سال جدید فرا رسیده است، زمانی که در افق آسمان زندگی، نور و امید دیگر باران میبارد. امروز به زمینهای دلتنگی و انتظار، شادی و نوید میآوریم.
سال جدید✨ فرصتی است برای بازسازی رویاها، آغاز دوباره ماجراهای جدید، و تکریم لحظات گذشته. با وجود تمام چالشها و دشواریهایی که پشت سر گذاشتیم، همچنان باور داریم که زندگی میتواند پر از زیبایی و معنا باشد.
از اعماق قلب💜، آرزو دارم که سال جدید برای شما پر از لحظات شادی، آرامش و موفقیت باشد🌙امیدوارم در این سال، هر روزتان به روشنی نور خورشید☀️ و دلگرمی اندیشههای خوب بخشیده شود.
با آرزوی بهترینها برای شما در سال جدید😉✨🌺
با لطف خداوند 🤲سال جدید فرا رسیده است، زمانی که در افق آسمان زندگی، نور و امید دیگر باران میبارد. امروز به زمینهای دلتنگی و انتظار، شادی و نوید میآوریم.
سال جدید✨ فرصتی است برای بازسازی رویاها، آغاز دوباره ماجراهای جدید، و تکریم لحظات گذشته. با وجود تمام چالشها و دشواریهایی که پشت سر گذاشتیم، همچنان باور داریم که زندگی میتواند پر از زیبایی و معنا باشد.
از اعماق قلب💜، آرزو دارم که سال جدید برای شما پر از لحظات شادی، آرامش و موفقیت باشد🌙امیدوارم در این سال، هر روزتان به روشنی نور خورشید☀️ و دلگرمی اندیشههای خوب بخشیده شود.
با آرزوی بهترینها برای شما در سال جدید😉✨🌺
🎉12😍3👍2
کدام مورد بیانگر هزینه الگوریتم برناما نویسی پویا برای مسئله فروشنده دوره گرد است؟
Anonymous Quiz
22%
n^n , n^2
19%
n^2
42%
n^2 log n
16%
n log n
🤔4