لیتکد یکی از بهترین جاها برای تمرین الگوریتمه. این ریپو جواب بالای هزار تا از مسئلههاشو داره. اگه نمیدونی از کجا شروع کنی، اول جوابارو یه نگاه بنداز، بعد خودت امتحان کن. همین میتونه شروع مسیرت باشه:
https://github.com/haoel/leetcode
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
https://github.com/haoel/leetcode
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🙏5👨💻1
This media is not supported in your browser
VIEW IN TELEGRAM
قابلیتهای جدید NotebookLM
حالا میتونی گزارشهات رو به شکلهای مختلف شخصیسازی کنی ✨
هوش مصنوعی خودش فرمت مناسب محتوای تو رو پیشنهاد میده تا متنها مرتبتر و قابل استفادهتر باشن.
📑 مثلا میتونی محتوای خودت رو به پست وبلاگ تبدیل کنی یا زبان گزارش رو از بین بیش از ۵۰ زبان (از جمله فارسی) انتخاب کنی.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
حالا میتونی گزارشهات رو به شکلهای مختلف شخصیسازی کنی ✨
هوش مصنوعی خودش فرمت مناسب محتوای تو رو پیشنهاد میده تا متنها مرتبتر و قابل استفادهتر باشن.
📑 مثلا میتونی محتوای خودت رو به پست وبلاگ تبدیل کنی یا زبان گزارش رو از بین بیش از ۵۰ زبان (از جمله فارسی) انتخاب کنی.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🔥2
🎓 دورههای Generative AI از Google
این دوره به آموزش مفاهیم Generative AI میپردازه؛
از پایههای مدلهای زبانی بزرگ (LLM) گرفته تا موضوعات مهم مثل Responsible AI 🚀
https://www.cloudskillsboost.google/paths/118
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
این دوره به آموزش مفاهیم Generative AI میپردازه؛
از پایههای مدلهای زبانی بزرگ (LLM) گرفته تا موضوعات مهم مثل Responsible AI 🚀
https://www.cloudskillsboost.google/paths/118
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
👍1
🚨 امارات دیروز همه رو غافلگیر کرد!
با معرفی مدل جدید K2 Think ✨
🔹 یک LLM با ۳۲ میلیارد پارامتر
🔹 ساختهشده روی Qwen 2.5
🔹 آموزشدادهشده روی سختافزار Cerebras ⚡️
🔹 و از همه مهمتر: کاملاً متنباز 🟢
💡 نکته جالب اینجاست که K2 Think در ریاضی و کدنویسی حتی از غولهایی مثل DeepSeek هم بهتر عمل کرده!
https://www.k2think.ai/guest
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
با معرفی مدل جدید K2 Think ✨
🔹 یک LLM با ۳۲ میلیارد پارامتر
🔹 ساختهشده روی Qwen 2.5
🔹 آموزشدادهشده روی سختافزار Cerebras ⚡️
🔹 و از همه مهمتر: کاملاً متنباز 🟢
💡 نکته جالب اینجاست که K2 Think در ریاضی و کدنویسی حتی از غولهایی مثل DeepSeek هم بهتر عمل کرده!
https://www.k2think.ai/guest
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
👏3
📚 ریپازیتوری منابع مهندسی کامپیوتر
این ریپازیتوری شامل مجموعهای از اسلایدها، کتابها، جزوهها، تمرینها و نمونه سوالات رشته مهندسی کامپیوتر است.
هدف از این مجموعه، ایجاد یک مرجع کامل و آسان برای دانشجویان و علاقهمندان است تا بتوانند راحتتر به منابع آموزشی دسترسی داشته باشند.
✨ محتوا شامل:
جزوهها و اسلایدهای درسی
نمونه سوالات و تمرینها
منابع پیشنهادی برای مطالعه بیشتر
و...
https://github.com/Mohammadhossinee/Computer-Engineering-Resources
💾 ذخیره داشته باشید تا منابع بهروز را از دست ندهید!
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
این ریپازیتوری شامل مجموعهای از اسلایدها، کتابها، جزوهها، تمرینها و نمونه سوالات رشته مهندسی کامپیوتر است.
هدف از این مجموعه، ایجاد یک مرجع کامل و آسان برای دانشجویان و علاقهمندان است تا بتوانند راحتتر به منابع آموزشی دسترسی داشته باشند.
✨ محتوا شامل:
جزوهها و اسلایدهای درسی
نمونه سوالات و تمرینها
منابع پیشنهادی برای مطالعه بیشتر
و...
https://github.com/Mohammadhossinee/Computer-Engineering-Resources
💾 ذخیره داشته باشید تا منابع بهروز را از دست ندهید!
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
👌3
همه روشهای Fine-Tuning یکسان نیستند!
در واقع Fine-tuning یعنی گرفتن یک مدل از قبل آموزشدیده و آموزش دوباره روی دیتاست کوچک و خاص، تا برای یک وظیفه یا حوزه جدید آماده شود. بهترین روش برای بهرهبرداری کامل از مدلهای بزرگ (LLM)، اما مسیرش میتواند پیچیده باشد.
💥 انواع روشها:
1️⃣ Full Fine-Tuning
آپدیت همه پارامترهای مدل اصلی برای یک دیتاست خاص.
مناسب برای: وقتی یک مدل فوقالعاده برای یک وظیفه بسیار خاص میخواهید.
نیاز به سختافزار: خوشحالکننده برای GPU کلستر بزرگ!
2️⃣ LoRA (Low-Rank Adaptation)
آموزش ماتریسهای کوچک جدید و نگه داشتن وزنهای اصلی مدل ثابت.
مناسب برای: تطبیق مدل روی چندین وظیفه.
نیاز به سختافزار: GPU حرفهای مثل A100 یا H100
3️⃣ QLoRA (Quantized LoRA)
نسخه کمحجمتر و کممصرف LoRA که روی نسخه کوانتیزه و کمدقت مدل انجام میشود.
مناسب برای: Prototyping و آزمایش با بودجه محدود.
نیاز به سختافزار: یک GPU معمولی، حتی با VRAM محدود
📄 LoRA Paper: https://arxiv.org/pdf/2106.09685
📄 QLoRA Paper: https://arxiv.org/pdf/2305.14314
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
در واقع Fine-tuning یعنی گرفتن یک مدل از قبل آموزشدیده و آموزش دوباره روی دیتاست کوچک و خاص، تا برای یک وظیفه یا حوزه جدید آماده شود. بهترین روش برای بهرهبرداری کامل از مدلهای بزرگ (LLM)، اما مسیرش میتواند پیچیده باشد.
💥 انواع روشها:
1️⃣ Full Fine-Tuning
آپدیت همه پارامترهای مدل اصلی برای یک دیتاست خاص.
مناسب برای: وقتی یک مدل فوقالعاده برای یک وظیفه بسیار خاص میخواهید.
نیاز به سختافزار: خوشحالکننده برای GPU کلستر بزرگ!
2️⃣ LoRA (Low-Rank Adaptation)
آموزش ماتریسهای کوچک جدید و نگه داشتن وزنهای اصلی مدل ثابت.
مناسب برای: تطبیق مدل روی چندین وظیفه.
نیاز به سختافزار: GPU حرفهای مثل A100 یا H100
3️⃣ QLoRA (Quantized LoRA)
نسخه کمحجمتر و کممصرف LoRA که روی نسخه کوانتیزه و کمدقت مدل انجام میشود.
مناسب برای: Prototyping و آزمایش با بودجه محدود.
نیاز به سختافزار: یک GPU معمولی، حتی با VRAM محدود
📄 LoRA Paper: https://arxiv.org/pdf/2106.09685
📄 QLoRA Paper: https://arxiv.org/pdf/2305.14314
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
👍4👏1
🔥 یادگیری دیپلرنینگ از صفر تا صد در ۲۶ جلسه
🧠 اصلاً دیپلرنینگ چی هست و چه پیشنیازهایی داره
⚡️ محاسبات یه نورون و آموزش شبکههای عصبی ساده
🔄 پسانتشار خطا (Backpropagation) و توابع اکتیویشن
📊 مدیریت داده، اعتبارسنجی و جلوگیری از اورفیت
📈 مشکل محو یا انفجار گرادیانها و راهحلها
🖼 شبکههای CNN و تکنیکهای Transfer Learning
و...
https://www.youtube.com/playlist?list=PLgPbN3w-ia_PeT1_c5jiLW3RJdR7853b9
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🧠 اصلاً دیپلرنینگ چی هست و چه پیشنیازهایی داره
⚡️ محاسبات یه نورون و آموزش شبکههای عصبی ساده
🔄 پسانتشار خطا (Backpropagation) و توابع اکتیویشن
📊 مدیریت داده، اعتبارسنجی و جلوگیری از اورفیت
📈 مشکل محو یا انفجار گرادیانها و راهحلها
🖼 شبکههای CNN و تکنیکهای Transfer Learning
و...
https://www.youtube.com/playlist?list=PLgPbN3w-ia_PeT1_c5jiLW3RJdR7853b9
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🙏3
🧩 چرا LLMها دست از توهم (Hallucination) برنمیدارن؟
مقاله جدید OpenAI توضیح میده که توهم در مدلهای زبانی «خطا غیرمنتظره» نیست، بلکه نتیجه طبیعی آموزش و ارزیابی اونهاست.
مدلها مجبور میشن حتی وقتی مطمئن نیستن، جواب بدن و سیستمهای فعلی هم «بلوف زدن» رو بیشتر از «نمیدونم» پاداش میدن.
✅ راهحل: تغییر سیستم امتیازدهی بهجای معرفی تستهای جدید.
اگر به جای جریمه کردن جوابهای «نمیدونم»، اونها رو خنثی حساب کنیم، مدلها یاد میگیرن فقط وقتی جواب بدن که مطمئن هستن. این تغییر میتونه اعتماد به هوش مصنوعی رو افزایش بده.
اطلاعات بیشتر:
https://www.arxiv.org/pdf/2509.04664
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
مقاله جدید OpenAI توضیح میده که توهم در مدلهای زبانی «خطا غیرمنتظره» نیست، بلکه نتیجه طبیعی آموزش و ارزیابی اونهاست.
مدلها مجبور میشن حتی وقتی مطمئن نیستن، جواب بدن و سیستمهای فعلی هم «بلوف زدن» رو بیشتر از «نمیدونم» پاداش میدن.
✅ راهحل: تغییر سیستم امتیازدهی بهجای معرفی تستهای جدید.
اگر به جای جریمه کردن جوابهای «نمیدونم»، اونها رو خنثی حساب کنیم، مدلها یاد میگیرن فقط وقتی جواب بدن که مطمئن هستن. این تغییر میتونه اعتماد به هوش مصنوعی رو افزایش بده.
اطلاعات بیشتر:
https://www.arxiv.org/pdf/2509.04664
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
👌6👍1
📚 دوره آموزش ساخت مدل زبانی از صفر
مدلهای زبانی پایه اصلی بیشتر ابزارهای NLP مدرن هستن و نشون دادن که یه سیستم عمومی میتونه چندین کار مختلف رو انجام بده. پس درک عمیق این مدلها برای پژوهشگرها و مهندسها ضروریه.
توی این دوره قراره مثل درسهایی که سیستمعامل رو از صفر میسازن، کل مسیر ساخت یه Language Model رو با هم قدمبهقدم یاد بگیریم:
🔹 جمعآوری و پاکسازی دادهها برای pre-training
🔹 ساختار ترنسفورمر و نحوه طراحی مدل
🔹 آموزش مدل و تکنیکهای مهم یادگیری
🔹 ارزیابی و آمادهسازی برای استقرار (Deployment)
https://www.youtube.com/playlist?list=PLoROMvodv4rOY23Y0BoGoBGgQ1zmU_MT_
برای بررسی کد ها و اسلاید ها و... :
https://github.com/stanford-cs336/spring2025-lectures
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
مدلهای زبانی پایه اصلی بیشتر ابزارهای NLP مدرن هستن و نشون دادن که یه سیستم عمومی میتونه چندین کار مختلف رو انجام بده. پس درک عمیق این مدلها برای پژوهشگرها و مهندسها ضروریه.
توی این دوره قراره مثل درسهایی که سیستمعامل رو از صفر میسازن، کل مسیر ساخت یه Language Model رو با هم قدمبهقدم یاد بگیریم:
🔹 جمعآوری و پاکسازی دادهها برای pre-training
🔹 ساختار ترنسفورمر و نحوه طراحی مدل
🔹 آموزش مدل و تکنیکهای مهم یادگیری
🔹 ارزیابی و آمادهسازی برای استقرار (Deployment)
https://www.youtube.com/playlist?list=PLoROMvodv4rOY23Y0BoGoBGgQ1zmU_MT_
برای بررسی کد ها و اسلاید ها و... :
https://github.com/stanford-cs336/spring2025-lectures
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🙏2👌1
کمپانی OpenAI بالاخره منتشر گرد که مردم چطور از ChatGPT استفاده میکنند. فرصت برای درست کردن محصولاتی که مردم نیاز دارند.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🔥5
🚀 معرفی VaultGemma
یه مدل زبانی جدیده که از پایه ساخته شده و فرق اصلیش با بقیه اینه که با روش حفظ حریم خصوصی (Differential Privacy) آموزش داده شده. یعنی چی؟
یعنی وقتی این مدل آموزش میبینه، دیگه نمیتونه اطلاعات حساس کاربرا یا متنهایی که روش تمرین داده شده رو حفظ کنه و بعداً پس بده. عملاً مثل این میمونه که هر چیزی رو که میخونه، سریع فراموش میکنه.
برای اطلاع بیشتر از جمله مقاله و ... :
https://research.google/blog/vaultgemma-the-worlds-most-capable-differentially-private-llm/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
یه مدل زبانی جدیده که از پایه ساخته شده و فرق اصلیش با بقیه اینه که با روش حفظ حریم خصوصی (Differential Privacy) آموزش داده شده. یعنی چی؟
یعنی وقتی این مدل آموزش میبینه، دیگه نمیتونه اطلاعات حساس کاربرا یا متنهایی که روش تمرین داده شده رو حفظ کنه و بعداً پس بده. عملاً مثل این میمونه که هر چیزی رو که میخونه، سریع فراموش میکنه.
برای اطلاع بیشتر از جمله مقاله و ... :
https://research.google/blog/vaultgemma-the-worlds-most-capable-differentially-private-llm/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
👍5💯1