Algorithm design & data structure
6.68K subscribers
1.01K photos
144 videos
175 files
593 links
این کانال برای تمامی علاقه‌مندان به کامپیوتر، مخصوصاً حوزه ساختمان داده‌ها و الگوریتم‌ها، مفید می باشد. آشنایی با ریاضیات مقدماتی، برنامه‌نویسی مقدماتی و پیشرفته و همچنین شی‌گرایی می‌تواند در درک بهتر مفاهیم این درس کمک‌ کند.

👨‍💻Admin👉 @Se_mohamad
Download Telegram
📌 معرفی ریپازیتوری جذاب:
https://github.com/aishwaryanr/awesome-generative-ai-guide

این ریپازیتوری مثل یک مرکز جامع برای منابع GenAI عمل می‌کنه و پر از آپدیت‌های تازه در مورد:
🔹 مقالات جدید حوزه Generative AI
🔹 منابع مصاحبه و سوالات رایج
🔹 نوت‌بوک‌ها و ریپازیتوری‌های کدنویسی
🔹 دوره‌های رایگان (بیش از ۹۰ دوره مختلف)
🔹 نقشه‌راه‌های یادگیری (RAG، LLM Foundations، Agents و …)

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
👏2
این ریپازیتوری اومده مسیر شروع هوش مصنوعی رو نشون داده؛ از پایه مفاهیم رو توضیح داده و همه چیز رو با کد داخل نوت‌بوک‌های Jupyter آورده.

https://github.com/fastai/fastbook/blob/master/01_intro.ipynb

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🚀 پایتورچ برای یادگیری عمیق 🔥

یه مجموعه کامل از منابع پایتورچ توی گیت‌هاب؛ شامل مدل‌ها، پیاده‌سازی مقالات، کتابخونه‌های کمکی، کتاب‌ها، آموزش‌ها و حتی کنفرانس‌ها 🎯

https://github.com/bharathgs/Awesome-pytorch-list

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
دانشجوهای برکلی یه مدل به اسم SkyRL-SQL-7B ساختن که با یه روش جدید به اسم RL چندمرحله‌ای آموزش داده شده. فرقش با روش‌های معمول اینه که می‌تونه کوئری SQL رو مرحله‌به‌مرحله بهتر کنه تا آخرش به جواب دقیق برسه.

نکته جالب اینجاست که با فقط حدود ۶۰۰ نمونه آموزشی تونسته روی دیتاست معروف Spider حدود ۹٪ دقت بیشتر بیاره و حتی از مدل‌های بزرگی مثل GPT-4o هم بهتر بشه!
کد و مدلش هم بازه و میشه راحت برای تسک‌های دیگه فاین‌تیونش کرد.

https://novasky-ai.notion.site/skyrl-sql

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
📌 یک دوره‌ی تازه و ارزشمند از دانشگاه UCLA برای بهار ۲۰۲۵ منتشر شده:
Reinforcement Learning of Large Language Models

این مجموعه سخنرانی‌ موضوعات متنوعی درباره‌ی ترکیب یادگیری تقویتی و مدل‌های زبانی بزرگ رو پوشش می‌ده، مثل:

مبانی و پایه‌های RL
بحث Test-time compute
روش RLHF
و حتی RL با پاداش‌های قابل‌اعتبار (RLVR)

یک منبع عالی برای کسایی که می‌خوان درک عمیق‌تری از RL در LLMها پیدا کنن.

https://ernestryu.com/courses/RL-LLM.html

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🙏2
یه دوست عزیزی، محمد شجاعی، یه نقشه راه خیلی خوب برای یادگیری LLM آماده کرده.
از پایه‌ها شروع میشه، میره سراغ ترنسفورمر و توکنایزیشن و در نهایت هم به مباحث پروداکشن و LLMOps می‌رسه.

همه چیز مرحله‌به‌مرحله مرتب شده و حتی پروژه‌های عملی هم داخلش هست تا بتونید بهتر یاد بگیرید.

https://mshojaei77.github.io/roadmap.html

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
👏9🎉1🙏1
با این پرامپت، یه دستیار هوش مصنوعی داری که سخت‌ترین مفاهیم مهندسی کامپیوتر رو برات اول ساده میگه و بعد با توضیح داستانی و منبع کامل بازش می‌کنه.

https://gist.github.com/mhrlife/26a279b4fcacc71e20d2068219dd7bbc

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
👍5
تکنیک‌های مهم در RAG

🧠 Reasoning & Acting (ReAct):
مدل هم فکر می‌کنه هم عمل! یعنی اول تصمیم می‌گیره چی لازمه، می‌ره دنبالش، بعد بر اساس اون دوباره استدلال می‌کنه.

🌳 Tree of Thoughts (ToT):
به‌جای یه مسیر، چند مسیر مختلف رو هم‌زمان بررسی می‌کنه و در نهایت بهترین شاخه رو انتخاب می‌کنه.

🔗 Chain of Thought (CoT):
مدل مرحله‌به‌مرحله فکر می‌کنه؛ مثل حل تمرین ریاضی که هر قدمش نوشته می‌شه. اینطوری جواب شفاف‌تر درمیاد.

🎯 Prompt Engineering:
با طراحی هوشمند پرامپت‌ها می‌شه بدون تغییر خود مدل، خروجی‌ها رو دقیق‌تر و بهتر کرد.

✍️ Query Rewriting:
پرسش کاربر بازنویسی می‌شه تا برای جستجو مناسب‌تر باشه. چون همیشه همون چیزی که می‌پرسیم، بهترین راه برای پیدا کردن جواب نیست.

📚 Query Expansion:
پرسش اصلی گسترده‌تر می‌شه تا سوالات مشابه هم ساخته بشن. این کار باعث می‌شه هم تعداد و هم کیفیت نتایج بالا بره.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
👍2
📘🔥 یک مهندس ارشد گوگل یه کتاب رایگان ۴۰۰ صفحه‌ای منتشر کرده: Agentic Design Patterns

این کتاب تقریباً همه چیز رو درباره Agentها پوشش می‌ده + کلی کد کاربردی!
یه نگاه به فهرست مطالب بنداز 👇

Advanced Prompt Techniques
🤝 Multi-Agent Patterns
🛠 Tool Use و MCP
... و خیلی چیزای دیگه!

https://docs.google.com/document/d/1rsaK53T3Lg5KoGwvf8ukOUvbELRtH-V0LnOIFDxBryE/preview?tab=t.0

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🙏3
🚀 خبر عالی برای علاقه‌مندان به هوش مصنوعی!

بعد از استقبال بیش از ۴۲۰,۰۰۰ نفر از دوره‌ی ۵ روزه‌ی Generative AI Intensive، حالا گوگل و کاگل دست به کار شدن و یه دوره‌ی جدید و فوق‌العاده رو راه انداختن:

5-Day AI Agents Intensive
یه دوره‌ی آنلاین و کاملاً رایگان برای یادگیری و ساخت عامل‌های هوشمند (AI Agents)

🔹 توی این دوره با معماری‌ها، ابزارها، حافظه، ارکستریشن، ارزیابی و همه چیزهایی که لازمه برای ساخت و استقرار ایجنت‌ها آشنا میشی.
🔹 تمرین‌های عملی، کدلب‌ها (codelabs)، پادکست و حتی پروژه‌ی نهایی (Capstone Project) هم داره تا بتونی مهارت‌هاتو روی پروژه‌های واقعی محک بزنی.

📌 برای اطلاع بیشتر و ثبت‌نام به لینک زیر مراجعه کنید:
https://rsvp.withgoogle.com/events/google-ai-agents-intensive_2025

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🔥5
بعد از ۸ سال، دوره‌ی معروف CS231N - Deep Learning for Computer Vision (بهار ۲۰۲۵) از استنفورد دوباره منتشر شد 🚀

این دوره یکی از بهترین منابع برای یادگیری Deep Learning و Computer Vision هست و موضوعات خیلی جذابی رو پوشش می‌ده:

🔹 طبقه‌بندی تصاویر
🔹 بهینه‌سازی و شبکه‌های عصبی
🔹 معماری‌ها: CNN, RNN, Transformers
🔹 تشخیص و بخش‌بندی اشیا
🔹 درک ویدئو
🔹 یادگیری خودنظارتی (Self-Supervised)
🔹 مدل‌های سه‌بعدی و مولد (Generative Models)
🔹 Vision & Language
🔹 رباتیک و Human-Centric AI

https://www.youtube.com/playlist?list=PLoROMvodv4rOmsNzYBMe0gJY2XS8AQg16

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
👌4👍1
نگاهی جامع به معماری شبکه‌های عصبی ترنسفورمر

https://deeprevision.github.io/posts/001-transformer/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🎙 VibeVoice

در واقع VibeVoice یه مدل متن‌بازه که می‌تونه متن رو به صدای طبیعی و طولانی تبدیل کنه؛ حتی برای ساخت پادکست‌های چندنفره!
این مدل تا ۹۰ دقیقه صدا با ۴ گوینده مختلف تولید می‌کنه و کیفیت و ثبات صدا رو خیلی خوب حفظ می‌کنه.
مزیت بزرگش اینه که هم مقیاس‌پذیره، هم مکالمه‌ها رو طبیعی‌تر از مدل‌های قبلی نشون می‌ده.

https://huggingface.co/microsoft/VibeVoice-1.5B

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
گوگل یه مدل امبدینگ جدید داده به اسم EmbeddingGemma که با این‌که خیلی کوچیکه (۳۰۸M پارامتر)، ولی فوق‌العاده قویه.

نکته خفن اینجاست که با کمتر از ۲۰۰ مگ رم رو دستگاه اجرا میشه، حتی توی EdgeTPU تو ۱۵ میلی‌ثانیه امبدینگ میده! 🔥
بیشتر از ۱۰۰ تا زبان رو ساپورت می‌کنه، خروجی‌ش هم از ۱۲۸ تا ۷۶۸ بُعد قابل تنظیمه.

کلا آفلاینه یعنی حریم خصوصی کامل حفظ میشه.
برای RAG روی دستگاه، سرچ معنایی یا کار با داده‌های شخصی عالیه.

الانم راحت میشه ازش روی Hugging Face، Kaggle یا Vertex AI استفاده کرد.

https://developers.googleblog.com/en/introducing-embeddinggemma/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🔥3
لیت‌کد یکی از بهترین جاها برای تمرین الگوریتمه. این ریپو جواب بالای هزار تا از مسئله‌هاشو داره. اگه نمی‌دونی از کجا شروع کنی، اول جوابارو یه نگاه بنداز، بعد خودت امتحان کن. همین می‌تونه شروع مسیرت باشه:

https://github.com/haoel/leetcode

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🙏5👨‍💻1
This media is not supported in your browser
VIEW IN TELEGRAM
قابلیت‌های جدید NotebookLM

حالا می‌تونی گزارش‌هات رو به شکل‌های مختلف شخصی‌سازی کنی
هوش مصنوعی خودش فرمت مناسب محتوای تو رو پیشنهاد می‌ده تا متن‌ها مرتب‌تر و قابل استفاده‌تر باشن.

📑 مثلا می‌تونی محتوای خودت رو به پست وبلاگ تبدیل کنی یا زبان گزارش رو از بین بیش از ۵۰ زبان (از جمله فارسی) انتخاب کنی.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🔥2
🎓 دوره‌های Generative AI از Google

این دوره به آموزش مفاهیم Generative AI می‌پردازه؛
از پایه‌های مدل‌های زبانی بزرگ (LLM) گرفته تا موضوعات مهم مثل Responsible AI 🚀

https://www.cloudskillsboost.google/paths/118

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
👍1
🚨 امارات دیروز همه رو غافلگیر کرد!
با معرفی مدل جدید K2 Think
🔹 یک LLM با ۳۲ میلیارد پارامتر
🔹 ساخته‌شده روی Qwen 2.5
🔹 آموزش‌داده‌شده روی سخت‌افزار Cerebras ⚡️
🔹 و از همه مهم‌تر: کاملاً متن‌باز 🟢

💡 نکته جالب اینجاست که K2 Think در ریاضی و کدنویسی حتی از غول‌هایی مثل DeepSeek هم بهتر عمل کرده!

https://www.k2think.ai/guest
#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
👏1
📚 ریپازیتوری منابع مهندسی کامپیوتر

این ریپازیتوری شامل مجموعه‌ای از اسلایدها، کتاب‌ها، جزوه‌ها، تمرین‌ها و نمونه سوالات رشته مهندسی کامپیوتر است.
هدف از این مجموعه، ایجاد یک مرجع کامل و آسان برای دانشجویان و علاقه‌مندان است تا بتوانند راحت‌تر به منابع آموزشی دسترسی داشته باشند.

محتوا شامل:
جزوه‌ها و اسلایدهای درسی
نمونه سوالات و تمرین‌ها
منابع پیشنهادی برای مطالعه بیشتر
و...
https://github.com/Mohammadhossinee/Computer-Engineering-Resources

💾 ذخیره داشته باشید تا منابع به‌روز را از دست ندهید!

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
👌1
همه روش‌های Fine-Tuning یکسان نیستند!

در واقع Fine-tuning یعنی گرفتن یک مدل از قبل آموزش‌دیده و آموزش دوباره روی دیتاست کوچک و خاص، تا برای یک وظیفه یا حوزه جدید آماده شود. بهترین روش برای بهره‌برداری کامل از مدل‌های بزرگ (LLM)، اما مسیرش می‌تواند پیچیده باشد.

💥 انواع روش‌ها:

1️⃣ Full Fine-Tuning
آپدیت همه پارامترهای مدل اصلی برای یک دیتاست خاص.
مناسب برای: وقتی یک مدل فوق‌العاده برای یک وظیفه بسیار خاص می‌خواهید.
نیاز به سخت‌افزار: خوشحال‌کننده برای GPU کلستر بزرگ!

2️⃣ LoRA (Low-Rank Adaptation)
آموزش ماتریس‌های کوچک جدید و نگه داشتن وزن‌های اصلی مدل ثابت.
مناسب برای: تطبیق مدل روی چندین وظیفه.
نیاز به سخت‌افزار: GPU حرفه‌ای مثل A100 یا H100

3️⃣ QLoRA (Quantized LoRA)
نسخه کم‌حجم‌تر و کم‌مصرف LoRA که روی نسخه کوانتیزه و کم‌دقت مدل انجام می‌شود.
مناسب برای: Prototyping و آزمایش با بودجه محدود.
نیاز به سخت‌افزار: یک GPU معمولی، حتی با VRAM محدود

📄 LoRA Paper: https://arxiv.org/pdf/2106.09685
📄 QLoRA Paper: https://arxiv.org/pdf/2305.14314

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
👍3