VIRSUN
15.5K subscribers
385 photos
229 videos
2 files
235 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🔹 کانال توسط اساتید هوش مصنوعی مدیریت میشود
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir
Download Telegram
📚🤖 RAG؛ نسل ترکیبی از بازیابی و تولید متن

یکی از قدرتمندترین روش‌های ترکیبی در حوزه NLP روش RAG (Retrieval-Augmented Generation)است که از دو دنیای متفاوت استفاده می‌کند:

🔹 🔍 بازیابی اطلاعات (Retrieval):
مدل ابتدا از یک پایگاه داده یا اسناد بیرونی، مرتبط‌ترین متون را پیدا می‌کند.

🔹 🧠 تولید متن (Generation):
سپس با کمک یک مدل زبان (مثل T5 یا BART)، براساس متن‌های بازیابی‌شده، پاسخ دقیق و طبیعی تولید می‌شود.

---

ویژگی‌ها و مزایا:

* اتصال مدل زبان به حافظه خارجی (external knowledge)
* کاهش hallucination در مدل‌های بزرگ
* پاسخ‌دهی دقیق‌تر در سیستم‌های پرسش‌وپاسخ (QA)
* کاربردی در چت‌بات‌ها، جستجو، و تولید گزارش‌های تخصصی

---

📌 ساختار کلی RAG:

پرسش → جستجوی متون مرتبط → ترکیب → تولید پاسخ نهایی


📎 پروژه‌های متن‌باز معروف:
🟢 [Haystack (by deepset)](https://github.com/deepset-ai/haystack)
🟢 [Facebook RAG (Hugging Face)](https://huggingface.co/facebook/rag-token-base)

---

\#RAG #RetrievalAugmentedGeneration #NLP #هوش\_مصنوعی #مدل\_زبان #LLM #پرسش\_و\_پاسخ

📍 @rss_ai_ir
1🤯1🙏1
🚦 آموزش تصویری و ساده شبکه‌های ترنسفورمر (Transformer Networks)

🧠 ترنسفورمرها پایه‌ی مدل‌های پیشرفته‌ای مثل ChatGPT، BERT و T5 هستند، اما فهمیدن ساختار درونی‌شون همیشه کار راحتی نیست...
تا حالا! 👇

📌 با استفاده از ابزار تعاملی Transformer Explainer از تیم PoloClub، می‌تونی ساختار داخلی ترنسفورمرها رو مرحله‌به‌مرحله و کاملاً بصری ببینی:

🔍 چه اتفاقی در Attention می‌افته؟
🔁 چطور لایه‌ها با هم کار می‌کنن؟
🔡 وزن‌ها چطور بین کلمات توزیع می‌شن؟
🎯 چطور می‌تونیم ببینیم مدل چه چیزی رو “توجه” می‌کنه؟

این ابزار برای یادگیری مفهومی معماری ترنسفورمر عالیه، چه مبتدی باشی چه پیشرفته!

📎 امتحانش کن 👇
🔗 Transformer Explainer

#هوش_مصنوعی #ترنسفورمر #یادگیری_عمیق #توضیح_بصری #Transformer #AI #DeepLearning #NLP #شبکه_عصبی #پرامپتینگ

@rss_ai_ir
2👍2🙏2
Media is too big
VIEW IN TELEGRAM
📌 ویدیوی آموزشی: درک مکانیزم Attention در ترنسفورمرها

اگر به دنبال درکی عمیق و بصری از نحوه کار «attention» در ترنسفورمرها هستید، این ویدیو از 3Blue1Brown دقیقاً همینه!

🔍 در این ویدیو خواهید دید:

چطور ماتریس‌های Key و Query شباهت بین توکن‌ها (کلمات یا پچ‌های تصویر) را محاسبه می‌کنند
چطور ماتریس Value آمیخته با وزن‌های attention به ایجاد Embedding های غنی کمک می‌کند
چرا attention اساس قدرت مدل‌های LLM و Vision Transformer است

♨️ این آموزش فوق‌العاده مناسب کسانیه که:

❇️ ساختار توجه (Self-Attention) رو بصری یاد بگیرن
❇️ درک بهتری از نقش Q، K و V در هر Head داشته باشن
❇️ مسیر فکری ترنسفورمرها (از جمله GPT و BERT) رو فرا بگیرن

♨️زیرنویس فارسی

#هوش_مصنوعی #ترنسفورمر #Attention #DeepLearning #3Blue1Brown #NLP #VL #آموزش_بصری
@rss_ai_ir
👍2👏1🙏1
🌀 آینده مدل‌های زبانی در مسیر DiffusionLM؟

♻️مدل‌های زبانی مبتنی بر انتشار یا DiffusionLM به‌عنوان نسل جدید معماری‌های تولید متن، توجه محققان را به‌خود جلب کرده‌اند؛ به‌ویژه در شرایطی که داده‌های آموزشی محدود هستند و نیاز به استدلال عمیق‌تری وجود دارد.

♻️در معماری Diffusion، برخلاف مدل‌های اتورگرسیو (AR) که متن را به‌صورت گام‌به‌گام پیش‌بینی می‌کنند، فرآیند تولید شامل افزودن نویز به داده و سپس بازسازی آن به‌صورت تدریجی است. این ساختار امکان استفاده چندباره از داده (تا صدها بار) را فراهم می‌سازد، در حالی‌که مدل‌های AR معمولاً پس از چند ایپاک به اشباع می‌رسند.

📌 مزایای کلیدی DiffusionLM:

✳️توانایی استخراج اطلاعات عمیق‌تر از داده‌های محدود
✳️انعطاف بالا در کنترل ساختار و محتوای خروجی
✳️کارایی بهتر در سناریوهای reasoning و پاسخ به پرسش‌های ترکیبی
✳️قابلیت تعمیم بهتر به وظایف جدید با داده کم


♻️از منظر عملکرد، در سناریوهایی که داده‌ کم ولی منابع محاسباتی کافی هستند، مدل‌های Diffusion برتری محسوسی نسبت به مدل‌های سنتی AR دارند. اگرچه سرعت تولید متن در Diffusion پایین‌تر است، اما کیفیت و قابلیت هدایت‌پذیری خروجی به‌ویژه برای کاربردهایی مانند agentهای زبانی یا تولید محتوای دقیق‌تر، بسیار بالاست.

📚 مطالعهٔ کامل پژوهش:
🔗 arXiv:2507.15857 - DiffusionLM vs AR

——
@rss_ai_ir
#هوش_مصنوعی #مدل_زبانی #NLP #DiffusionLM #LLM #یادگیری_عمیق #Reasoning #AI
👍2🔥2👏1