🧠 پشتهی توسعهدهندگان RAG (بازیابی + تولید) به زبان ساده!
♻️این تصویر، نمای کاملی از ابزارها و لایههای مورد استفاده برای ساخت سیستمهای RAG رو نشون میده — از استخراج داده گرفته تا مدل زبانی و ارزیابی نهایی.
📌 خلاصه مهمترین اجزا:
🔹 مدلهای زبانی (LLMs):
متنباز: LLaMA 3.3، Mistral، Phi-4، Qwen 2.5، Gemma 3، DeepSeek
بسته: GPT (OpenAI)، Claude (Anthropic)، Gemini (Google)، Cohere، Amazon
🔹 فریمورکها برای پیادهسازی RAG:
LangChain، LlamaIndex، Haystack، Txtai
🔹 دیتابیس برداری (Vector DBs):
Chroma، Pinecone، Weaviate، Qdrant، Milvus
🔹 استخراج داده:
از وب: Crawl4AI، ScrapeGraphAI، FireCrawl
از اسناد: MegaParser، Docling، LlamaParse، ExtractThinker
🔹 مدلهای برداری متن (Text Embedding):
SBERT، Nomic، Ollama، OpenAI، Cohere
🔹 ارزیابی عملکرد:
Giskard، Ragas، Trulens، Voyage AI
🔧 همه این ابزارها با هدف ساخت یک سیستم هوشمند RAG ترکیب میشن که بتونه اطلاعات رو از منابع مختلف بگیره، بفهمه، و خروجی دقیق تولید کنه.
📣 اگر میخوای مدلهای Retrieval-Augmented Generation حرفهای بسازی، این پشتهی ابزارها دقیقاً چیزیه که باید بلد باشی!
📍 آموزشها و ابزارهای بیشتر در:
@rss_ai_ir
#RAG #هوش_مصنوعی #LLM #LangChain #پردازش_زبان #بردار_متن #استخراج_داده #پشته_توسعه #AItools #openai #gemini #cohere #ragstack
♻️این تصویر، نمای کاملی از ابزارها و لایههای مورد استفاده برای ساخت سیستمهای RAG رو نشون میده — از استخراج داده گرفته تا مدل زبانی و ارزیابی نهایی.
📌 خلاصه مهمترین اجزا:
🔹 مدلهای زبانی (LLMs):
متنباز: LLaMA 3.3، Mistral، Phi-4، Qwen 2.5، Gemma 3، DeepSeek
بسته: GPT (OpenAI)، Claude (Anthropic)، Gemini (Google)، Cohere، Amazon
🔹 فریمورکها برای پیادهسازی RAG:
LangChain، LlamaIndex، Haystack، Txtai
🔹 دیتابیس برداری (Vector DBs):
Chroma، Pinecone، Weaviate، Qdrant، Milvus
🔹 استخراج داده:
از وب: Crawl4AI، ScrapeGraphAI، FireCrawl
از اسناد: MegaParser، Docling، LlamaParse، ExtractThinker
🔹 مدلهای برداری متن (Text Embedding):
SBERT، Nomic، Ollama، OpenAI، Cohere
🔹 ارزیابی عملکرد:
Giskard، Ragas، Trulens، Voyage AI
🔧 همه این ابزارها با هدف ساخت یک سیستم هوشمند RAG ترکیب میشن که بتونه اطلاعات رو از منابع مختلف بگیره، بفهمه، و خروجی دقیق تولید کنه.
📣 اگر میخوای مدلهای Retrieval-Augmented Generation حرفهای بسازی، این پشتهی ابزارها دقیقاً چیزیه که باید بلد باشی!
📍 آموزشها و ابزارهای بیشتر در:
@rss_ai_ir
#RAG #هوش_مصنوعی #LLM #LangChain #پردازش_زبان #بردار_متن #استخراج_داده #پشته_توسعه #AItools #openai #gemini #cohere #ragstack
👏2❤1🔥1
📦 کتابخانه LangExtract از گوگل؛ استخراج ساختار از متن به کمک هوش مصنوعی
🔍 گوگل بهتازگی از LangExtract رونمایی کرده؛ یک کتابخانه اپنسورس پایتون برای استخراج اطلاعات ساختاریافته از متون بلند، با بهرهگیری از مدلهای LLM مثل Gemini.
📌 ویژگیهای برجسته LangExtract:
✅ ردیابی دقیق منبع اطلاعات:
هر دادهای که استخراج میشود (مثل نام، تاریخ یا دوز دارو)، به مکان دقیق آن در متن اصلی اشاره دارد. این یعنی میتوان منشأ دقیق اطلاعات را بررسی کرد.
✅ فرمت خروجی قابلاعتماد و مشخص:
با استفاده از چند مثال و تعیین ساختار موردنظر، خروجی همیشه فرمتی منسجم و قابلپیشبینی دارد.
✅ پشتیبانی از متون بسیار طولانی:
متنها به بخشهایی تقسیم شده و بهصورت موازی پردازش میشوند. این باعث افزایش دقت و مقیاسپذیری در دادههای سنگین میشود.
✅ نمایش گرافیکی HTML:
با خروجی تعاملی HTML میتوانید هزاران برچسب استخراجشده را در متن بهصورت بصری بررسی کنید.
✅ سازگار با LLMهای مختلف:
گرچه توسط گوگل توسعه یافته، اما فقط محدود به Gemini نیست. میتوانید از مدلهای دیگر بهصورت محلی یا ابری استفاده کنید.
✅ قابلیت غنیسازی با دانش عمومی مدلها:
بعضی دادهها ممکن است از "دانش درونی" مدل استخراج شوند؛ مثلاً اطلاعاتی که صراحتاً در متن نیست اما مدل بر اساس دانش عمومی خود پیشنهاد میدهد.
🔬 کاربرد اصلی اولیه: تحلیل گزارشهای پزشکی گوگل در دمو RadExtract نشان داده که این ابزار چگونه میتواند از گزارشهای رادیولوژی، دادههای مهم را استخراج و ساختاردهی کند.
🧪 دمو آنلاین: RadExtract در Hugging Face
📚 توضیح رسمی: مقاله وبلاگ گوگل
💾 سورسکد: LangExtract در گیتهاب
🔖 لایسنس: Apache 2.0
@rss_ai_ir
#استخراج_اطلاعات #هوش_مصنوعی #Google #LangExtract #LLM #پردازش_زبان_طبیعی
🔍 گوگل بهتازگی از LangExtract رونمایی کرده؛ یک کتابخانه اپنسورس پایتون برای استخراج اطلاعات ساختاریافته از متون بلند، با بهرهگیری از مدلهای LLM مثل Gemini.
📌 ویژگیهای برجسته LangExtract:
✅ ردیابی دقیق منبع اطلاعات:
هر دادهای که استخراج میشود (مثل نام، تاریخ یا دوز دارو)، به مکان دقیق آن در متن اصلی اشاره دارد. این یعنی میتوان منشأ دقیق اطلاعات را بررسی کرد.
✅ فرمت خروجی قابلاعتماد و مشخص:
با استفاده از چند مثال و تعیین ساختار موردنظر، خروجی همیشه فرمتی منسجم و قابلپیشبینی دارد.
✅ پشتیبانی از متون بسیار طولانی:
متنها به بخشهایی تقسیم شده و بهصورت موازی پردازش میشوند. این باعث افزایش دقت و مقیاسپذیری در دادههای سنگین میشود.
✅ نمایش گرافیکی HTML:
با خروجی تعاملی HTML میتوانید هزاران برچسب استخراجشده را در متن بهصورت بصری بررسی کنید.
✅ سازگار با LLMهای مختلف:
گرچه توسط گوگل توسعه یافته، اما فقط محدود به Gemini نیست. میتوانید از مدلهای دیگر بهصورت محلی یا ابری استفاده کنید.
✅ قابلیت غنیسازی با دانش عمومی مدلها:
بعضی دادهها ممکن است از "دانش درونی" مدل استخراج شوند؛ مثلاً اطلاعاتی که صراحتاً در متن نیست اما مدل بر اساس دانش عمومی خود پیشنهاد میدهد.
🔬 کاربرد اصلی اولیه: تحلیل گزارشهای پزشکی گوگل در دمو RadExtract نشان داده که این ابزار چگونه میتواند از گزارشهای رادیولوژی، دادههای مهم را استخراج و ساختاردهی کند.
🧪 دمو آنلاین: RadExtract در Hugging Face
📚 توضیح رسمی: مقاله وبلاگ گوگل
💾 سورسکد: LangExtract در گیتهاب
🔖 لایسنس: Apache 2.0
@rss_ai_ir
#استخراج_اطلاعات #هوش_مصنوعی #Google #LangExtract #LLM #پردازش_زبان_طبیعی
❤2👍1🙏1
⚡️ مدل جدید Qwen3-Coder-30B-A3B-Instruct معرفی شد!
نسخهای قدرتمند و بهینهشده از خانواده Qwen3-Coder برای تولید هوشمندانه کد:
🔹 دقت بالا در تولید کد + سرعت رعدآسا
🔹 حافظه کانتکست: 256K (و تا 1M با تکنیک YaRN)
🔹 ترکیب آموزش اولیه و پسآموزش
🔹 ۳۰.۵ میلیارد پارامتر (با ۳.۳ میلیارد پارامتر فعال)
🔹 مدل Mixture of Experts با ۱۲۸ متخصص (فقط ۸ فعال در هر مرحله → کارایی بیشتر)
🔹 بهینهشده برای زبانهای Qwen Code, Cline, Roo Code, Kilo Code و...
🔹 پشتیبانی از فراخوانی توابع (function calling) و اجرای Agentها
🔐 لایسنس: Apache 2.0 (کاملاً متنباز)
---
🎯 نسخهای عالی برای توسعهدهندگان، پروژههای LLM و کاربردهای برنامهنویسی حرفهای.
📥 لینکها:
💬 گفتوگو با مدل: [chat.qwen.ai](https://chat.qwen.ai)
🤗 HuggingFace: (https://hf.co/Qwen/Qwen3-Coder-30B-A3B-Instruct)
🔧 سورس کد: (https://github.com/QwenLM/qwen-code)
🌐 ModelScope: (https://modelscope.cn/models/Qwen/Qwen3-Coder-30B-A3B-Instruct)
📡 @rss_ai_ir
#هوش_مصنوعی #برنامه_نویسی #Qwen #opensource #LLM #کدژنراتور #AI
نسخهای قدرتمند و بهینهشده از خانواده Qwen3-Coder برای تولید هوشمندانه کد:
🔹 دقت بالا در تولید کد + سرعت رعدآسا
🔹 حافظه کانتکست: 256K (و تا 1M با تکنیک YaRN)
🔹 ترکیب آموزش اولیه و پسآموزش
🔹 ۳۰.۵ میلیارد پارامتر (با ۳.۳ میلیارد پارامتر فعال)
🔹 مدل Mixture of Experts با ۱۲۸ متخصص (فقط ۸ فعال در هر مرحله → کارایی بیشتر)
🔹 بهینهشده برای زبانهای Qwen Code, Cline, Roo Code, Kilo Code و...
🔹 پشتیبانی از فراخوانی توابع (function calling) و اجرای Agentها
🔐 لایسنس: Apache 2.0 (کاملاً متنباز)
---
🎯 نسخهای عالی برای توسعهدهندگان، پروژههای LLM و کاربردهای برنامهنویسی حرفهای.
📥 لینکها:
💬 گفتوگو با مدل: [chat.qwen.ai](https://chat.qwen.ai)
🤗 HuggingFace: (https://hf.co/Qwen/Qwen3-Coder-30B-A3B-Instruct)
🔧 سورس کد: (https://github.com/QwenLM/qwen-code)
🌐 ModelScope: (https://modelscope.cn/models/Qwen/Qwen3-Coder-30B-A3B-Instruct)
📡 @rss_ai_ir
#هوش_مصنوعی #برنامه_نویسی #Qwen #opensource #LLM #کدژنراتور #AI
🔥4👍1🙏1
This media is not supported in your browser
VIEW IN TELEGRAM
📌 مدلی به سرعت باد: Windsurf
🎥 در ویدیویی که منتشر شده، مدل Windsurf پاسخ را با سرعت چشمگیری تولید میکند — بدون هیچگونه افزایش سرعت در ویدیو!
🧠 برخلاف تصور، با یک مدل ساده و کوچک روبهرو نیستیم. طبق نتایج بنچمارکها، Windsurf در برخی سناریوها حتی عملکردی بهتر از GPT-4.1 داشته (هرچند برخی با دیده تردید به این ادعا نگاه میکنند، اما فاصله عملکردی قطعاً بسیار کم است).
🏆 در رتبهبندی ReBench، که شامل وظایف جدیدتر و دشوارتر است، این مدل توانسته رتبه نخست را کسب کند — بالاتر از Claude 4 Sonnet و o3. البته دادهها تنها از ۳۴ وظیفه هستند، اما همین هم نشان میدهد که Windsurf عقبمانده نیست.
📣 شاید هنوز به اندازه نامهای بزرگ معروف نشده باشد، اما عملکردش توجهها را جلب کرده...
#مدل_زبان_بزرگ #هوش_مصنوعی #windsurf #LLM
@rss_ai_ir
🎥 در ویدیویی که منتشر شده، مدل Windsurf پاسخ را با سرعت چشمگیری تولید میکند — بدون هیچگونه افزایش سرعت در ویدیو!
🧠 برخلاف تصور، با یک مدل ساده و کوچک روبهرو نیستیم. طبق نتایج بنچمارکها، Windsurf در برخی سناریوها حتی عملکردی بهتر از GPT-4.1 داشته (هرچند برخی با دیده تردید به این ادعا نگاه میکنند، اما فاصله عملکردی قطعاً بسیار کم است).
🏆 در رتبهبندی ReBench، که شامل وظایف جدیدتر و دشوارتر است، این مدل توانسته رتبه نخست را کسب کند — بالاتر از Claude 4 Sonnet و o3. البته دادهها تنها از ۳۴ وظیفه هستند، اما همین هم نشان میدهد که Windsurf عقبمانده نیست.
📣 شاید هنوز به اندازه نامهای بزرگ معروف نشده باشد، اما عملکردش توجهها را جلب کرده...
#مدل_زبان_بزرگ #هوش_مصنوعی #windsurf #LLM
@rss_ai_ir
🔥20👏19🎉17🥰15❤13😁11👍10
🎛 شخصیتسازی در مدلهای زبانی فقط با یک اسلایدر!
پژوهشگران Anthropic موفق شدهاند جهتهای مشخصی در فضای فعالسازی مدلهای زبانی بزرگ (LLM) کشف کنند که به آنها امکان میدهد «شخصیت» مدل را فقط با یک وکتور تغییر دهند.
✅ مدل چاپلوس رو تبدیل کن به منتقد رکگو
✅ مدل منفیباف رو به خوشبین تبدیل کن
✅ فقط با یک forward pass — بدون نیاز به fine-tune سنگین یا RLHF
📌 چگونه این وکتورها ساخته میشوند؟
1. یک ویژگی رفتاری (مثل چاپلوسی) تعریف میشود
2. پرامپتهایی طراحی میشوند که مدل را به دو حالت رفتاری مختلف ببرند
3. تفاوت فعالسازیها استخراج و وکتور مربوط به آن ویژگی ساخته میشود
🧪 آزمایشها نشان داد:
+1.5× وکتور «evil» → مدل طرح جرم میریزد
−1.5× → مدل مثل کشیش پاسخ میدهد
📊 این تغییرات علیّتی هستند، نه فقط همبستگی آماری!
🛠 کاربردهای مهندسی:
🔹 رصد زنده خطای مدل با projection روی وکتور hallucination
🔹 اعمال واکسن شخصیتی هنگام fine-tune
🔹 فیلتر دیتاستها با projection روی وکتورهای منفی مثل "toxic" یا "evil"
🌐 آینده LLMها: کنترل رفتار با یک اسلایدر، مثل کم و زیاد کردن صدای موسیقی!
📚 منابع:
1. مقاله اصلی در بلاگ Anthropic
2. مقاله تحقیقاتی در arXiv
👨💻 تو دوست داشتی کدوم ویژگی مدل رو تغییر بدی؟ رکگویی؟ شوخطبعی؟ اعتمادبهنفس؟
🧠 @rss_ai_ir
#LLM #AI #هوش_مصنوعی #مهندسی_پرامپت #شخصیت_مدل #PersonaVectors
پژوهشگران Anthropic موفق شدهاند جهتهای مشخصی در فضای فعالسازی مدلهای زبانی بزرگ (LLM) کشف کنند که به آنها امکان میدهد «شخصیت» مدل را فقط با یک وکتور تغییر دهند.
✅ مدل چاپلوس رو تبدیل کن به منتقد رکگو
✅ مدل منفیباف رو به خوشبین تبدیل کن
✅ فقط با یک forward pass — بدون نیاز به fine-tune سنگین یا RLHF
📌 چگونه این وکتورها ساخته میشوند؟
1. یک ویژگی رفتاری (مثل چاپلوسی) تعریف میشود
2. پرامپتهایی طراحی میشوند که مدل را به دو حالت رفتاری مختلف ببرند
3. تفاوت فعالسازیها استخراج و وکتور مربوط به آن ویژگی ساخته میشود
🧪 آزمایشها نشان داد:
+1.5× وکتور «evil» → مدل طرح جرم میریزد
−1.5× → مدل مثل کشیش پاسخ میدهد
📊 این تغییرات علیّتی هستند، نه فقط همبستگی آماری!
🛠 کاربردهای مهندسی:
🔹 رصد زنده خطای مدل با projection روی وکتور hallucination
🔹 اعمال واکسن شخصیتی هنگام fine-tune
🔹 فیلتر دیتاستها با projection روی وکتورهای منفی مثل "toxic" یا "evil"
🌐 آینده LLMها: کنترل رفتار با یک اسلایدر، مثل کم و زیاد کردن صدای موسیقی!
📚 منابع:
1. مقاله اصلی در بلاگ Anthropic
2. مقاله تحقیقاتی در arXiv
👨💻 تو دوست داشتی کدوم ویژگی مدل رو تغییر بدی؟ رکگویی؟ شوخطبعی؟ اعتمادبهنفس؟
🧠 @rss_ai_ir
#LLM #AI #هوش_مصنوعی #مهندسی_پرامپت #شخصیت_مدل #PersonaVectors
❤18👏18😁16🥰14🎉14👍13🔥12
🚀 عرضه عمومی مدلهای فشرده Hunyuan از سوی Tencent!
@rss_ai_ir
📣 شرکت Tencent چهار مدل سبکوزن از خانواده Hunyuan LLM را بهصورت متنباز منتشر کرد:
🔹 Hunyuan-0.5B
🔹 Hunyuan-1.8B
🔹 Hunyuan-4B
🔹 Hunyuan-7B
📱 این مدلها برای اجرا روی دستگاههای کممصرف طراحی شدهاند:
🖥 کامپیوترهای شخصی | 📱 تلفنهای هوشمند | 🚗 خودروها | 🏠 خانههای هوشمند | 🎮 کارتهای GPU مصرفی
---
💡 ویژگیهای برجسته: ✅ پشتیبانی از حالتهای fast/slow thinking (پاسخهای سریع یا تحلیلی)
✅ کانتکست طولانی تا ۲۵۶ هزار توکن!
✅ تواناییهای عاملمحور پیشرفته (مانند reasoning، برنامهریزی، tool use)
✅ عملکرد قوی در تستهای زبان، منطق و ریاضی
✅ پشتیبانی از زیرساختهای حرفهای مانند SGLang، vLLM و TensorRT-LLM
---
📦 لینکها برای دانلود و تست مدلها:
🧠 GitHub:
Hunyuan-0.5B
Hunyuan-1.8B
Hunyuan-4B
Hunyuan-7B
🤗 Hugging Face:
Hunyuan-0.5B-Instruct
Hunyuan-1.8B-Instruct
Hunyuan-4B-Instruct
Hunyuan-7B-Instruct
📎 اطلاعات بیشتر:
🔗 https://hunyuan.tencent.com/modelSquare/home/list
---
#Tencent #Hunyuan #هوش_مصنوعی #مدل_زبان #opensource #LLM #AI
@rss_ai_ir
📣 شرکت Tencent چهار مدل سبکوزن از خانواده Hunyuan LLM را بهصورت متنباز منتشر کرد:
🔹 Hunyuan-0.5B
🔹 Hunyuan-1.8B
🔹 Hunyuan-4B
🔹 Hunyuan-7B
📱 این مدلها برای اجرا روی دستگاههای کممصرف طراحی شدهاند:
🖥 کامپیوترهای شخصی | 📱 تلفنهای هوشمند | 🚗 خودروها | 🏠 خانههای هوشمند | 🎮 کارتهای GPU مصرفی
---
💡 ویژگیهای برجسته: ✅ پشتیبانی از حالتهای fast/slow thinking (پاسخهای سریع یا تحلیلی)
✅ کانتکست طولانی تا ۲۵۶ هزار توکن!
✅ تواناییهای عاملمحور پیشرفته (مانند reasoning، برنامهریزی، tool use)
✅ عملکرد قوی در تستهای زبان، منطق و ریاضی
✅ پشتیبانی از زیرساختهای حرفهای مانند SGLang، vLLM و TensorRT-LLM
---
📦 لینکها برای دانلود و تست مدلها:
🧠 GitHub:
Hunyuan-0.5B
Hunyuan-1.8B
Hunyuan-4B
Hunyuan-7B
🤗 Hugging Face:
Hunyuan-0.5B-Instruct
Hunyuan-1.8B-Instruct
Hunyuan-4B-Instruct
Hunyuan-7B-Instruct
📎 اطلاعات بیشتر:
🔗 https://hunyuan.tencent.com/modelSquare/home/list
---
#Tencent #Hunyuan #هوش_مصنوعی #مدل_زبان #opensource #LLM #AI
🔥20❤17👍15👏14🥰13😁13🎉13
🚀 آیا از مدلهای gpt-oss استفاده میکنید؟
برای عملکرد درست، این مدلها باید با فرمت خاصی به نام Harmony استفاده شوند، در غیر این صورت پاسخ درست نمیدهند!
🔍 چرا Harmony ضروریست؟
• 🧠 تولید استدلال مرحلهبهمرحله (Chain of Thought)
• 🛠 اجرای درست Function Call و ابزارها
• 📦 خروجی در کانالهای مختلف: پاسخ، ابزار، تحلیل
• 🗂 پشتیبانی از ابزارهای تو در تو و سلسلهمراتبی
اگر از HuggingFace، vLLM یا Ollama استفاده میکنید، مشکلی نیست.
اما اگر در حال ساخت pipeline اختصاصی هستید، مطالعه راهنمای Harmony ضروری است.
📦 نصب آسان:
pip install openai-harmony
@rss_ai_ir
#LLM #PromptEngineering #GPTOSS #Harmony #OpenAI
برای عملکرد درست، این مدلها باید با فرمت خاصی به نام Harmony استفاده شوند، در غیر این صورت پاسخ درست نمیدهند!
🔍 چرا Harmony ضروریست؟
• 🧠 تولید استدلال مرحلهبهمرحله (Chain of Thought)
• 🛠 اجرای درست Function Call و ابزارها
• 📦 خروجی در کانالهای مختلف: پاسخ، ابزار، تحلیل
• 🗂 پشتیبانی از ابزارهای تو در تو و سلسلهمراتبی
اگر از HuggingFace، vLLM یا Ollama استفاده میکنید، مشکلی نیست.
اما اگر در حال ساخت pipeline اختصاصی هستید، مطالعه راهنمای Harmony ضروری است.
📦 نصب آسان:
pip install openai-harmony
@rss_ai_ir
#LLM #PromptEngineering #GPTOSS #Harmony #OpenAI
👏87👍68❤62🎉58🔥52🥰49😁43
This media is not supported in your browser
VIEW IN TELEGRAM
📦 مجموعهای کامل برای مهندسان هوش مصنوعی منتشر شده است!
در مخزن LLM Engineer Toolkit، بیش از ۱۲۰ کتابخانه تخصصی برای توسعه و استقرار مدلهای زبانی بزرگ (LLM) گردآوری شده است، بهصورت دستهبندیشده:
🔹 آموزش، فاینتیون و ارزیابی مدلها
🔹 استقرار سریع و مقیاسپذیر مدلها
🔹 یکپارچهسازی LLM با اپلیکیشنها و سیستمهای RAG
🔹 پردازش و تولید دادههای ساختاریافته و مصنوعی
🔹 طراحی ایجنتهای خودگردان مبتنی بر LLM
🔹 بهینهسازی پرامپت و تضمین استفاده امن در محیط واقعی
📥 این مجموعه برای هر توسعهدهندهی حرفهای LLM ضروری است.
🔗 لینک مستقیم:
https://github.com/KalyanKS-NLP/llm-engineer-toolkit
🔗 مجموعه مشابه برای اپلیکیشنهای LLM:
https://github.com/Shubhamsaboo/awesome-llm-apps
#هوش_مصنوعی #LLM #پرامپت_مهندسی
#ایجنت #RAG #فاین_تیون #AItools
@rss_ai_ir
در مخزن LLM Engineer Toolkit، بیش از ۱۲۰ کتابخانه تخصصی برای توسعه و استقرار مدلهای زبانی بزرگ (LLM) گردآوری شده است، بهصورت دستهبندیشده:
🔹 آموزش، فاینتیون و ارزیابی مدلها
🔹 استقرار سریع و مقیاسپذیر مدلها
🔹 یکپارچهسازی LLM با اپلیکیشنها و سیستمهای RAG
🔹 پردازش و تولید دادههای ساختاریافته و مصنوعی
🔹 طراحی ایجنتهای خودگردان مبتنی بر LLM
🔹 بهینهسازی پرامپت و تضمین استفاده امن در محیط واقعی
📥 این مجموعه برای هر توسعهدهندهی حرفهای LLM ضروری است.
🔗 لینک مستقیم:
https://github.com/KalyanKS-NLP/llm-engineer-toolkit
🔗 مجموعه مشابه برای اپلیکیشنهای LLM:
https://github.com/Shubhamsaboo/awesome-llm-apps
#هوش_مصنوعی #LLM #پرامپت_مهندسی
#ایجنت #RAG #فاین_تیون #AItools
@rss_ai_ir
👏26🔥17👍14😁14❤13🎉13🥰11
This media is not supported in your browser
VIEW IN TELEGRAM
🎯 راهنمای حرفهای مهندسی پرامپت توسط Anthropic منتشر شد
یکی از کاملترین منابع برای مهندسی پرامپت اکنون در دسترس است — توسط شرکت Anthropic برای مدل Claude.
🧠 این راهنما به موضوعاتی مانند: ▪️ طراحی پرامپتهای متا (Meta Prompting)
▪️ استفاده از قالبها (Templates)
▪️ تعیین نقشهای سیستمی (System Roles)
▪️ برچسبگذاری با XML
و تکنیکهای پیشرفته دیگر میپردازد.
📘 مطالعه این راهنما برای پژوهشگران، مهندسان LLM و توسعهدهندگان اپلیکیشنهای مبتنی بر Claude توصیه میشود.
🔗 لینک راهنما
#مهندسی_پرامپت #Claude #هوش_مصنوعی #LLM #Anthropic
@rss_ai_ir ✅
یکی از کاملترین منابع برای مهندسی پرامپت اکنون در دسترس است — توسط شرکت Anthropic برای مدل Claude.
🧠 این راهنما به موضوعاتی مانند: ▪️ طراحی پرامپتهای متا (Meta Prompting)
▪️ استفاده از قالبها (Templates)
▪️ تعیین نقشهای سیستمی (System Roles)
▪️ برچسبگذاری با XML
و تکنیکهای پیشرفته دیگر میپردازد.
📘 مطالعه این راهنما برای پژوهشگران، مهندسان LLM و توسعهدهندگان اپلیکیشنهای مبتنی بر Claude توصیه میشود.
🔗 لینک راهنما
#مهندسی_پرامپت #Claude #هوش_مصنوعی #LLM #Anthropic
@rss_ai_ir ✅
🔥20👍17❤14👏14🎉14🥰13😁13
⚡️شتاب دهند Agent Lightning؛ شتابدهندهی جدید مایکروسافت برای آموزش ایجنتهای LLM
دیگر نیازی به بازنویسی ایجنت نیست! با فریمورک **Agent Lightning**، میتوانید ایجنتهای مبتنی بر زبان را بدون تغییر در کد، به کمک **یادگیری تقویتی (RL) آموزش و بهینهسازی کنید.
🔧 ویژگیهای کلیدی:
▪️ بدون نیاز به تغییر در کد ایجنت
▪️ پشتیبانی از فریمورکهایی مانند LangChain، AutoGen، OpenAI Agents SDK، Semantic Kernel و...
▪️ اتصال ایجنت با استفاده از sidecar و جمعآوری دادههای رفتاری
▪️ ارزیابی عملکرد ایجنت در مراحل مختلف (state، action، reward)
▪️ امکان بهینهسازی رفتار ایجنت حتی بر اساس سیگنالهای میانی، نه فقط نتیجه نهایی
▪️ قابلیت اتصال به پایپلاینهای موجود در پروژههای صنعتی یا پژوهشی
🎯 مناسب برای پروژههای تولید کد، پرسوجوی SQL، اتوماسیون وظایف پیچیده و حتی Multi-Agent Systems
📄 مقاله: (https://arxiv.org/abs/2508.03680)
🔗 گیتهاب:(https://github.com/microsoft/agent-lightning)
🌐 وبسایت: (https://www.microsoft.com/en-us/research/project/agent-lightning)
#هوش_مصنوعی #LLM #Agent #یادگیری_تقویتی #Microsoft #LangChain #AutoGen #MLOps
@rss_ai_ir 🚀
دیگر نیازی به بازنویسی ایجنت نیست! با فریمورک **Agent Lightning**، میتوانید ایجنتهای مبتنی بر زبان را بدون تغییر در کد، به کمک **یادگیری تقویتی (RL) آموزش و بهینهسازی کنید.
🔧 ویژگیهای کلیدی:
▪️ بدون نیاز به تغییر در کد ایجنت
▪️ پشتیبانی از فریمورکهایی مانند LangChain، AutoGen، OpenAI Agents SDK، Semantic Kernel و...
▪️ اتصال ایجنت با استفاده از sidecar و جمعآوری دادههای رفتاری
▪️ ارزیابی عملکرد ایجنت در مراحل مختلف (state، action، reward)
▪️ امکان بهینهسازی رفتار ایجنت حتی بر اساس سیگنالهای میانی، نه فقط نتیجه نهایی
▪️ قابلیت اتصال به پایپلاینهای موجود در پروژههای صنعتی یا پژوهشی
🎯 مناسب برای پروژههای تولید کد، پرسوجوی SQL، اتوماسیون وظایف پیچیده و حتی Multi-Agent Systems
📄 مقاله: (https://arxiv.org/abs/2508.03680)
🔗 گیتهاب:(https://github.com/microsoft/agent-lightning)
🌐 وبسایت: (https://www.microsoft.com/en-us/research/project/agent-lightning)
#هوش_مصنوعی #LLM #Agent #یادگیری_تقویتی #Microsoft #LangChain #AutoGen #MLOps
@rss_ai_ir 🚀
❤16🔥16👏16👍15🥰13😁13🎉13🙏1
🧠 مدل GPT-5 حتی در ورودیهای فوقطولانی هم دقت بالایی را حفظ میکند!
@rss_ai_ir
📊 نمودار بالا عملکرد مدلهای مختلف را در مواجهه با ورودیهای بسیار بلند (تا ۲۵۶ هزار توکن) مقایسه میکند. این تست با استفاده از معیار MRCR و وظیفهی “2 needle” اجرا شده که بررسی میکند آیا مدل میتواند اطلاعات کلیدی را از دل متن بسیار بلند پیدا کند یا نه.
🔝 نتیجه کاملاً روشن است:
مدل GPT-5 با اختلاف قابل توجه، در تمام طول ورودیها بالاترین نرخ تطابق (mean match ratio) را دارد و دقت آن حتی در ورودی ۲۵۶k همچنان نزدیک به ۹۰٪ باقی میماند.
📉 در مقابل:
نسخههای Nano و Mini از GPT-4.1 با افزایش طول ورودی بهشدت افت عملکرد دارند (تا زیر ۴۰٪)
مدلهای OpenAI O3 و O4-mini هم با وجود شروع قوی، از ۶۴k به بعد دچار افت دقت میشوند
🎯 این یعنی GPT-5 نه تنها برای مکالمات یا تحلیلهای کوتاه، بلکه برای کاربردهای پیچیده با متنهای بسیار طولانی (مثل اسناد حقوقی، مقالات علمی، یا پایگاه دادههای متنی) انتخابی بیرقیب است.
#GPT5 #هوش_مصنوعی #OpenAI #طول_ورودی_بلند #LLM #بازیابی_اطلاعات #MemoryDepth #متن_طولانی #AItools #مدل_زبانی_پیشرفته
@rss_ai_ir
@rss_ai_ir
📊 نمودار بالا عملکرد مدلهای مختلف را در مواجهه با ورودیهای بسیار بلند (تا ۲۵۶ هزار توکن) مقایسه میکند. این تست با استفاده از معیار MRCR و وظیفهی “2 needle” اجرا شده که بررسی میکند آیا مدل میتواند اطلاعات کلیدی را از دل متن بسیار بلند پیدا کند یا نه.
🔝 نتیجه کاملاً روشن است:
مدل GPT-5 با اختلاف قابل توجه، در تمام طول ورودیها بالاترین نرخ تطابق (mean match ratio) را دارد و دقت آن حتی در ورودی ۲۵۶k همچنان نزدیک به ۹۰٪ باقی میماند.
📉 در مقابل:
نسخههای Nano و Mini از GPT-4.1 با افزایش طول ورودی بهشدت افت عملکرد دارند (تا زیر ۴۰٪)
مدلهای OpenAI O3 و O4-mini هم با وجود شروع قوی، از ۶۴k به بعد دچار افت دقت میشوند
🎯 این یعنی GPT-5 نه تنها برای مکالمات یا تحلیلهای کوتاه، بلکه برای کاربردهای پیچیده با متنهای بسیار طولانی (مثل اسناد حقوقی، مقالات علمی، یا پایگاه دادههای متنی) انتخابی بیرقیب است.
#GPT5 #هوش_مصنوعی #OpenAI #طول_ورودی_بلند #LLM #بازیابی_اطلاعات #MemoryDepth #متن_طولانی #AItools #مدل_زبانی_پیشرفته
@rss_ai_ir
👍2🔥1👏1
🚀 پیشرفت گوگل: کاهش ۱۰هزار برابری نیاز به داده برای فاینتیون LLM
@rss_ai_ir
🔍 گوگل روشی مقیاسپذیر در Active Learning توسعه داده که حجم داده برچسبخورده موردنیاز برای آموزش مدلهای زبانی بزرگ (LLM) را در وظایف پیچیده – مثل مـدراتـیـون محتوای تبلیغاتی – تا دهها هزار برابر کاهش میدهد.
---
🛠 مراحل کار
1. مدل اولیه (LLM-0) روی کل داده پیشبینی و برچسبگذاری خودکار انجام میدهد.
2. دادهها خوشهبندی میشوند تا سختترین و مبهمترین نمونهها شناسایی شود.
3. تنها نمونههای متنوع و با بیشترین ارزش یادگیری انتخاب میشوند.
4. این نمونهها توسط کارشناسان انسانی برچسبگذاری میشوند.
5. فرآیند آموزش → انتخاب نمونههای دشوار → برچسبگذاری → آموزش مجدد چند بار تکرار میشود.
---
📊 نتایج کلیدی
* کاهش از ۱۰۰هزار نمونه برچسبخورده به کمتر از ۵۰۰ نمونه با حفظ یا بهبود کیفیت.
* بهبود معیار Cohen’s Kappa بین ۵۵ تا ۶۵ درصد.
* در مدلهای بزرگ عملیاتی: صرفهجویی ۳ تا ۴ مرتبهای در داده با کیفیت برابر یا بهتر.
---
📌معیار Cohen’s Kappa چیست؟
معیاری برای سنجش میزان توافق بین دو ارزیاب (مثلاً کارشناس و مدل) با حذف اثر توافق تصادفی:
* ۰.۰ → بدون توافق
* ۰.۴۱–۰.۶۰ → توافق متوسط
* ۰.۶۱–۰.۸۰ → توافق قابل توجه
* ۰.۸۱–۱.۰۰ → توافق تقریباً کامل
مزیت نسبت به Accuracy: مناسبتر برای دادههای با توزیع نامتوازن کلاسها.
---
💡 مزیتهای روش گوگل
* برچسبگذاری فقط روی نمونههای مهم
* مقیاسپذیر برای دیتاستهای حجیم (صدها میلیارد نمونه)
* کاهش شدید هزینه و زمان برچسبگذاری
* انطباق سریع برای حوزههایی با تغییرات مداوم قوانین (مانند تبلیغات، امنیت، محتوای کاربری)
---
📥 مطالعه کامل در بلاگ گوگل:
[https://research.google/blog/achieving-10000x-training-data-reduction-with-high-fidelity-labels/]
#هوش_مصنوعی #ActiveLearning #گوگل #LLM #یادگیری_ماشین #DataEfficiency
@rss_ai_ir
@rss_ai_ir
🔍 گوگل روشی مقیاسپذیر در Active Learning توسعه داده که حجم داده برچسبخورده موردنیاز برای آموزش مدلهای زبانی بزرگ (LLM) را در وظایف پیچیده – مثل مـدراتـیـون محتوای تبلیغاتی – تا دهها هزار برابر کاهش میدهد.
---
🛠 مراحل کار
1. مدل اولیه (LLM-0) روی کل داده پیشبینی و برچسبگذاری خودکار انجام میدهد.
2. دادهها خوشهبندی میشوند تا سختترین و مبهمترین نمونهها شناسایی شود.
3. تنها نمونههای متنوع و با بیشترین ارزش یادگیری انتخاب میشوند.
4. این نمونهها توسط کارشناسان انسانی برچسبگذاری میشوند.
5. فرآیند آموزش → انتخاب نمونههای دشوار → برچسبگذاری → آموزش مجدد چند بار تکرار میشود.
---
📊 نتایج کلیدی
* کاهش از ۱۰۰هزار نمونه برچسبخورده به کمتر از ۵۰۰ نمونه با حفظ یا بهبود کیفیت.
* بهبود معیار Cohen’s Kappa بین ۵۵ تا ۶۵ درصد.
* در مدلهای بزرگ عملیاتی: صرفهجویی ۳ تا ۴ مرتبهای در داده با کیفیت برابر یا بهتر.
---
📌معیار Cohen’s Kappa چیست؟
معیاری برای سنجش میزان توافق بین دو ارزیاب (مثلاً کارشناس و مدل) با حذف اثر توافق تصادفی:
* ۰.۰ → بدون توافق
* ۰.۴۱–۰.۶۰ → توافق متوسط
* ۰.۶۱–۰.۸۰ → توافق قابل توجه
* ۰.۸۱–۱.۰۰ → توافق تقریباً کامل
مزیت نسبت به Accuracy: مناسبتر برای دادههای با توزیع نامتوازن کلاسها.
---
💡 مزیتهای روش گوگل
* برچسبگذاری فقط روی نمونههای مهم
* مقیاسپذیر برای دیتاستهای حجیم (صدها میلیارد نمونه)
* کاهش شدید هزینه و زمان برچسبگذاری
* انطباق سریع برای حوزههایی با تغییرات مداوم قوانین (مانند تبلیغات، امنیت، محتوای کاربری)
---
📥 مطالعه کامل در بلاگ گوگل:
[https://research.google/blog/achieving-10000x-training-data-reduction-with-high-fidelity-labels/]
#هوش_مصنوعی #ActiveLearning #گوگل #LLM #یادگیری_ماشین #DataEfficiency
@rss_ai_ir
🔥23❤21🥰21😁20🎉20👏17👍12🙏1
⚡️ مدلهای زبانی GPT-OSS با فرمت GGUF توسط تیم Unsloth بهینهسازی و منتشر شدند
@rss_ai_ir
تیم توسعهدهنده Unsloth دو نسخه از مدلهای GPT-OSS با ۲۰ و ۱۲۰ میلیارد پارامتر را به فرمت GGUF تبدیل کرده و با رفع برخی ایرادات، کیفیت استنتاج (Inference) آنها را بهطور قابل توجهی افزایش دادهاند.
---
📌 پیکربندی پیشنهادی برای اجرا:
🔹 مدل با ۲۰ میلیارد پارامتر در حالت دقت کامل، تنها به ۱۴ گیگابایت حافظه رم نیاز دارد و با سرعتی بیش از ۱۰ توکن بر ثانیه اجرا میشود.
🔹 مدل ۱۲۰ میلیاردی نیز با حدود ۶۴ گیگ رم، خروجی بالای ۴۰ توکن بر ثانیه ارائه میدهد.
🔸 حتی در سیستمهایی با ۶ گیگ رم و بدون GPU هم امکان اجرا وجود دارد، اما سرعت استنتاج پایینتر خواهد بود.
---
📈 در صورت استفاده از کارت گرافیک، عملکرد مدلها بهمراتب بهتر خواهد بود.
برخی تستها با GPU قدرتمند H100 نشان دادهاند که سرعت خروجی به بیش از ۱۴۰ توکن بر ثانیه میرسد که حتی از ChatGPT نیز سریعتر است.
---
🧠 روشهای قابل استفاده برای اجرا:
اجرای مستقیم با ابزار llama.cpp
نرمافزارهای رابط مانند LM Studio
محیطهای تعاملی مانند Open WebUI
📌 مدل ۲۰B در عین سبک بودن، عملکردی نزدیک به مدلهایی مانند o3-mini دارد و برای سیستمهای ضعیفتر بسیار مناسب است.
---
🔧 نسخههایی با دقت ۴ بیت و ۱۶ بیت نیز آماده شدهاند.
نسخه ۴ بیتی حتی قابلیت فاینتیون روی کارتهای گرافیک با ۲۴ گیگابایت VRAM را دارد.
📄 مستندات کامل برای نصب و آموزش، توسط تیم Unsloth منتشر شده و گامبهگام مراحل راهاندازی را توضیح داده است.
منابع:
لینک 1
لینک 2
#مدل_زبانی #هوش_مصنوعی #GPT_OSS #Unsloth #GGUF #LLM
@rss_ai_ir
@rss_ai_ir
تیم توسعهدهنده Unsloth دو نسخه از مدلهای GPT-OSS با ۲۰ و ۱۲۰ میلیارد پارامتر را به فرمت GGUF تبدیل کرده و با رفع برخی ایرادات، کیفیت استنتاج (Inference) آنها را بهطور قابل توجهی افزایش دادهاند.
---
📌 پیکربندی پیشنهادی برای اجرا:
🔹 مدل با ۲۰ میلیارد پارامتر در حالت دقت کامل، تنها به ۱۴ گیگابایت حافظه رم نیاز دارد و با سرعتی بیش از ۱۰ توکن بر ثانیه اجرا میشود.
🔹 مدل ۱۲۰ میلیاردی نیز با حدود ۶۴ گیگ رم، خروجی بالای ۴۰ توکن بر ثانیه ارائه میدهد.
🔸 حتی در سیستمهایی با ۶ گیگ رم و بدون GPU هم امکان اجرا وجود دارد، اما سرعت استنتاج پایینتر خواهد بود.
---
📈 در صورت استفاده از کارت گرافیک، عملکرد مدلها بهمراتب بهتر خواهد بود.
برخی تستها با GPU قدرتمند H100 نشان دادهاند که سرعت خروجی به بیش از ۱۴۰ توکن بر ثانیه میرسد که حتی از ChatGPT نیز سریعتر است.
---
🧠 روشهای قابل استفاده برای اجرا:
اجرای مستقیم با ابزار llama.cpp
نرمافزارهای رابط مانند LM Studio
محیطهای تعاملی مانند Open WebUI
📌 مدل ۲۰B در عین سبک بودن، عملکردی نزدیک به مدلهایی مانند o3-mini دارد و برای سیستمهای ضعیفتر بسیار مناسب است.
---
🔧 نسخههایی با دقت ۴ بیت و ۱۶ بیت نیز آماده شدهاند.
نسخه ۴ بیتی حتی قابلیت فاینتیون روی کارتهای گرافیک با ۲۴ گیگابایت VRAM را دارد.
📄 مستندات کامل برای نصب و آموزش، توسط تیم Unsloth منتشر شده و گامبهگام مراحل راهاندازی را توضیح داده است.
منابع:
لینک 1
لینک 2
#مدل_زبانی #هوش_مصنوعی #GPT_OSS #Unsloth #GGUF #LLM
@rss_ai_ir
👍16🎉13👏11🥰9😁9❤7🔥6
📊🤖 بهبود دقت GPT-5 با پرامپت کاستوم جدید
تستها روی مدل gpt-5-nano با تلاش medium و بنچمارک MMLU-PRO نشان دادند که استفاده از نسخه سوم پرامپت کاستوم باعث افزایش دقت از 68.73٪ به 70.20٪ شده است (+1.47٪).
📌 ویژگیهای نسخه جدید
♻️استفاده از تکنیک «ساخت روبریک» در حین فکر کردن مدل
♻️ارزیابی داخلی پاسخها (۰ تا ۱۰۰) و بازنویسی در صورت کیفیت پایین
♻️حذف ترفندهای قدیمی بیاثر و بهبود فرمت خروجی
♻️بدون تحمیل جدول یا پیشنهاد اضافی مگر درخواستی باشد
📈 در نمودار دوم میبینید که تقریباً در تمام حوزهها (مهندسی، علوم کامپیوتر، شیمی، بیزینس، زیست، فیزیک و …) عملکرد کمی بهتر بوده است.
📥 پرامپت و توضیحات کامل:
github.com/DenisSergeevitch/chatgpt-custom-instructions
@rss_ai_ir 🚀 | #هوش_مصنوعی #پرامپت #GPT5 #LLM #پردازش_زبان
تستها روی مدل gpt-5-nano با تلاش medium و بنچمارک MMLU-PRO نشان دادند که استفاده از نسخه سوم پرامپت کاستوم باعث افزایش دقت از 68.73٪ به 70.20٪ شده است (+1.47٪).
📌 ویژگیهای نسخه جدید
♻️استفاده از تکنیک «ساخت روبریک» در حین فکر کردن مدل
♻️ارزیابی داخلی پاسخها (۰ تا ۱۰۰) و بازنویسی در صورت کیفیت پایین
♻️حذف ترفندهای قدیمی بیاثر و بهبود فرمت خروجی
♻️بدون تحمیل جدول یا پیشنهاد اضافی مگر درخواستی باشد
📈 در نمودار دوم میبینید که تقریباً در تمام حوزهها (مهندسی، علوم کامپیوتر، شیمی، بیزینس، زیست، فیزیک و …) عملکرد کمی بهتر بوده است.
📥 پرامپت و توضیحات کامل:
github.com/DenisSergeevitch/chatgpt-custom-instructions
@rss_ai_ir 🚀 | #هوش_مصنوعی #پرامپت #GPT5 #LLM #پردازش_زبان
🔥18❤12😁11👍9🥰7🎉6👏5
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 فاینتیونینگ کارآمد مدلهای زبانی با PEFT
✳️در پروژههای هوش مصنوعی، مخصوصاً مدلهای زبانی بزرگ (LLM)، فاینتیونینگ کامل تمام وزنها (Full Fine-Tuning) بسیار پرهزینه و نیازمند GPUهای قدرتمند است. تکنیک PEFT (Parameter-Efficient Fine-Tuning) با هدف کاهش این هزینهها معرفی شده و امروز یکی از رایجترین رویکردها برای سفارشیسازی مدلها در حوزه تخصصی است.
🔍 ایده اصلی PEFT
بهجای تغییر دادن همه پارامترهای مدل (که ممکن است میلیاردها وزن باشد)، فقط یک زیرمجموعه کوچک از پارامترها یا لایههای اضافه شده (مثل LoRA – Low-Rank Adaptation) آموزش داده میشود. وزنهای اصلی مدل پیشآموزشدیده (Pretrained Weights) ثابت میمانند و تنها ماتریسهای کمرتبهی افزوده شده بهروزرسانی میشوند.
⚙️ مهمترین روشهای PEFT
LoRA (Low-Rank Adaptation) 🟦
تزریق دو ماتریس کمرتبه (A و B) به وزنهای مدل
بهروزرسانی فقط این ماتریسها
کاهش چشمگیر تعداد پارامترهای قابلآموزش (تا 1000 برابر کمتر از Full Fine-Tuning)
Prefix-Tuning 🟧
اضافه کردن یک توالی از "توکنهای پیشوند" قابلآموزش به ورودی هر لایه ترنسفورمر
مناسب برای وظایف تولید متن (NLG) و دیالوگ
Prompt-Tuning 🟨
آموزش چند embedding بهعنوان پرامپت ثابت برای هدایت مدل مناسب برای سناریوهایی که ورودی همیشه ساختار مشخصی دارد
Adapters 🟩
اضافه کردن ماژولهای کوچک بین لایههای ترنسفورمر مدل اصلی ثابت میماند و فقط آداپترها آموزش میبینند
📊 مزایا برای پروژههای صنعتی
💾 نیاز کمتر به حافظه GPU (مثلاً 8GB هم کافی است)
⏱️ سرعت بالاتر آموزش و استقرار
🔄 قابلیت اشتراک و ترکیب ماژولهای فاینتیون (Adapter Fusion)
📦 امکان استفاده روی مدلهای خیلی بزرگ بدون منابع ابری گران
💡 کاربردهای تخصصی
♻️سفارشیسازی GPT یا LLaMA برای تحلیل متون حقوقی، پزشکی یا فنی
♻️آموزش مدلهای چندزبانه روی دادههای سازمانی محدود
♻️ایجاد نسخههای سبکتر و بهینه برای اجرا روی لبه (Edge AI)
📌 جمعبندی
روشPEFT با تمرکز روی تغییرات کمهزینه و ماژولار، فاینتیونینگ را برای همه قابلدسترس کرده است. بهجای روزها آموزش روی چندین GPU، میتوان با منابع محدود، مدلهای قدرتمند را دقیقاً مطابق نیاز حوزه تخصصی خود تنظیم کرد.
@rss_ai_ir 🤖
| #هوش_مصنوعی #LLM #PEFT #LoRA #پردازش_زبان_طبیعی
✳️در پروژههای هوش مصنوعی، مخصوصاً مدلهای زبانی بزرگ (LLM)، فاینتیونینگ کامل تمام وزنها (Full Fine-Tuning) بسیار پرهزینه و نیازمند GPUهای قدرتمند است. تکنیک PEFT (Parameter-Efficient Fine-Tuning) با هدف کاهش این هزینهها معرفی شده و امروز یکی از رایجترین رویکردها برای سفارشیسازی مدلها در حوزه تخصصی است.
🔍 ایده اصلی PEFT
بهجای تغییر دادن همه پارامترهای مدل (که ممکن است میلیاردها وزن باشد)، فقط یک زیرمجموعه کوچک از پارامترها یا لایههای اضافه شده (مثل LoRA – Low-Rank Adaptation) آموزش داده میشود. وزنهای اصلی مدل پیشآموزشدیده (Pretrained Weights) ثابت میمانند و تنها ماتریسهای کمرتبهی افزوده شده بهروزرسانی میشوند.
⚙️ مهمترین روشهای PEFT
LoRA (Low-Rank Adaptation) 🟦
تزریق دو ماتریس کمرتبه (A و B) به وزنهای مدل
بهروزرسانی فقط این ماتریسها
کاهش چشمگیر تعداد پارامترهای قابلآموزش (تا 1000 برابر کمتر از Full Fine-Tuning)
Prefix-Tuning 🟧
اضافه کردن یک توالی از "توکنهای پیشوند" قابلآموزش به ورودی هر لایه ترنسفورمر
مناسب برای وظایف تولید متن (NLG) و دیالوگ
Prompt-Tuning 🟨
آموزش چند embedding بهعنوان پرامپت ثابت برای هدایت مدل مناسب برای سناریوهایی که ورودی همیشه ساختار مشخصی دارد
Adapters 🟩
اضافه کردن ماژولهای کوچک بین لایههای ترنسفورمر مدل اصلی ثابت میماند و فقط آداپترها آموزش میبینند
📊 مزایا برای پروژههای صنعتی
💾 نیاز کمتر به حافظه GPU (مثلاً 8GB هم کافی است)
⏱️ سرعت بالاتر آموزش و استقرار
🔄 قابلیت اشتراک و ترکیب ماژولهای فاینتیون (Adapter Fusion)
📦 امکان استفاده روی مدلهای خیلی بزرگ بدون منابع ابری گران
💡 کاربردهای تخصصی
♻️سفارشیسازی GPT یا LLaMA برای تحلیل متون حقوقی، پزشکی یا فنی
♻️آموزش مدلهای چندزبانه روی دادههای سازمانی محدود
♻️ایجاد نسخههای سبکتر و بهینه برای اجرا روی لبه (Edge AI)
📌 جمعبندی
روشPEFT با تمرکز روی تغییرات کمهزینه و ماژولار، فاینتیونینگ را برای همه قابلدسترس کرده است. بهجای روزها آموزش روی چندین GPU، میتوان با منابع محدود، مدلهای قدرتمند را دقیقاً مطابق نیاز حوزه تخصصی خود تنظیم کرد.
@rss_ai_ir 🤖
| #هوش_مصنوعی #LLM #PEFT #LoRA #پردازش_زبان_طبیعی
😁9🎉8🔥7👏6❤3🥰3👍1
📊 نتایج مقایسه مدلهای هوش مصنوعی در معیار AlgoTune نشان میدهد که مدلهای کوچکتر مانند o4-mini و DeepSeek R1 با بودجه بسیار کمتر، شتاب بالایی ایجاد میکنند.
🔹 نکات کلیدی:
✳️مدل o4-mini با امتیاز 1.71x و R1 با 1.69x در صدر قرار دارند.
✳️حتی با بودجه ۰.۱ دلار، این دو مدل به امتیازی بهتر از Claude Opus در بودجه کامل ۱ دلار میرسند.
✳️بیشترین رشد عملکرد مدلهای کوچک قبل از ۰.۵ دلار اتفاق میافتد و پس از آن شیب افزایش کاهش مییابد.
✳️رویکرد budget-constrained benchmarking هرچند در کاربرد عملی محدودیتهایی دارد، اما برای تحقیقات دانشگاهی و پروژههای دانشجویی میتواند بسیار ارزشمند باشد.
#هوش_مصنوعی #LLM #بنچمارک #بهینهسازی_الگوریتم
@rss_ai_ir 🚀
🔹 نکات کلیدی:
✳️مدل o4-mini با امتیاز 1.71x و R1 با 1.69x در صدر قرار دارند.
✳️حتی با بودجه ۰.۱ دلار، این دو مدل به امتیازی بهتر از Claude Opus در بودجه کامل ۱ دلار میرسند.
✳️بیشترین رشد عملکرد مدلهای کوچک قبل از ۰.۵ دلار اتفاق میافتد و پس از آن شیب افزایش کاهش مییابد.
✳️رویکرد budget-constrained benchmarking هرچند در کاربرد عملی محدودیتهایی دارد، اما برای تحقیقات دانشگاهی و پروژههای دانشجویی میتواند بسیار ارزشمند باشد.
#هوش_مصنوعی #LLM #بنچمارک #بهینهسازی_الگوریتم
@rss_ai_ir 🚀
🔥10😁6❤4👍4🎉2
مدیر سابق گوگل David Petrou که به خاطر کار روی Google Goggles و Google Glass شناخته میشود، استارتاپی به نام Continua راهاندازی کرده است 💬🤖 — یک عامل هوش مصنوعی که میتواند به گروههای چت در SMS، iMessage و Discord بپیوندد تا در هماهنگی برنامهها، مدیریت وظایف و کاهش شلوغی گفتگو کمک کند.
---
✨ جزئیات کلیدی
♻️جذب سرمایه ۸ میلیون دلاری در دور Seed به رهبری GV با مشارکت Bessemer Venture Partners و سرمایهگذاران فرشته.
♻️قابلیتهایی مانند تنظیم یادآور، برگزاری نظرسنجی، ایجاد اسناد و پاسخگویی به سوالات در پیام خصوصی (DM).
♻️آموزش ویژه برای مدیریت مکالمات چندنفره با هوش اجتماعی.
♻️امکان افزودن مستقیم Continua به گروهها و تعیین میزان مشارکت آن توسط کاربر.
---
🎯 هدف این پروژه، تبدیل مدلهای زبانی بزرگ (LLM) به بخشی طبیعی و بدون مزاحمت از هماهنگی روزمره در گروههاست.
#هوش_مصنوعی 🤖 #استارتاپ 🚀 #چت_بات 💬 #مدیریت_وظایف 📅 #LLM
---
✨ جزئیات کلیدی
♻️جذب سرمایه ۸ میلیون دلاری در دور Seed به رهبری GV با مشارکت Bessemer Venture Partners و سرمایهگذاران فرشته.
♻️قابلیتهایی مانند تنظیم یادآور، برگزاری نظرسنجی، ایجاد اسناد و پاسخگویی به سوالات در پیام خصوصی (DM).
♻️آموزش ویژه برای مدیریت مکالمات چندنفره با هوش اجتماعی.
♻️امکان افزودن مستقیم Continua به گروهها و تعیین میزان مشارکت آن توسط کاربر.
---
🎯 هدف این پروژه، تبدیل مدلهای زبانی بزرگ (LLM) به بخشی طبیعی و بدون مزاحمت از هماهنگی روزمره در گروههاست.
#هوش_مصنوعی 🤖 #استارتاپ 🚀 #چت_بات 💬 #مدیریت_وظایف 📅 #LLM
🎉9😁7❤5🔥3👍2
This media is not supported in your browser
VIEW IN TELEGRAM
🩺 وقتی هوش مصنوعی از بسیاری از پزشکان بهتر عمل میکند
✅داریو آمودئی، مدیرعامل Anthropic، میگوید:
❌برخی از برندگان نوبل در زیستشناسی امروز از LLMها (مدلهای زبانی بزرگ) مشاورههای بهتری نسبت به اکثر پزشکان دریافت میکنند.
🔹 او تأکید میکند که البته ۱٪ برتر پزشکان همچنان ارزش مراجعه حضوری دارند،
اما برای بقیه موارد، LLMها سریعتر، سازگارتر و دقیقتر عمل میکنند.
💡 چرا؟
زیرا بخش زیادی از کار پزشکی الگویابی و ترکیب حقایق است، و این دقیقاً همان چیزی است که LLMها در آن میدرخشند.
🌐 #هوش_مصنوعی #پزشکی_دیجیتال #LLM #AIHealthcare
🧠 @rss_ai_ir
✅داریو آمودئی، مدیرعامل Anthropic، میگوید:
❌برخی از برندگان نوبل در زیستشناسی امروز از LLMها (مدلهای زبانی بزرگ) مشاورههای بهتری نسبت به اکثر پزشکان دریافت میکنند.
🔹 او تأکید میکند که البته ۱٪ برتر پزشکان همچنان ارزش مراجعه حضوری دارند،
اما برای بقیه موارد، LLMها سریعتر، سازگارتر و دقیقتر عمل میکنند.
💡 چرا؟
زیرا بخش زیادی از کار پزشکی الگویابی و ترکیب حقایق است، و این دقیقاً همان چیزی است که LLMها در آن میدرخشند.
🌐 #هوش_مصنوعی #پزشکی_دیجیتال #LLM #AIHealthcare
🧠 @rss_ai_ir
❤8🎉7🔥6👍3😁1
This media is not supported in your browser
VIEW IN TELEGRAM
📌 نقشه راه برای تبدیل شدن به پرامپت انجینیر در سال ۲۰۲۵ 🧑🏻💻✨
برای متخصص شدن در حوزه Prompt Engineering باید مسیر زیر را طی کنید:
1️⃣ یادگیری مبانی اولیه پرامپتنویسی
2️⃣ آشنایی با مدلهای زبانی (LLMs) و نحوه تنظیم آنها
3️⃣ تمرین نوشتن پرامپتهای کارآمد و بهینه
4️⃣ ساخت الگوهای پرامپت و درک معماری آنها
5️⃣ تسلط بر تکنیکهای پیشرفته در پرامپتنویسی
6️⃣ تجربه کار با مدلهای چندوجهی (متنی–تصویری–صوتی)
7️⃣ تمرین مداوم برای تبدیل شدن به یک پرامپتنویس حرفهای
🌐 آینده مشاغل مرتبط با هوش مصنوعی نیازمند مهارت در پرامپتنویسی است. کسی که این مهارت را دارد، نقش کلیدی در جهتدهی به مدلهای هوش مصنوعی ایفا میکند.
#هوش_مصنوعی #PromptEngineering #AI #LLM #DeepLearning
@rss_ai_ir
برای متخصص شدن در حوزه Prompt Engineering باید مسیر زیر را طی کنید:
1️⃣ یادگیری مبانی اولیه پرامپتنویسی
2️⃣ آشنایی با مدلهای زبانی (LLMs) و نحوه تنظیم آنها
3️⃣ تمرین نوشتن پرامپتهای کارآمد و بهینه
4️⃣ ساخت الگوهای پرامپت و درک معماری آنها
5️⃣ تسلط بر تکنیکهای پیشرفته در پرامپتنویسی
6️⃣ تجربه کار با مدلهای چندوجهی (متنی–تصویری–صوتی)
7️⃣ تمرین مداوم برای تبدیل شدن به یک پرامپتنویس حرفهای
🌐 آینده مشاغل مرتبط با هوش مصنوعی نیازمند مهارت در پرامپتنویسی است. کسی که این مهارت را دارد، نقش کلیدی در جهتدهی به مدلهای هوش مصنوعی ایفا میکند.
#هوش_مصنوعی #PromptEngineering #AI #LLM #DeepLearning
@rss_ai_ir
👍8🔥6❤4🎉4😁1
😎 حقیقت جالبی که خیلی از توسعهدهندهها درک کردهاند اینه که کاربران عادی اهمیتی به «پرامپتسازی حرفهای» نمیدهند.
📊 در تمام اپلیکیشنهایی که روی LLM ساخته شدهاند، آنالیتیکها نشان میدهد کاربر یک جمله ساده مینویسد و انتظار خروجی کامل دارد. به همین دلیل، توسعهدهندگان داخل خودِ اپ حجم زیادی از دستورالعملها و ساختارها را بهصورت پیشفرض جاسازی میکنند تا همان درخواست سادهی کاربر به یک پرامپت پیچیده و کاربردی تبدیل شود.
🧠 از طرف دیگر، مدلهای «تفکری» (Thinking Models) اساساً نیازمند پرامپتهای کلاسیک نیستند. این مدلها خودشان جای خالی درخواستی کاربر را پر میکنند و بافت منطقی یا دادهای لازم را اضافه میکنند. تعداد کمی از افراد بلدند این نسل از مدلها را درست پرامپت کنند، ولی واقعیت اینه که برای عموم کاربرها هم نیازی نیست.
✅ بله، مواقعی هست که یک پرامپت خیلی خاص و دقیق لازم میشود (مثلاً در یک تسک پژوهشی یا تخصصی)، اما اینها استثنا هستند. اگر تا حالا در چنین وضعیتی نبودید، اصلاً مهم نیست – میتوانید بیخیال ماجرای «پرامپت پارسلتانگ» شوید.
✨ نتیجه: تنبل بودن در پرامپتنویسی نه تنها اشکال نداره، بلکه مسیر درست استفاده از LLM همین است. احترام به کسانی که راحت مینویسند و انتظار دارند AI خودش فکر کند! 🙌
@rss_ai_ir | #LLM #AI #Prompting
📊 در تمام اپلیکیشنهایی که روی LLM ساخته شدهاند، آنالیتیکها نشان میدهد کاربر یک جمله ساده مینویسد و انتظار خروجی کامل دارد. به همین دلیل، توسعهدهندگان داخل خودِ اپ حجم زیادی از دستورالعملها و ساختارها را بهصورت پیشفرض جاسازی میکنند تا همان درخواست سادهی کاربر به یک پرامپت پیچیده و کاربردی تبدیل شود.
🧠 از طرف دیگر، مدلهای «تفکری» (Thinking Models) اساساً نیازمند پرامپتهای کلاسیک نیستند. این مدلها خودشان جای خالی درخواستی کاربر را پر میکنند و بافت منطقی یا دادهای لازم را اضافه میکنند. تعداد کمی از افراد بلدند این نسل از مدلها را درست پرامپت کنند، ولی واقعیت اینه که برای عموم کاربرها هم نیازی نیست.
✅ بله، مواقعی هست که یک پرامپت خیلی خاص و دقیق لازم میشود (مثلاً در یک تسک پژوهشی یا تخصصی)، اما اینها استثنا هستند. اگر تا حالا در چنین وضعیتی نبودید، اصلاً مهم نیست – میتوانید بیخیال ماجرای «پرامپت پارسلتانگ» شوید.
✨ نتیجه: تنبل بودن در پرامپتنویسی نه تنها اشکال نداره، بلکه مسیر درست استفاده از LLM همین است. احترام به کسانی که راحت مینویسند و انتظار دارند AI خودش فکر کند! 🙌
@rss_ai_ir | #LLM #AI #Prompting
👍10🔥6🎉6❤5👏1😁1