VIRSUN
15.8K subscribers
335 photos
200 videos
2 files
205 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🔹 کانال توسط اساتید هوش مصنوعی مدیریت میشود
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir
Download Telegram
🧠 پشته‌ی توسعه‌دهندگان RAG (بازیابی + تولید) به زبان ساده!

♻️این تصویر، نمای کاملی از ابزارها و لایه‌های مورد استفاده برای ساخت سیستم‌های RAG رو نشون می‌ده — از استخراج داده گرفته تا مدل زبانی و ارزیابی نهایی.


📌 خلاصه مهم‌ترین اجزا:
🔹 مدل‌های زبانی (LLMs):
متن‌باز: LLaMA 3.3، Mistral، Phi-4، Qwen 2.5، Gemma 3، DeepSeek
بسته: GPT (OpenAI)، Claude (Anthropic)، Gemini (Google)، Cohere، Amazon

🔹 فریم‌ورک‌ها برای پیاده‌سازی RAG:
LangChain، LlamaIndex، Haystack، Txtai

🔹 دیتابیس برداری (Vector DBs):
Chroma، Pinecone، Weaviate، Qdrant، Milvus

🔹 استخراج داده:
از وب: Crawl4AI، ScrapeGraphAI، FireCrawl
از اسناد: MegaParser، Docling، LlamaParse، ExtractThinker

🔹 مدل‌های برداری متن (Text Embedding):
SBERT، Nomic، Ollama، OpenAI، Cohere


🔹 ارزیابی عملکرد:
Giskard، Ragas، Trulens، Voyage AI
🔧 همه این ابزارها با هدف ساخت یک سیستم هوشمند RAG ترکیب می‌شن که بتونه اطلاعات رو از منابع مختلف بگیره، بفهمه، و خروجی دقیق تولید کنه.


📣 اگر می‌خوای مدل‌های Retrieval-Augmented Generation حرفه‌ای بسازی، این پشته‌ی ابزارها دقیقاً چیزیه که باید بلد باشی!


📍 آموزش‌ها و ابزارهای بیشتر در:
@rss_ai_ir
#RAG #هوش_مصنوعی #LLM #LangChain #پردازش_زبان #بردار_متن #استخراج_داده #پشته_توسعه #AItools #openai #gemini #cohere #ragstack
👏21🔥1
📦 کتابخانه LangExtract از گوگل؛ استخراج ساختار از متن به کمک هوش مصنوعی

🔍 گوگل به‌تازگی از LangExtract رونمایی کرده؛ یک کتابخانه اپن‌سورس پایتون برای استخراج اطلاعات ساختار‌یافته از متون بلند، با بهره‌گیری از مدل‌های LLM مثل Gemini.

📌 ویژگی‌های برجسته LangExtract:

ردیابی دقیق منبع اطلاعات:
هر داده‌ای که استخراج می‌شود (مثل نام، تاریخ یا دوز دارو)، به مکان دقیق آن در متن اصلی اشاره دارد. این یعنی می‌توان منشأ دقیق اطلاعات را بررسی کرد.

فرمت خروجی قابل‌اعتماد و مشخص:
با استفاده از چند مثال و تعیین ساختار موردنظر، خروجی همیشه فرمتی منسجم و قابل‌پیش‌بینی دارد.

پشتیبانی از متون بسیار طولانی:
متن‌ها به بخش‌هایی تقسیم شده و به‌صورت موازی پردازش می‌شوند. این باعث افزایش دقت و مقیاس‌پذیری در داده‌های سنگین می‌شود.

نمایش گرافیکی HTML:
با خروجی تعاملی HTML می‌توانید هزاران برچسب استخراج‌شده را در متن به‌صورت بصری بررسی کنید.

سازگار با LLMهای مختلف:
گرچه توسط گوگل توسعه یافته، اما فقط محدود به Gemini نیست. می‌توانید از مدل‌های دیگر به‌صورت محلی یا ابری استفاده کنید.

قابلیت غنی‌سازی با دانش عمومی مدل‌ها:
بعضی داده‌ها ممکن است از "دانش درونی" مدل استخراج شوند؛ مثلاً اطلاعاتی که صراحتاً در متن نیست اما مدل بر اساس دانش عمومی خود پیشنهاد می‌دهد.

🔬 کاربرد اصلی اولیه: تحلیل گزارش‌های پزشکی گوگل در دمو RadExtract نشان داده که این ابزار چگونه می‌تواند از گزارش‌های رادیولوژی، داده‌های مهم را استخراج و ساختاردهی کند.

🧪 دمو آنلاین: RadExtract در Hugging Face
📚 توضیح رسمی: مقاله وبلاگ گوگل
💾 سورس‌کد: LangExtract در گیت‌هاب
🔖 لایسنس: Apache 2.0

@rss_ai_ir
#استخراج_اطلاعات #هوش_مصنوعی #Google #LangExtract #LLM #پردازش_زبان_طبیعی
2👍1🙏1
⚡️ مدل جدید Qwen3-Coder-30B-A3B-Instruct معرفی شد!

نسخه‌ای قدرتمند و بهینه‌شده از خانواده Qwen3-Coder برای تولید هوشمندانه کد:

🔹 دقت بالا در تولید کد + سرعت رعدآسا
🔹 حافظه کانتکست: 256K (و تا 1M با تکنیک YaRN)
🔹 ترکیب آموزش اولیه و پس‌آموزش
🔹 ۳۰.۵ میلیارد پارامتر (با ۳.۳ میلیارد پارامتر فعال)
🔹 مدل Mixture of Experts با ۱۲۸ متخصص (فقط ۸ فعال در هر مرحله → کارایی بیشتر)
🔹 بهینه‌شده برای زبان‌های Qwen Code, Cline, Roo Code, Kilo Code و...
🔹 پشتیبانی از فراخوانی توابع (function calling) و اجرای Agentها

🔐 لایسنس: Apache 2.0 (کاملاً متن‌باز)

---

🎯 نسخه‌ای عالی برای توسعه‌دهندگان، پروژه‌های LLM و کاربردهای برنامه‌نویسی حرفه‌ای.

📥 لینک‌ها:
💬 گفت‌وگو با مدل: [chat.qwen.ai](https://chat.qwen.ai)
🤗 HuggingFace: (https://hf.co/Qwen/Qwen3-Coder-30B-A3B-Instruct)
🔧 سورس کد: (https://github.com/QwenLM/qwen-code)
🌐 ModelScope: (https://modelscope.cn/models/Qwen/Qwen3-Coder-30B-A3B-Instruct)

📡 @rss_ai_ir
#هوش_مصنوعی #برنامه_نویسی #Qwen #opensource #LLM #کدژنراتور #AI
🔥4👍1🙏1
This media is not supported in your browser
VIEW IN TELEGRAM
📌 مدلی به سرعت باد: Windsurf

🎥 در ویدیویی که منتشر شده، مدل Windsurf پاسخ را با سرعت چشمگیری تولید می‌کند — بدون هیچ‌گونه افزایش سرعت در ویدیو!

🧠 برخلاف تصور، با یک مدل ساده و کوچک روبه‌رو نیستیم. طبق نتایج بنچمارک‌ها، Windsurf در برخی سناریوها حتی عملکردی بهتر از GPT-4.1 داشته (هرچند برخی با دیده تردید به این ادعا نگاه می‌کنند، اما فاصله عملکردی قطعاً بسیار کم است).

🏆 در رتبه‌بندی ReBench، که شامل وظایف جدیدتر و دشوارتر است، این مدل توانسته رتبه نخست را کسب کند — بالاتر از Claude 4 Sonnet و o3. البته داده‌ها تنها از ۳۴ وظیفه هستند، اما همین هم نشان می‌دهد که Windsurf عقب‌مانده نیست.

📣 شاید هنوز به اندازه نام‌های بزرگ معروف نشده باشد، اما عملکردش توجه‌ها را جلب کرده...

#مدل_زبان_بزرگ #هوش_مصنوعی #windsurf #LLM
@rss_ai_ir
🔥20👏19🎉17🥰1513😁11👍10
🎛 شخصیت‌سازی در مدل‌های زبانی فقط با یک اسلایدر!

پژوهشگران Anthropic موفق شده‌اند جهت‌های مشخصی در فضای فعال‌سازی مدل‌های زبانی بزرگ (LLM) کشف کنند که به آن‌ها امکان می‌دهد «شخصیت» مدل را فقط با یک وکتور تغییر دهند.

مدل چاپلوس رو تبدیل کن به منتقد رک‌گو
مدل منفی‌باف رو به خوش‌بین تبدیل کن
فقط با یک forward pass — بدون نیاز به fine-tune سنگین یا RLHF

📌 چگونه این وکتورها ساخته می‌شوند؟

1. یک ویژگی رفتاری (مثل چاپلوسی) تعریف می‌شود
2. پرامپت‌هایی طراحی می‌شوند که مدل را به دو حالت رفتاری مختلف ببرند
3. تفاوت فعال‌سازی‌ها استخراج و وکتور مربوط به آن ویژگی ساخته می‌شود



🧪 آزمایش‌ها نشان داد:
+1.5× وکتور «evil» → مدل طرح جرم می‌ریزد
−1.5× → مدل مثل کشیش پاسخ می‌دهد
📊 این تغییرات علیّتی هستند، نه فقط همبستگی آماری!

🛠 کاربردهای مهندسی:
🔹 رصد زنده خطای مدل با projection روی وکتور hallucination
🔹 اعمال واکسن شخصیتی هنگام fine-tune
🔹 فیلتر دیتاست‌ها با projection روی وکتورهای منفی مثل "toxic" یا "evil"

🌐 آینده LLMها: کنترل رفتار با یک اسلایدر، مثل کم و زیاد کردن صدای موسیقی!

📚 منابع:

1. مقاله اصلی در بلاگ Anthropic
2. مقاله تحقیقاتی در arXiv



👨‍💻 تو دوست داشتی کدوم ویژگی مدل رو تغییر بدی؟ رک‌گویی؟ شوخ‌طبعی؟ اعتماد‌به‌نفس؟

🧠 @rss_ai_ir
#LLM #AI #هوش_مصنوعی #مهندسی_پرامپت #شخصیت_مدل #PersonaVectors
18👏18😁16🥰14🎉14👍13🔥12
🚀 عرضه عمومی مدل‌های فشرده Hunyuan از سوی Tencent!
@rss_ai_ir

📣 شرکت Tencent چهار مدل سبک‌وزن از خانواده Hunyuan LLM را به‌صورت متن‌باز منتشر کرد:
🔹 Hunyuan-0.5B
🔹 Hunyuan-1.8B
🔹 Hunyuan-4B
🔹 Hunyuan-7B

📱 این مدل‌ها برای اجرا روی دستگاه‌های کم‌مصرف طراحی شده‌اند:
🖥 کامپیوترهای شخصی | 📱 تلفن‌های هوشمند | 🚗 خودروها | 🏠 خانه‌های هوشمند | 🎮 کارت‌های GPU مصرفی


---

💡 ویژگی‌های برجسته: پشتیبانی از حالت‌های fast/slow thinking (پاسخ‌های سریع یا تحلیلی)
کانتکست طولانی تا ۲۵۶ هزار توکن!
توانایی‌های عامل‌محور پیشرفته (مانند reasoning، برنامه‌ریزی، tool use)
عملکرد قوی در تست‌های زبان، منطق و ریاضی
پشتیبانی از زیرساخت‌های حرفه‌ای مانند SGLang، vLLM و TensorRT-LLM


---

📦 لینک‌ها برای دانلود و تست مدل‌ها:

🧠 GitHub:

Hunyuan-0.5B

Hunyuan-1.8B

Hunyuan-4B

Hunyuan-7B


🤗 Hugging Face:

Hunyuan-0.5B-Instruct

Hunyuan-1.8B-Instruct

Hunyuan-4B-Instruct

Hunyuan-7B-Instruct


📎 اطلاعات بیشتر:
🔗 https://hunyuan.tencent.com/modelSquare/home/list


---

#Tencent #Hunyuan #هوش_مصنوعی #مدل_زبان #opensource #LLM #AI
🔥2017👍15👏14🥰13😁13🎉13
🚀 آیا از مدل‌های gpt-oss استفاده می‌کنید؟

برای عملکرد درست، این مدل‌ها باید با فرمت خاصی به نام Harmony استفاده شوند، در غیر این صورت پاسخ درست نمی‌دهند!

🔍 چرا Harmony ضروری‌ست؟
🧠 تولید استدلال مرحله‌به‌مرحله (Chain of Thought)
🛠 اجرای درست Function Call و ابزارها
📦 خروجی در کانال‌های مختلف: پاسخ، ابزار، تحلیل
🗂 پشتیبانی از ابزارهای تو در تو و سلسله‌مراتبی

اگر از HuggingFace، vLLM یا Ollama استفاده می‌کنید، مشکلی نیست.
اما اگر در حال ساخت pipeline اختصاصی هستید، مطالعه راهنمای Harmony ضروری است.

📦 نصب آسان:

pip install openai-harmony

@rss_ai_ir
#LLM #PromptEngineering #GPTOSS #Harmony #OpenAI
👏87👍6862🎉58🔥52🥰49😁43
This media is not supported in your browser
VIEW IN TELEGRAM
📦 مجموعه‌ای کامل برای مهندسان هوش مصنوعی منتشر شده است!

در مخزن LLM Engineer Toolkit، بیش از ۱۲۰ کتابخانه تخصصی برای توسعه و استقرار مدل‌های زبانی بزرگ (LLM) گردآوری شده است، به‌صورت دسته‌بندی‌شده:

🔹 آموزش، فاین‌تیون و ارزیابی مدل‌ها
🔹 استقرار سریع و مقیاس‌پذیر مدل‌ها
🔹 یکپارچه‌سازی LLM با اپلیکیشن‌ها و سیستم‌های RAG
🔹 پردازش و تولید داده‌های ساختاریافته و مصنوعی
🔹 طراحی ایجنت‌های خودگردان مبتنی بر LLM
🔹 بهینه‌سازی پرامپت و تضمین استفاده امن در محیط واقعی

📥 این مجموعه برای هر توسعه‌دهنده‌ی حرفه‌ای LLM ضروری است.

🔗 لینک مستقیم:
https://github.com/KalyanKS-NLP/llm-engineer-toolkit
🔗 مجموعه مشابه برای اپلیکیشن‌های LLM:
https://github.com/Shubhamsaboo/awesome-llm-apps

#هوش_مصنوعی #LLM #پرامپت_مهندسی
#ایجنت #RAG #فاین_تیون #AItools
@rss_ai_ir
👏26🔥17👍14😁1413🎉13🥰11
This media is not supported in your browser
VIEW IN TELEGRAM
🎯 راهنمای حرفه‌ای مهندسی پرامپت توسط Anthropic منتشر شد

یکی از کامل‌ترین منابع برای مهندسی پرامپت اکنون در دسترس است — توسط شرکت Anthropic برای مدل Claude.

🧠 این راهنما به موضوعاتی مانند: ▪️ طراحی پرامپت‌های متا (Meta Prompting)
▪️ استفاده از قالب‌ها (Templates)
▪️ تعیین نقش‌های سیستمی (System Roles)
▪️ برچسب‌گذاری با XML
و تکنیک‌های پیشرفته دیگر می‌پردازد.

📘 مطالعه این راهنما برای پژوهشگران، مهندسان LLM و توسعه‌دهندگان اپلیکیشن‌های مبتنی بر Claude توصیه می‌شود.

🔗 لینک راهنما

#مهندسی_پرامپت #Claude #هوش_مصنوعی #LLM #Anthropic
@rss_ai_ir
🔥20👍1714👏14🎉14🥰13😁13
⚡️شتاب دهند Agent Lightning؛ شتاب‌دهنده‌ی جدید مایکروسافت برای آموزش ایجنت‌های LLM

دیگر نیازی به بازنویسی ایجنت نیست! با فریم‌ورک **Agent Lightning**، می‌توانید ایجنت‌های مبتنی بر زبان را بدون تغییر در کد، به کمک **یادگیری تقویتی (RL)
آموزش و بهینه‌سازی کنید.

🔧 ویژگی‌های کلیدی:
▪️ بدون نیاز به تغییر در کد ایجنت
▪️ پشتیبانی از فریم‌ورک‌هایی مانند LangChain، AutoGen، OpenAI Agents SDK، Semantic Kernel و...
▪️ اتصال ایجنت با استفاده از sidecar و جمع‌آوری داده‌های رفتاری
▪️ ارزیابی عملکرد ایجنت در مراحل مختلف (state، action، reward)
▪️ امکان بهینه‌سازی رفتار ایجنت حتی بر اساس سیگنال‌های میانی، نه فقط نتیجه نهایی
▪️ قابلیت اتصال به پایپلاین‌های موجود در پروژه‌های صنعتی یا پژوهشی

🎯 مناسب برای پروژه‌های تولید کد، پرس‌وجوی SQL، اتوماسیون وظایف پیچیده و حتی Multi-Agent Systems

📄 مقاله: (https://arxiv.org/abs/2508.03680)
🔗 گیت‌هاب:(https://github.com/microsoft/agent-lightning)
🌐 وب‌سایت: (https://www.microsoft.com/en-us/research/project/agent-lightning)

#هوش_مصنوعی #LLM #Agent #یادگیری_تقویتی #Microsoft #LangChain #AutoGen #MLOps
@rss_ai_ir 🚀
16🔥16👏16👍15🥰13😁13🎉13🙏1
🧠 مدل GPT-5 حتی در ورودی‌های فوق‌طولانی هم دقت بالایی را حفظ می‌کند!
@rss_ai_ir

📊 نمودار بالا عملکرد مدل‌های مختلف را در مواجهه با ورودی‌های بسیار بلند (تا ۲۵۶ هزار توکن) مقایسه می‌کند. این تست با استفاده از معیار MRCR و وظیفه‌ی “2 needle” اجرا شده که بررسی می‌کند آیا مدل می‌تواند اطلاعات کلیدی را از دل متن بسیار بلند پیدا کند یا نه.

🔝 نتیجه کاملاً روشن است:
مدل GPT-5 با اختلاف قابل توجه، در تمام طول ورودی‌ها بالاترین نرخ تطابق (mean match ratio) را دارد و دقت آن حتی در ورودی ۲۵۶k همچنان نزدیک به ۹۰٪ باقی می‌ماند.

📉 در مقابل:

نسخه‌های Nano و Mini از GPT-4.1 با افزایش طول ورودی به‌شدت افت عملکرد دارند (تا زیر ۴۰٪)

مدل‌های OpenAI O3 و O4-mini هم با وجود شروع قوی، از ۶۴k به بعد دچار افت دقت می‌شوند


🎯 این یعنی GPT-5 نه تنها برای مکالمات یا تحلیل‌های کوتاه، بلکه برای کاربردهای پیچیده با متن‌های بسیار طولانی (مثل اسناد حقوقی، مقالات علمی، یا پایگاه‌ داده‌های متنی) انتخابی بی‌رقیب است.

#GPT5 #هوش_مصنوعی #OpenAI #طول_ورودی_بلند #LLM #بازیابی_اطلاعات #MemoryDepth #متن_طولانی #AItools #مدل_زبانی_پیشرفته

@rss_ai_ir
👍2🔥1👏1
🚀 پیشرفت گوگل: کاهش ۱۰هزار برابری نیاز به داده برای فاین‌تیون LLM
@rss_ai_ir

🔍 گوگل روشی مقیاس‌پذیر در Active Learning توسعه داده که حجم داده برچسب‌خورده موردنیاز برای آموزش مدل‌های زبانی بزرگ (LLM) را در وظایف پیچیده – مثل مـدراتـیـون محتوای تبلیغاتی – تا ده‌ها هزار برابر کاهش می‌دهد.

---

🛠 مراحل کار

1. مدل اولیه (LLM-0) روی کل داده پیش‌بینی و برچسب‌گذاری خودکار انجام می‌دهد.
2. داده‌ها خوشه‌بندی می‌شوند تا سخت‌ترین و مبهم‌ترین نمونه‌ها شناسایی شود.
3. تنها نمونه‌های متنوع و با بیشترین ارزش یادگیری انتخاب می‌شوند.
4. این نمونه‌ها توسط کارشناسان انسانی برچسب‌گذاری می‌شوند.
5. فرآیند آموزش → انتخاب نمونه‌های دشوار → برچسب‌گذاری → آموزش مجدد چند بار تکرار می‌شود.

---

📊 نتایج کلیدی

* کاهش از ۱۰۰هزار نمونه برچسب‌خورده به کمتر از ۵۰۰ نمونه با حفظ یا بهبود کیفیت.
* بهبود معیار Cohen’s Kappa بین ۵۵ تا ۶۵ درصد.
* در مدل‌های بزرگ عملیاتی: صرفه‌جویی ۳ تا ۴ مرتبه‌ای در داده با کیفیت برابر یا بهتر.

---

📌معیار Cohen’s Kappa چیست؟
معیاری برای سنجش میزان توافق بین دو ارزیاب (مثلاً کارشناس و مدل) با حذف اثر توافق تصادفی:

* ۰.۰ → بدون توافق
* ۰.۴۱–۰.۶۰ → توافق متوسط
* ۰.۶۱–۰.۸۰ → توافق قابل توجه
* ۰.۸۱–۱.۰۰ → توافق تقریباً کامل

مزیت نسبت به Accuracy: مناسب‌تر برای داده‌های با توزیع نامتوازن کلاس‌ها.

---

💡 مزیت‌های روش گوگل

* برچسب‌گذاری فقط روی نمونه‌های مهم
* مقیاس‌پذیر برای دیتاست‌های حجیم (صدها میلیارد نمونه)
* کاهش شدید هزینه و زمان برچسب‌گذاری
* انطباق سریع برای حوزه‌هایی با تغییرات مداوم قوانین (مانند تبلیغات، امنیت، محتوای کاربری)

---

📥 مطالعه کامل در بلاگ گوگل:
[https://research.google/blog/achieving-10000x-training-data-reduction-with-high-fidelity-labels/]

#هوش_مصنوعی #ActiveLearning #گوگل #LLM #یادگیری_ماشین #DataEfficiency
@rss_ai_ir
🔥2321🥰21😁20🎉20👏17👍12🙏1
⚡️ مدل‌های زبانی GPT-OSS با فرمت GGUF توسط تیم Unsloth بهینه‌سازی و منتشر شدند
@rss_ai_ir

تیم توسعه‌دهنده Unsloth دو نسخه از مدل‌های GPT-OSS با ۲۰ و ۱۲۰ میلیارد پارامتر را به فرمت GGUF تبدیل کرده و با رفع برخی ایرادات، کیفیت استنتاج (Inference) آن‌ها را به‌طور قابل توجهی افزایش داده‌اند.


---

📌 پیکربندی پیشنهادی برای اجرا:

🔹 مدل با ۲۰ میلیارد پارامتر در حالت دقت کامل، تنها به ۱۴ گیگابایت حافظه رم نیاز دارد و با سرعتی بیش از ۱۰ توکن بر ثانیه اجرا می‌شود.

🔹 مدل ۱۲۰ میلیاردی نیز با حدود ۶۴ گیگ رم، خروجی بالای ۴۰ توکن بر ثانیه ارائه می‌دهد.

🔸 حتی در سیستم‌هایی با ۶ گیگ رم و بدون GPU هم امکان اجرا وجود دارد، اما سرعت استنتاج پایین‌تر خواهد بود.


---

📈 در صورت استفاده از کارت گرافیک، عملکرد مدل‌ها به‌مراتب بهتر خواهد بود.
برخی تست‌ها با GPU قدرتمند H100 نشان داده‌اند که سرعت خروجی به بیش از ۱۴۰ توکن بر ثانیه می‌رسد که حتی از ChatGPT نیز سریع‌تر است.


---

🧠 روش‌های قابل استفاده برای اجرا:

اجرای مستقیم با ابزار llama.cpp

نرم‌افزارهای رابط مانند LM Studio

محیط‌های تعاملی مانند Open WebUI


📌 مدل ۲۰B در عین سبک بودن، عملکردی نزدیک به مدل‌هایی مانند o3-mini دارد و برای سیستم‌های ضعیف‌تر بسیار مناسب است.


---

🔧 نسخه‌هایی با دقت ۴ بیت و ۱۶ بیت نیز آماده شده‌اند.
نسخه ۴ بیتی حتی قابلیت فاین‌تیون روی کارت‌های گرافیک با ۲۴ گیگابایت VRAM را دارد.

📄 مستندات کامل برای نصب و آموزش، توسط تیم Unsloth منتشر شده و گام‌به‌گام مراحل راه‌اندازی را توضیح داده است.

منابع:
لینک 1

لینک 2

#مدل_زبانی #هوش_مصنوعی #GPT_OSS #Unsloth #GGUF #LLM

@rss_ai_ir
👍16🎉13👏11🥰9😁97🔥6
📊🤖 بهبود دقت GPT-5 با پرامپت کاستوم جدید

تست‌ها روی مدل gpt-5-nano با تلاش medium و بنچمارک MMLU-PRO نشان دادند که استفاده از نسخه سوم پرامپت کاستوم باعث افزایش دقت از 68.73٪ به 70.20٪ شده است (+1.47٪).

📌 ویژگی‌های نسخه جدید

♻️استفاده از تکنیک «ساخت روبریک» در حین فکر کردن مدل
♻️ارزیابی داخلی پاسخ‌ها (۰ تا ۱۰۰) و بازنویسی در صورت کیفیت پایین
♻️حذف ترفندهای قدیمی بی‌اثر و بهبود فرمت خروجی
♻️بدون تحمیل جدول یا پیشنهاد اضافی مگر درخواستی باشد


📈 در نمودار دوم می‌بینید که تقریباً در تمام حوزه‌ها (مهندسی، علوم کامپیوتر، شیمی، بیزینس، زیست، فیزیک و …) عملکرد کمی بهتر بوده است.

📥 پرامپت و توضیحات کامل:
github.com/DenisSergeevitch/chatgpt-custom-instructions

@rss_ai_ir 🚀 | #هوش_مصنوعی #پرامپت #GPT5 #LLM #پردازش_زبان
🔥1812😁11👍9🥰7🎉6👏5
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 فاین‌تیونینگ کارآمد مدل‌های زبانی با PEFT

✳️در پروژه‌های هوش مصنوعی، مخصوصاً مدل‌های زبانی بزرگ (LLM)، فاین‌تیونینگ کامل تمام وزن‌ها (Full Fine-Tuning) بسیار پرهزینه و نیازمند GPUهای قدرتمند است. تکنیک PEFT (Parameter-Efficient Fine-Tuning) با هدف کاهش این هزینه‌ها معرفی شده و امروز یکی از رایج‌ترین رویکردها برای سفارشی‌سازی مدل‌ها در حوزه تخصصی است.


🔍 ایده اصلی PEFT
به‌جای تغییر دادن همه پارامترهای مدل (که ممکن است میلیاردها وزن باشد)، فقط یک زیرمجموعه کوچک از پارامترها یا لایه‌های اضافه شده (مثل LoRA – Low-Rank Adaptation) آموزش داده می‌شود. وزن‌های اصلی مدل پیش‌آموزش‌دیده (Pretrained Weights) ثابت می‌مانند و تنها ماتریس‌های کم‌رتبه‌ی افزوده شده به‌روزرسانی می‌شوند.


⚙️ مهم‌ترین روش‌های PEFT
LoRA (Low-Rank Adaptation) 🟦
تزریق دو ماتریس کم‌رتبه (A و B) به وزن‌های مدل
به‌روزرسانی فقط این ماتریس‌ها
کاهش چشمگیر تعداد پارامترهای قابل‌آموزش (تا 1000 برابر کمتر از Full Fine-Tuning)


Prefix-Tuning 🟧
اضافه کردن یک توالی از "توکن‌های پیشوند" قابل‌آموزش به ورودی هر لایه ترنسفورمر
مناسب برای وظایف تولید متن (NLG) و دیالوگ


Prompt-Tuning 🟨
آموزش چند embedding به‌عنوان پرامپت ثابت برای هدایت مدل مناسب برای سناریوهایی که ورودی همیشه ساختار مشخصی دارد


Adapters 🟩
اضافه کردن ماژول‌های کوچک بین لایه‌های ترنسفورمر مدل اصلی ثابت می‌ماند و فقط آداپترها آموزش می‌بینند


📊 مزایا برای پروژه‌های صنعتی
💾 نیاز کمتر به حافظه GPU (مثلاً 8GB هم کافی است)
⏱️ سرعت بالاتر آموزش و استقرار
🔄 قابلیت اشتراک و ترکیب ماژول‌های فاین‌تیون (Adapter Fusion)
📦 امکان استفاده روی مدل‌های خیلی بزرگ بدون منابع ابری گران


💡 کاربردهای تخصصی
♻️سفارشی‌سازی GPT یا LLaMA برای تحلیل متون حقوقی، پزشکی یا فنی
♻️آموزش مدل‌های چندزبانه روی داده‌های سازمانی محدود
♻️ایجاد نسخه‌های سبک‌تر و بهینه برای اجرا روی لبه (Edge AI)


📌 جمع‌بندی
روشPEFT با تمرکز روی تغییرات کم‌هزینه و ماژولار، فاین‌تیونینگ را برای همه قابل‌دسترس کرده است. به‌جای روزها آموزش روی چندین GPU، می‌توان با منابع محدود، مدل‌های قدرتمند را دقیقاً مطابق نیاز حوزه تخصصی خود تنظیم کرد.


@rss_ai_ir 🤖

| #هوش_مصنوعی #LLM #PEFT #LoRA #پردازش_زبان_طبیعی
😁9🎉8🔥7👏63🥰3👍1
📊 نتایج مقایسه مدل‌های هوش مصنوعی در معیار AlgoTune نشان می‌دهد که مدل‌های کوچک‌تر مانند o4-mini و DeepSeek R1 با بودجه بسیار کمتر، شتاب بالایی ایجاد می‌کنند.

🔹 نکات کلیدی:

✳️مدل o4-mini با امتیاز 1.71x و R1 با 1.69x در صدر قرار دارند.

✳️حتی با بودجه ۰.۱ دلار، این دو مدل به امتیازی بهتر از Claude Opus در بودجه کامل ۱ دلار می‌رسند.

✳️بیشترین رشد عملکرد مدل‌های کوچک قبل از ۰.۵ دلار اتفاق می‌افتد و پس از آن شیب افزایش کاهش می‌یابد.

✳️رویکرد budget-constrained benchmarking هرچند در کاربرد عملی محدودیت‌هایی دارد، اما برای تحقیقات دانشگاهی و پروژه‌های دانشجویی می‌تواند بسیار ارزشمند باشد.


#هوش_مصنوعی #LLM #بنچمارک #بهینه‌سازی_الگوریتم
@rss_ai_ir 🚀
🔥10😁64👍4🎉2
مدیر سابق گوگل David Petrou که به خاطر کار روی Google Goggles و Google Glass شناخته می‌شود، استارتاپی به نام Continua راه‌اندازی کرده است 💬🤖 — یک عامل هوش مصنوعی که می‌تواند به گروه‌های چت در SMS، iMessage و Discord بپیوندد تا در هماهنگی برنامه‌ها، مدیریت وظایف و کاهش شلوغی گفتگو کمک کند.


---

جزئیات کلیدی

♻️جذب سرمایه ۸ میلیون دلاری در دور Seed به رهبری GV با مشارکت Bessemer Venture Partners و سرمایه‌گذاران فرشته.

♻️قابلیت‌هایی مانند تنظیم یادآور، برگزاری نظرسنجی، ایجاد اسناد و پاسخ‌گویی به سوالات در پیام خصوصی (DM).

♻️آموزش ویژه برای مدیریت مکالمات چندنفره با هوش اجتماعی.

♻️امکان افزودن مستقیم Continua به گروه‌ها و تعیین میزان مشارکت آن توسط کاربر.



---

🎯 هدف این پروژه، تبدیل مدل‌های زبانی بزرگ (LLM) به بخشی طبیعی و بدون مزاحمت از هماهنگی روزمره در گروه‌هاست.

#هوش_مصنوعی 🤖 #استارتاپ 🚀 #چت_بات 💬 #مدیریت_وظایف 📅 #LLM
🎉9😁75🔥3👍2
This media is not supported in your browser
VIEW IN TELEGRAM
🩺 وقتی هوش مصنوعی از بسیاری از پزشکان بهتر عمل می‌کند

داریو آمودئی، مدیرعامل Anthropic، می‌گوید:

برخی از برندگان نوبل در زیست‌شناسی امروز از LLMها (مدل‌های زبانی بزرگ) مشاوره‌های بهتری نسبت به اکثر پزشکان دریافت می‌کنند.



🔹 او تأکید می‌کند که البته ۱٪ برتر پزشکان همچنان ارزش مراجعه حضوری دارند،
اما برای بقیه موارد، LLMها سریع‌تر، سازگارتر و دقیق‌تر عمل می‌کنند.

💡 چرا؟
زیرا بخش زیادی از کار پزشکی الگو‌یابی و ترکیب حقایق است، و این دقیقاً همان چیزی است که LLMها در آن می‌درخشند.

🌐 #هوش_مصنوعی #پزشکی_دیجیتال #LLM #AIHealthcare
🧠 @rss_ai_ir
8🎉7🔥6👍3😁1
This media is not supported in your browser
VIEW IN TELEGRAM
📌 نقشه راه برای تبدیل شدن به پرامپت انجینیر در سال ۲۰۲۵ 🧑🏻‍💻

برای متخصص شدن در حوزه Prompt Engineering باید مسیر زیر را طی کنید:

1️⃣ یادگیری مبانی اولیه پرامپت‌نویسی
2️⃣ آشنایی با مدل‌های زبانی (LLMs) و نحوه تنظیم آن‌ها
3️⃣ تمرین نوشتن پرامپت‌های کارآمد و بهینه
4️⃣ ساخت الگوهای پرامپت و درک معماری آن‌ها
5️⃣ تسلط بر تکنیک‌های پیشرفته در پرامپت‌نویسی
6️⃣ تجربه کار با مدل‌های چندوجهی (متنی–تصویری–صوتی)
7️⃣ تمرین مداوم برای تبدیل شدن به یک پرامپت‌نویس حرفه‌ای

🌐 آینده مشاغل مرتبط با هوش مصنوعی نیازمند مهارت در پرامپت‌نویسی است. کسی که این مهارت را دارد، نقش کلیدی در جهت‌دهی به مدل‌های هوش مصنوعی ایفا می‌کند.

#هوش_مصنوعی #PromptEngineering #AI #LLM #DeepLearning
@rss_ai_ir
👍8🔥64🎉4😁1
😎 حقیقت جالبی که خیلی از توسعه‌دهنده‌ها درک کرده‌اند اینه که کاربران عادی اهمیتی به «پرامپت‌سازی حرفه‌ای» نمی‌دهند.

📊 در تمام اپلیکیشن‌هایی که روی LLM ساخته شده‌اند، آنالیتیک‌ها نشان می‌دهد کاربر یک جمله ساده می‌نویسد و انتظار خروجی کامل دارد. به همین دلیل، توسعه‌دهندگان داخل خودِ اپ حجم زیادی از دستورالعمل‌ها و ساختارها را به‌صورت پیش‌فرض جاسازی می‌کنند تا همان درخواست ساده‌ی کاربر به یک پرامپت پیچیده و کاربردی تبدیل شود.

🧠 از طرف دیگر، مدل‌های «تفکری» (Thinking Models) اساساً نیازمند پرامپت‌های کلاسیک نیستند. این مدل‌ها خودشان جای خالی درخواستی کاربر را پر می‌کنند و بافت منطقی یا داده‌ای لازم را اضافه می‌کنند. تعداد کمی از افراد بلدند این نسل از مدل‌ها را درست پرامپت کنند، ولی واقعیت اینه که برای عموم کاربرها هم نیازی نیست.

بله، مواقعی هست که یک پرامپت خیلی خاص و دقیق لازم می‌شود (مثلاً در یک تسک پژوهشی یا تخصصی)، اما این‌ها استثنا هستند. اگر تا حالا در چنین وضعیتی نبودید، اصلاً مهم نیست – می‌توانید بی‌خیال ماجرای «پرامپت پارسلتانگ» شوید.

نتیجه: تنبل بودن در پرامپت‌نویسی نه تنها اشکال نداره، بلکه مسیر درست استفاده از LLM همین است. احترام به کسانی که راحت می‌نویسند و انتظار دارند AI خودش فکر کند! 🙌

@rss_ai_ir | #LLM #AI #Prompting
👍10🔥6🎉65👏1😁1