مدل GLM-4.5V بهعنوان رهبر جدید مدلهای متنباز در استدلال بصری معرفی شده و در ۴۱ بنچمارک رتبه اول را دارد.
✨ قابلیتها:
* 🖼 درک و استدلال تصویری — تحلیل و تفسیر چند تصویر، شناسایی اشیا و صحنهها.
* 🎥 درک ویدئو — تحلیل فریمبهفریم و شناسایی رویدادها در ویدئوهای طولانی.
* 💻 کار با رابطهای گرافیکی — شناسایی آیکونها، دکمهها و تعامل با محیط دسکتاپ.
* 📊 تحلیل نمودار و سند — استخراج و تفسیر دادهها از گزارشها و اسناد پیچیده.
* 📍 مکانیابی عناصر بصری — تعیین دقیق موقعیت اجزای موجود در تصویر.
⚙️ ویژگیهای کلیدی:
🟠 مبتنی بر GLM-4.5-Air با بهبودهای برگرفته از GLM-4.1V-Thinking
🟠 معماری MoE با ۱۰۶ میلیارد پارامتر برای مقیاسپذیری و کارایی بالا
🔗 لینکها:
[Hugging Face](http://huggingface.co/zai-org/GLM-4.5V) | [GitHub](http://github.com/zai-org/GLM-V) | [مستندات API](http://docs.z.ai/guides/vlm/glm-4.5v) | [نسخه دموی آنلاین](http://chat.z.ai)
@rss_ai_ir 🚀
\#هوش_مصنوعی 🤖 #مدل_متن_باز 🆓 #بینایی_ماشین 👁 #پردازش_تصویر 🖼 #GLM
✨ قابلیتها:
* 🖼 درک و استدلال تصویری — تحلیل و تفسیر چند تصویر، شناسایی اشیا و صحنهها.
* 🎥 درک ویدئو — تحلیل فریمبهفریم و شناسایی رویدادها در ویدئوهای طولانی.
* 💻 کار با رابطهای گرافیکی — شناسایی آیکونها، دکمهها و تعامل با محیط دسکتاپ.
* 📊 تحلیل نمودار و سند — استخراج و تفسیر دادهها از گزارشها و اسناد پیچیده.
* 📍 مکانیابی عناصر بصری — تعیین دقیق موقعیت اجزای موجود در تصویر.
⚙️ ویژگیهای کلیدی:
🟠 مبتنی بر GLM-4.5-Air با بهبودهای برگرفته از GLM-4.1V-Thinking
🟠 معماری MoE با ۱۰۶ میلیارد پارامتر برای مقیاسپذیری و کارایی بالا
🔗 لینکها:
[Hugging Face](http://huggingface.co/zai-org/GLM-4.5V) | [GitHub](http://github.com/zai-org/GLM-V) | [مستندات API](http://docs.z.ai/guides/vlm/glm-4.5v) | [نسخه دموی آنلاین](http://chat.z.ai)
@rss_ai_ir 🚀
\#هوش_مصنوعی 🤖 #مدل_متن_باز 🆓 #بینایی_ماشین 👁 #پردازش_تصویر 🖼 #GLM
🔥7😁6❤5🎉5👍3