VIRSUN
15.8K subscribers
335 photos
200 videos
2 files
205 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🔹 کانال توسط اساتید هوش مصنوعی مدیریت میشود
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir
Download Telegram
🧠 ۱۰ چالش داغ پردازش تصویر که محققان در سال ۲۰۲۵ دنبال می‌کنند

📷 بر اساس منابع معتبر مانند OpenCV و گزارش‌های تحقیقاتی جدید، این‌ها مهم‌ترین دغدغه‌های امروز در بینایی ماشین و Image Processing هستن:

1. کیفیت پایین و کمبود داده‌های آموزشی:
- کیفیت پایین تصاویر به‌خاطر نویز حسگرها، فشرده‌سازی، زاویه دید، نورپردازی و غیره.
- کمبود دیتاست برچسب‌خورده مخصوصاً در حوزه‌های صنعتی یا پزشکی، که مدل‌ها برای یادگیری عمیق به داده‌ زیاد و دقیق نیاز دارند.

2. تنوع و پیچیدگی داده‌های تصویری:
- تغییرات زیاد در زاویه، نور، مقیاس، پس‌زمینه و پوشش جزئی (Occlusion) باعث می‌شود الگوریتم‌ها در شناسایی اشیاء یا ویژگی‌ها دچار مشکل شوند.

3. پردازش بلادرنگ (Real-Time):
- کاربردهای صنعتی، خودروهای خودران یا واقعیت افزوده نیازمند تحلیل سریع و دقیق هستند. محدودیت توان محاسباتی و بازده الگوریتم‌ها موضوع داغ تحقیقات است.

4. انتزاع ویژگی‌های سه‌بعدی از تصاویر دوبعدی:
- استخراج عمق، شکل و موقعیت فضایی اجسام—با استفاده از فقط چند تصویر—همچنان یکی از چالش‌های بنیادی است.

5. یکپارچگی داده‌ها از منابع چندگانه (Multi-modal):
- ترکیب اطلاعات تصویری با سیگنال‌های دیگر (مانند صوت، متون یا داده‌های سنسورهای مختلف)، همچنان یک چالش کلیدی برای افزایش دقت در برنامه‌های مختلف است.

6. برچسب‌گذاری نادرست (Imbalanced/Incorrect Labels):
- وجود برچسب‌های غلط یا نامتعادل در دیتاست‌ها باعث عملکرد ضعیف مدل‌های یادگیری می‌شود.

7. ابعاد بالا و پیچیدگی محاسباتی:
- حجم بالای داده‌های تصویری (میلیون‌ها پیکسل در هر تصویر) منجر به مسائل "curse of dimensionality" و نیاز به بهینه‌سازی شدید مدل‌ها می‌شود.

8. ملاحظات اخلاقی و سوگیری مدل‌ها
- مدل‌ها ممکن است نسبت به دسته‌های خاص (جنسیت، نژاد،...) دچار سوگیری شوند یا در شناسایی تصاویر حساس دچار خطا گردند.

9. تولید خودکار داده از طریق مدل‌های مولد (GANs و Diffusion models):
- چگونه می‌شود داده‌های مصنوعی واقع‌گرایانه تولید کرد که برای آموزش مدل‌ها مفید باشند و دچار overfitting یا خطا نشوند؟

10. خودتوضیح‌دهی مدل‌ها (Explainability):

- مدل‌های Deep Learning عمدتاً یک "جعبه سیاه" محسوب می‌شوند. توضیح تصمیمات مدل، به ویژه در پزشکی یا صنایع حساس، یک چالش برجسته است.



#پردازش_تصویر #بینایی_ماشین #هوش_مصنوعی #ImageProcessing #ComputerVision #DeepLearning #AI_2025 #تحقیقات_هوش_مصنوعی

🖼 @rss_ai_ir
👏3🔥2👍1
🧠 تشخیص چهره با DeepFace؛ کتابخانه‌ای قدرتمند برای Python
---

کتابخانه‌ی DeepFace یک ابزار سبک اما پیشرفته برای تشخیص چهره و تحلیل ویژگی‌های صورت مثل سن، جنسیت، احساس و نژاد در زبان پایتون است. این فریم‌ورک به‌طور هوشمند مدل‌های قدرتمندی مانند:
🔹 VGG-Face
🔹 FaceNet
🔹 ArcFace
🔹 Dlib
🔹 OpenFace
و سایر مدل‌های SOTA را پوشش می‌دهد 🚀

---

📌 مراحل استاندارد تشخیص چهره شامل:
✔️ تشخیص چهره (Detect)
✔️ هم‌ترازسازی (Align)
✔️ نرمال‌سازی (Normalize)
✔️ استخراج ویژگی (Represent)
✔️ تأیید هویت (Verify)

و DeepFace همه‌ی این مراحل را تنها با یک خط کد انجام می‌دهد!

---

📊 دقت عملکرد:
🔬 آزمایش‌ها نشون دادن مدل‌های DeepFace به دقتی بالاتر از انسان‌ها در شناخت چهره دست پیدا کردن (بیش از 97.5٪)!

---

📥 نصب آسان:
فقط کافیه این دستور رو اجرا کنی:
`bash
pip install deepface

🌐 لینک گیت‌هاب برای اطلاعات بیشتر و مستندات:
🖥 https://github.com/serengil/deepface


---

#تشخیص_چهره #یادگیری_عمیق #پایتون #FaceRecognition #DeepLearning #Python #ComputerVision #DeepFace

📡 برای آموزش‌های تخصصی هوش مصنوعی:
🔗 https://t.me/rss_ai_ir
👍2👎1👏1
🔍 دوره تخصصی بینایی کامپیوتر - دانشگاه برکلی
🖥 CS C280 - Spring 2025

📌 اگر دنبال یه مسیر منظم، آکادمیک و در عین حال عملی برای یادگیری بینایی کامپیوتر هستی، این دوره دقیقاً همونه! دانشگاه برکلی در دوره CS C280 مفاهیم کلاسیک بینایی ماشین رو با جدیدترین مدل‌های یادگیری عمیق ترکیب کرده:

🔹 Vision Transformers
🔹 Diffusion Models
🔹 Vision-Language Models
🔹 Video Recognition & 3D Vision
🔹 Multimodal AI & Novel View Synthesis

کل دوره در ۲۵ جلسه، با ساختار دقیق، تمرین، پروژه و اسلایدهای آموزشی برگزار شده و برای عموم رایگانه!

📅 سرفصل‌های دوره:
از کالیبراسیون دوربین و هندسه چندنما (Multi-view Geometry)
تا درک انسان، شناسایی حرکات و پیش‌بینی سه‌بعدی 👇
📷 ViT, GANs, VAE, Object Detection, Face Recognition, و …

📎 لینک دسترسی به دوره: 🌐 CS C280 Website - Berkeley

📌 تکلیف‌ها (Assignments) هم با ددلاین مشخص طراحی شدن تا تجربه واقعی دانشگاهی داشته باشی.


---

📚 برای کسانی که می‌خوان مسیر حرفه‌ای بینایی کامپیوتر و هوش مصنوعی رو جدی ادامه بدن، این دوره یکی از بهترین شروع‌هاست.

#ComputerVision #DeepLearning #VisionTransformer #Berkeley #AI_Course #یادگیری_عمیق #بینایی_ماشین #هوش_مصنوعی
@rss_ai_ir | مرجع تخصصی هوش مصنوعی 🚀
👍22🔥20👏1917🎉13🥰12😁12
🧩 مدل OmniPart: نسل جدید تولید سه‌بعدی با آگاهی از اجزای شیء

پژوهشگران در مدل OmniPart روشی دو‌مرحله‌ای برای ساخت اشیاء سه‌بعدی قابل‌ویرایش از روی تصاویر و ماسک‌های دوبعدی ارائه کرده‌اند.

🔹 ویژگی‌های کلیدی:

1. جدا‌سازی معنایی قوی بین اجزاء (Semantic Decoupling)
2. انسجام ساختاری بالا بین کل مدل (Structural Cohesion)
3. امکان کنترل و ویرایش بخش‌های جداگانه مدل پس از تولید



🔹 روش کار:

مرحله اول: یک ترنسفورمر خودبازگشتی (Autoregressive Transformer) چیدمان سه‌بعدی اجزاء را به صورت توالی باکس‌ها، بر اساس ماسک‌های ۲بعدی، طراحی می‌کند.

مرحله دوم: یک ماژول سنتز مکانی (Spatially-Conditioned Synthesis) — آموزش‌دیده از یک مدل تولیدی پیش‌فرض — همه اجزاء را به طور همزمان در این چیدمان می‌سازد.


🔹 نتایج:

دقت F1 Score = 0.74 در سطح جزء (با آستانه Chamfer Distance < 0.1)

عملکرد بهتر نسبت به تمام مدل‌های موجود در تولید سه‌بعدی مبتنی بر اجزاء


🔹 کاربردها:

♻️ویرایش جزئی مدل‌های سه‌بعدی
♻️انیمیشن‌سازی بخشی
♻️اختصاص متریال به قسمت‌های خاص در سیستم‌های تعاملی


📄 مطالعه کامل: arXiv
💻 کد و مدل: HuggingFace

#3D #ComputerVision #GenerativeAI
@rss_ai_ir
👍14😁13🥰10👏10🎉9🔥83
📸 تشخیص اشیاء با استفاده از مدل‌های بینایی-زبانی (VLM)
@rss_ai_ir 🤖

⛔️در مدل‌های سنتی تشخیص شیء، یک محدودیت جدی وجود دارد: مجموعه کلاس‌ها همان‌هایی هستند که در داده‌های آموزشی دیده شده‌اند (Closed-set Object Detection). برای رفع این محدودیت، نسل جدیدی از مدل‌ها به نام Open Vocabulary Object Detection (OVOD) معرفی شده‌اند که توانایی تشخیص اشیاء دلخواه را دارند.

در یک مقاله جدید، مروری بر مدل‌های OVOD مبتنی بر Vision Language Model (VLM) انجام شده است.

📌 در این مقاله می‌خوانید:

✳️رویکردهای مختلف برای به‌کارگیری VLM در تشخیص شیء

✳️نتایج مقایسه مدل‌ها در بنچمارک‌های Closed-Set و Open Vocabulary

✳️دلیل ماندگاری ایده‌های CLIP در این حوزه


🔗 مطالعه کامل مقاله در لینک زیر 👇
مقاله

#هوش_مصنوعی #بینایی_ماشین #VLM #تشخیص_شیء #CLIP #OpenVocabulary #ComputerVision #OVOD
🎉7🔥65😁5👍3👏1
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 در دنیای بینایی کامپیوتر: با مدل Segment Anything یا SAM آشنا شوید!

شرکت متا (فیسبوک سابق) از یک مدل هوش مصنوعی انقلابی به نام Segment Anything یا به اختصار SAM رونمایی کرده بود در 2 سال گذشته که درک ماشین از تصاویر را برای همیشه تغییر می‌دهد.

🤔 خب، Segment Anything دقیقاً چی کار می‌کنه؟

به زبان ساده، SAM می‌تونه *هر چیزی* رو در *هر عکسی* با دقت فوق‌العاده‌ای تشخیص بده و از بقیه تصویر جدا کنه (یا به اصطلاح فنی، "Segment" کنه).

تصور کنید ابزار Magic Wand فتوشاپ رو دارید، اما این ابزار به جای پیکسل‌های مشابه، مفهوم «شیء» رو درک می‌کنه و نیازی به هیچ تنظیم دستی نداره! فقط کافیه بهش اشاره کنید.

---

🤯 چرا SAM اینقدر مهمه و یک جهش بزرگ محسوب می‌شه؟

دلیل اصلی، قابلیت "Zero-Shot" این مدله.

تا قبل از این، مدل‌های هوش مصنوعی باید برای تشخیص اشیاء خاص (مثلاً فقط گربه، ماشین یا انسان) به صورت جداگانه و با هزاران عکس برچسب‌خورده آموزش می‌دیدن. اما SAM یک «مدل پایه» (Foundation Model) برای بخش‌بندی تصویره. یعنی بدون آموزش قبلی روی یک شیء خاص، می‌تونه هر آبجکتی رو در تصویر شناسایی کنه.

این مدل مثل GPT-3 برای متن عمل می‌کنه؛ همانطور که GPT-3 مفهوم کلمات و جملات رو درک می‌کنه، SAM مفهوم اشیاء و ساختار بصری رو درک می‌کنه.

---

🖼 چطور با SAM کار می‌کنیم؟ (Promptable Segmentation)

شما می‌تونید به روش‌های مختلفی به مدل بگید که کدوم شیء رو می‌خواید جدا کنه:

🖱 کلیک کردن روی یک نقطه: روی هر قسمتی از یک شیء کلیک کنید، SAM به طور هوشمند کل اون شیء رو براتون ماسک (Mask) می‌کنه.

📦 کشیدن یک کادر (Box) دور شیء: یک کادر ساده دور یک شیء بکشید تا مدل اون رو به دقت براتون جدا کنه.

✍️ (در آینده) توصیف متنی: این قابلیت هنوز در حال توسعه است، اما در آینده می‌تونید با نوشتن یک متن (مثلاً "اون گربه که روی مبل خوابیده")، شیء مورد نظر رو انتخاب کنید.

وقتی شما یک Prompt (مثل کلیک یا کادر) به مدل می‌دید، SAM در لحظه چندین ماسک معتبر و دقیق رو به شما پیشنهاد می‌ده تا بهترین رو انتخاب کنید.

---

🚀 ویژگی‌های کلیدی SAM:

توانایی Zero-Shot: بدون نیاز به آموزش مجدد، اشیاء جدید رو شناسایی می‌کنه.
عملکرد بر اساس Prompt: کاملاً تعاملیه و از ورودی کاربر برای تشخیص استفاده می‌کنه.
تولید ماسک‌های باکیفیت: لبه‌های اشیاء رو با جزئیات و دقت بسیار بالایی مشخص می‌کنه.
آموزش دیده روی دیتاست عظیم: متا برای آموزش این مدل، بزرگترین دیتاست تاریخ برای بخش‌بندی تصویر به نام SA-1B رو ایجاد کرده که شامل ۱.۱ میلیارد ماسک از ۱۱ میلیون تصویره!

---

💡 کاربردهای بالقوه:

* ابزارهای خلاقانه: ویرایش حرفه‌ای عکس و ویدیو با چند کلیک ساده (مثل حذف پس‌زمینه).
* واقعیت افزوده (AR) و مجازی (VR): قرار دادن اشیاء مجازی در دنیای واقعی با درک کامل از محیط.
* تحقیقات علمی: تحلیل تصاویر پزشکی (مثل شناسایی تومورها) یا تصاویر ماهواره‌ای.
* تجارت الکترونیک: جداسازی خودکار محصولات از پس‌زمینه برای نمایش در فروشگاه‌های آنلاین.
* خودکارسازی برچسب‌زنی داده: کمک به آموزش مدل‌های هوش مصنوعی دیگر با سرعت بسیار بالاتر.

---

🔗 خودتون امتحان کنید!

متا دموی آنلاین این مدل رو برای استفاده عمومی منتشر کرده. حتماً امتحانش کنید تا قدرت شگفت‌انگیزش رو ببینید:

🌐 لینک دموی آنلاین:
[https://segment-anything.com/demo]

👨‍💻 برای متخصصین و توسعه‌دهندگان:
این پروژه به صورت اپن سورس منتشر شده و می‌تونید کدها و مدل رو از گیت‌هاب دانلود کنید:

لینک گیت‌هاب:
[https://github.com/facebookresearch/segment-anything]

📄 مقاله پژوهشی:
[https://ai.facebook.com/research/publications/segment-anything/]

#هوش_مصنوعی #متا #فیسبوک #بینایی_کامپیوتر #پردازش_تصویر #SAM #SegmentAnything #AI #MetaAI #ComputerVision #FoundationModel
@rss_ai_ir
👍7🔥7😁5🎉54🥰3👏3🙏1
VIRSUN
🧠 در دنیای بینایی کامپیوتر: با مدل Segment Anything یا SAM آشنا شوید! شرکت متا (فیسبوک سابق) از یک مدل هوش مصنوعی انقلابی به نام Segment Anything یا به اختصار SAM رونمایی کرده بود در 2 سال گذشته که درک ماشین از تصاویر را برای همیشه تغییر می‌دهد. 🤔 خب،…
Media is too big
VIEW IN TELEGRAM
📌 Segment Anything Model (SAM) – توضیح شبکه و آموزش استفاده

♨️به درخواست دوستان، یک ویدیو قدیمی ولی کاربردی از مدل Segment Anything (SAM) قرار داده‌ایم. هرچند این ویدیو مربوط به سال‌های قبل است، اما همچنان برای آشنایی با ساختار شبکه و گرفتن خروجی از SAM بسیار مفید خواهد بود.

#هوش_مصنوعی #متا #فیسبوک #بینایی_کامپیوتر #پردازش_تصویر #SAM #SegmentAnything #AI #MetaAI #ComputerVision #FoundationModel
@rss_ai_ir
🎉12🔥1110👍8👏8😁7🥰1🙏1
🤖 معماری Local–Global Siamese در یادگیری عمیق

در بسیاری از مسائل بینایی ماشین، صرفاً دید کلی یا فقط توجه به جزئیات کافی نیست. برای مثال در تشخیص عیوب صنعتی یا تصاویر پزشکی، هم باید ساختار کلی جسم دیده شود و هم نقص‌های ظریف و کوچک. اینجا معماری Local–Global Siamese Network وارد عمل می‌شود.

🔹 Global Branch (شاخه کلی):
کل تصویر به عنوان ورودی پردازش می‌شود تا ویژگی‌های بزرگ‌مقیاس مانند شکل، ساختار، الگوهای تکرارشونده و بافت کلی استخراج شوند.

🔹 Local Branch (شاخه محلی):
نواحی مهم یا قطعات کوچک تصویر (Patch) جدا شده و با دقت بالا بررسی می‌شوند تا تغییرات ریز، ترک‌ها یا جزئیات نامحسوس از دست نروند.

🔹 Siamese Mechanism (مقایسه هم‌زاد):
هر دو نمای محلی و کلی با وزن‌های مشترک (Shared Weights) پردازش می‌شوند و در نهایت در یک فضای ویژگی مشترک ترکیب یا مقایسه می‌گردند. این روش امکان اندازه‌گیری شباهت یا تفاوت را با دقت بالا فراهم می‌کند.

📊 کاربردهای کلیدی:

🏭 صنعتی: تشخیص عیوب سطحی در کاتدهای مسی، ترک‌های ریز، یا تغییرات ناهمگون در محصولات.

🧬 پزشکی: شناسایی ضایعات کوچک در کنار بافت کلی (مانند تصاویر MRI یا CT).

🔐 امنیت و بیومتریک: مقایسه چهره یا اثرانگشت در شرایطی که تفاوت‌ها بسیار جزئی هستند.

🌍 تحلیل تصاویر ماهواره‌ای: ترکیب دید کلی از مناظر و تمرکز روی جزئیات کوچک مثل جاده‌ها یا ساختمان‌ها.


مزیت اصلی این معماری این است که مدل هم نگاه پرنده‌ای (Macro) دارد و هم نگاه میکروسکوپی (Micro)، و به همین دلیل در بسیاری از پروژه‌های واقعی نسبت به CNN ساده یا Siamese معمولی عملکرد بهتری نشان می‌دهد.

#DeepLearning #Siamese #LocalGlobal #ComputerVision #AI #IndustrialAI #MedicalAI

✍️ ¦ @rss_ai_ir
10🔥6🥰6🎉6😁5👍3👏2
💡 چالش هفته: هوش مصنوعی در کشاورزی دقیق (Precision Agriculture)

سلام به همه علاقه‌مندان به دنیای هوش مصنوعی! 🤖

امروز می‌خواهیم یک سناریوی واقعی و جذاب را با هم بررسی کنیم که در آن، پردازش تصویر و یادگیری عمیق می‌توانند یک صنعت سنتی را متحول کنند.

🎬 سناریو:

یک شرکت دانش‌بنیان به نام «کشت‌یار هوشمند» قصد دارد با استفاده از پهپاد (Drone)، مصرف سموم دفع آفات و علف‌کش‌ها را در مزارع بزرگ گندم تا ۹۰٪ کاهش دهد.

🎯 هدف اصلی:

پهپادهای مجهز به دوربین، بر فراز مزرعه پرواز می‌کنند و سیستم هوش مصنوعی باید در لحظه علف‌های هرز را از گیاهان اصلی (گندم) تشخیص دهد. سپس، سم‌پاش‌های هوشمندِ متصل به پهپاد، فقط و فقط روی علف‌های هرز سم‌پاشی می‌کنند و به گیاه اصلی آسیبی نمی‌رسانند.

♨️ چالش فنی اصلی:

بزرگترین مشکل اینجاست که در مراحل اولیه رشد، بسیاری از علف‌های هرز (مثلاً گیاه یولاف وحشی) از نظر ظاهری، بافت و رنگ، شباهت فوق‌العاده زیادی به گیاه گندم دارند. مدل هوش مصنوعی باید بتواند این تفاوت‌های بسیار جزئی را تشخیص دهد.

علاوه بر این، چالش‌های دیگری هم وجود دارد:

تغییرات شدید نور خورشید و ایجاد سایه.
تاری تصویر به دلیل حرکت سریع پهپاد.
وجود انواع مختلف علف هرز.
به نظر شما، مهم‌ترین و سخت‌ترین بخش فنی در توسعه مدل AI برای این سناریو چیست؟ 🤔

در پست بعدی، یک نظرسنجی چهار گزینه‌ای در همین مورد خواهیم داشت. با ما همراه باشید!

#هوش_مصنوعی #پردازش_تصویر #کشاورزی_هوشمند #یادگیری_عمیق #پهپاد #چالش_فنی #AI #ComputerVision #DeepLearning
😁8👍76🔥5👏4🎉2🥰1🙏1
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 جادوی کانولوشن 1x1 در شبکه‌های عصبی پیچشی (CNN)

در نگاه اول، یک کانولوشن 1x1 شاید بی‌فایده به نظر برسه. مگه نه؟ فقط یک فیلتر با ابعاد 1 در 1 که روی تصویر حرکت می‌کنه... این چه کاری انجام میده؟ 🤔

اما راز اینجاست: کانولوشن 1x1 در عمق (تعداد کانال‌ها) عمل می‌کنه! 🔥

تصور کنید یک تنسور ورودی با ابعاد H x W x C_in دارید (ارتفاع، عرض، تعداد کانال ورودی). فیلتر 1x1 ما در واقع ابعادی برابر 1 x 1 x C_in داره. این فیلتر در هر موقعیت (pixel) یک dot product بین C_in کانال ورودی و وزن‌های خودش انجام میده. در نتیجه، اطلاعات تمام کانال‌ها رو در یک نقطه ترکیب می‌کنه!

به عبارت ساده‌تر، این لایه مثل یک شبکه عصبی کاملاً متصل (Fully Connected) کوچک عمل می‌کنه که روی هر پیکسل به صورت جداگانه و در راستای عمق کانال‌ها اعمال می‌شه.

خب، کاربرد اصلیش چیه؟

1.  کاهش ابعاد (Dimensionality Reduction) 📉
    مهم‌ترین و مشهورترین کاربرد! با استفاده از $N$ فیلتر 1x1، می‌تونیم تعداد کانال‌ها رو از $C_{in}$ به $N$ کاهش بدیم (یا افزایش، اما معمولاً برای کاهش استفاده می‌شه). این کار قبل از اعمال کانولوشن‌های پرهزینه‌تر مثل 3x3 یا 5x5، باعث کاهش شدید حجم محاسبات و پارامترها می‌شه بدون اینکه ابعاد مکانی (ارتفاع و عرض) تغییر کنه. این تکنیک قلب ماژول‌های Inception در معماری GoogLeNet است.

2.  افزودن غیرخطی بودن (Adding Non-linearity) 🧠
    بعد از هر لایه کانولوشن (حتی 1x1)، یک تابع فعال‌سازی مثل ReLU قرار می‌گیره. با اضافه کردن یک لایه کانولوشن 1x1 و یک ReLU بعد از آن، می‌تونیم یک لایه غیرخطی جدید به شبکه اضافه کنیم. این کار به مدل اجازه میده توابع پیچیده‌تری رو یاد بگیره، در حالی که میدان دید (Receptive Field) ثابت باقی می‌مونه.

3.  پیاده‌سازی مفهوم "Network in Network" 💡
    معماری "Network in Network" (NiN) ایده استفاده از میکرو-شبکه‌های عصبی به جای فیلترهای خطی ساده رو مطرح کرد. کانولوشن 1x1 دقیقاً همین کار رو انجام می‌ده و به عنوان یک پروژکتور بین کانالی عمل می‌کنه و ویژگی‌های پیچیده‌تری رو استخراج می‌کنه.

نتیجه‌گیری:
پس دفعه بعدی که یک کانولوشن 1x1 دیدید، بدونید که این یک ابزار قدرتمند و هوشمندانه برای ساختن شبکه‌های عمیق‌تر و بهینه‌تره، نه یک عملیات ساده و بی‌اهمیت! 🚀

#هوش_مصنوعی #یادگیری_عمیق #شبکه_عصبی #شبکه_عصبی_پیچشی #پردازش_تصویر #دیپ_لرنینگ #کانولوشن
#AI #DeepLearning #CNN #Convolution #ComputerVision #1x1Convolution

@rss_ai_ir
🎉9😁7👍6🔥6🥰64👏3