Algorithm design & data structure
6.5K subscribers
840 photos
141 videos
174 files
439 links
این کانال برای تمامی علاقه‌مندان به کامپیوتر، مخصوصاً حوزه ساختمان داده‌ها و الگوریتم‌ها، مفید می باشد. آشنایی با ریاضیات مقدماتی، برنامه‌نویسی مقدماتی و پیشرفته و همچنین شی‌گرایی می‌تواند در درک بهتر مفاهیم این درس کمک‌ کند.

👨‍💻Admin👉 @Se_mohamad
Download Telegram
این وبلاگ دنیای پیچیده Large Language Models (LLMs) را رمزگشایی می‌کند و تحقیقات پیشرفته را به مفاهیمی شفاف و قابل‌فهم تبدیل می‌کند.
مناسب برای درک معماری‌های Transformer، فرآیندهای آموزشی و آخرین اخبار در تحقیقات AI.

هر کسی که سعی دارد مفاهیم مربوط به Transformers یا Large Language Models را درک کند، حتماً باید این وبلاگ را مطالعه کند!

https://magazine.sebastianraschka.com/p/understanding-large-language-models

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
ایجاد اعداد دست‌نویس فارسی با استفاده از Deep Convolutional Generative Adversarial Networks (DCGANs) و PyTorch
1-Loading Handwritten Persian numerals dataset
2-Generator and Discriminator (for DCGANs)
2-1-Building the Generator
2-2-Building the Discriminator
2-3-Defining Loss Functions
2-4-Defining Optimizers
3-Training DCGANs

Github:https://github.com/omid-sakaki-ghazvini/Projects/blob/main/handwritten-persian-numerals-dcgans-pytorch.ipynb
Kaggle:https://www.kaggle.com/code/omidsakaki1370/handwritten-persian-numerals-dcgans-pytorch

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
Dual-Branch Subpixel-Guided Network for Hyperspectral Image Classification


Publication date
: 5 Dec 2024

Topic: Image Classification

Paper
: https://arxiv.org/pdf/2412.03893v1.pdf

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
یک سایت عالی برای دستیابی به یک نقشه جامع و کاربردی در زمینه هوش مصنوعی!

🔹 اگر به دنبال یک راهنمای کامل برای یادگیری هوش مصنوعی هستید، این سایت یکی از بهترین گزینه‌هاست. با ارائه منابع، مسیرهای یادگیری و ابزارهای کاربردی، این نقشه می‌تواند شما را در مسیر یادگیری و تسلط بر مفاهیم هوش مصنوعی هدایت کند.

💻🌐https://addgraph.com/ai

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
✔️ 7 پیچیدگی زمانی مهم که باید بدانید!

𝐎(1) - زمان ثابت
زمان اجرا بدون توجه به اندازه ورودی تغییر نمی‌کند.
مثال: دسترسی به یک عنصر در آرایه با استفاده از ایندکس.

𝐎(𝐥𝐨𝐠 𝐧) - زمان لگاریتمی
زمان اجرا به‌آرامی با افزایش اندازه ورودی رشد می‌کند. معمولاً در الگوریتم‌هایی دیده می‌شود که مسئله را در هر مرحله نصف می‌کنند.
مثال: جستجوی دودویی در یک آرایه مرتب.

𝐎(𝐧) - زمان خطی
زمان اجرا به صورت خطی با اندازه ورودی افزایش می‌یابد.
مثال: یافتن یک عنصر در آرایه با پیمایش تمام عناصر.

𝐎(𝐧 𝐥𝐨𝐠 𝐧) - زمان خطی لگاریتمی
زمان اجرا کمی سریع‌تر از زمان خطی رشد می‌کند. این پیچیدگی معمولاً شامل تعداد لگاریتمی عملیات برای هر عنصر ورودی است.
مثال: مرتب‌سازی آرایه با استفاده از الگوریتم‌هایی مانند quick sort یا merge sort.

𝐎(𝐧^2) - زمان درجه دوم
زمان اجرا به مربع اندازه ورودی وابسته است.
مثال: الگوریتم حبابی که هر جفت از عناصر را مقایسه و در صورت نیاز جابجا می‌کند.

𝐎(2^𝐧) - زمان نمایی
زمان اجرا با هر واحد افزایش در ورودی دو برابر می‌شود. این الگوریتم‌ها برای ورودی‌های بزرگ غیرعملی هستند.
مثال: تولید تمام زیرمجموعه‌های یک مجموعه.

𝐎(𝐧!) - زمان فاکتوریل
زمان اجرا متناسب با فاکتوریل اندازه ورودی است.
مثال: تولید تمام جایگشت‌های یک مجموعه.

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer
5 دوره رایگان برای تسلط بر مدل‌های زبانی بزرگ (LLMs)

1. Introduction to Large Language Models by Google :-
Course Link

2. AI for Educators by Microsoft:- Course Link

3. Cohere’s LLM University:-
Course Link


4. Anthropic Prompt Engineering Courses:-
Course Link

5. Large Language Model Agents:- Course Link

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
Towards Natural Image Matting in the Wild via Real-Scenario Prior


Topic: Semantic Segmentation

Paper
: https://arxiv.org/pdf/2410.06593v1.pdf

#هوش_مصنوعی

📣👨‍💻 @AlgorithmDesign_DataStructuer
📚 معرفی پروژه Mini-Torch: یک تجربه یادگیری متفاوت در دنیای PyTorch! 🔥

پروژه Mini-Torch یه کتابخونه آموزشی خلاقانه‌ست که توسط دو فارغ‌التحصیل ریاضی از دانشگاه‌های امیرکبیر و مک‌گیل طراحی شده. این کتابخونه، با الهام از PyTorch ساخته شده و قراره فرآیندهای داخلی این کتابخونه محبوب رو به زبان ساده و قابل فهم توضیح بده. 🎓

هدف اصلی Mini-Torch اینه که شما رو با مفاهیم پشت صحنه PyTorch آشنا کنه و اگه این پروژه با استقبال روبه‌رو بشه.

https://github.com/omidiu/Mini-Torch

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🌐 تولید متن به تصویر با GANها

Generative Adversarial Networks (GANs)
انقلابی در زمینه تولید متن به تصویر ایجاد کرده‌اند و امکان ساخت تصاویر واقعی و معنادار را از توضیحات متنی فراهم کرده‌اند. این پیشرفت، فرصت‌های هیجان‌انگیزی را در حوزه‌هایی مانند تولید محتوای خلاقانه و بصری‌سازی شخصی فراهم کرده است.

📦 نحوه عملکرد GANها برای تولید متن به تصویر

- Generator:
این شبکه عصبی توضیحات متنی را دریافت کرده و تصویری متناسب با متن تولید می‌کند.
- Discriminator:
این شبکه نقش داور را دارد و تصاویر تولید شده را برای تعیین واقعی بودنشان ارزیابی می‌کند. این شبکه تفاوت بین تصاویر واقعی (از مجموعه داده آموزشی) و تصاویر جعلی (ایجاد شده توسط Generator) را تشخیص می‌دهد.

💸 فرآیند آموزش Adversarial

آموزش GANها شامل رقابت بین Generator و Discriminator است:
- بهبود Generator: Generator تلاش می‌کند تصاویری تولید کند که بتوانند Discriminator را گمراه کرده و به عنوان واقعی شناسایی شوند.
- بهبود Discriminator: Discriminator تلاش می‌کند تصاویر جعلی تولید شده را دقیق‌تر شناسایی کند.

با این فرآیند تکراری، هر دو شبکه بهبود می‌یابند. Generator یاد می‌گیرد تصاویر واقعی‌تر و با جزئیات بیشتر ایجاد کند و Discriminator در شناسایی ظرافت‌های تصاویر جعلی بهتر می‌شود.

🚀 چالش‌ها و پیشرفت‌های اخیر

در حالی که GANها موفقیت چشمگیری در تولید متن به تصویر داشته‌اند، چالش‌هایی همچنان وجود دارد:
- Mode Collapse: Generator
ممکن است تنها یک مجموعه محدود از تصاویر تولید کند که تنوع را محدود می‌کند.
- بی‌ثباتی در آموزش: فرآیند آموزش GANها می‌تواند ناپایدار باشد و هماهنگی بین Generator و Discriminator از بین برود.

🐧 پیشرفت‌های اخیر این چالش‌ها را کاهش داده‌اند:
- Improved Architectures:
معماری‌های پیشرفته مانند StyleGAN و ProGAN کیفیت و تنوع تصاویر را بهبود بخشیده‌اند.
- Conditional GANs:
با اضافه کردن اطلاعات شرطی (مانند متن) به Generator، این مدل‌ها می‌توانند تصاویر متناسب با توضیحات متنی خاص تولید کنند.

🤖 مدل‌های محبوب Text-to-Image GAN
- StackGAN:
در دو مرحله تصاویر را ایجاد می‌کند؛ ابتدا تصاویر با وضوح پایین و سپس تصاویری با وضوح بالا.
- AttnGAN:
از مکانیزم توجه (Attention) برای تمرکز بر بخش‌های مرتبط توضیحات متنی استفاده می‌کند.
- DF-GAN:
با استفاده از معماری دو مسیری کیفیت و تنوع تصاویر را بهبود می‌بخشد.

👨🏻💻 کاربردهای Text-to-Image GANs
- Creative Content Generation:
تولید هنر، تصاویر و طراحی بر اساس متن.
- Personalized Visualizations:
ساخت بصری‌سازی‌های سفارشی برای تحلیل داده و داستان‌سرایی.
- Image Editing and Manipulation:
ویرایش و تغییر تصاویر موجود بر اساس توضیحات متنی.
- Virtual and Augmented Reality:
تولید محیط‌ها و اشیاء واقعی برای واقعیت مجازی و افزوده.

📗 نتیجه‌گیری
در واقع Text-to-Image GANها به عنوان ابزاری قدرتمند برای تولید تصاویر باکیفیت و واقعی از توضیحات متنی ظاهر شده‌اند. با ادامه تحقیقات و توسعه، شاهد پیشرفت‌های بیشتری خواهیم بود که به آینده‌ای منجر می‌شود که در آن ماشین‌ها بتوانند زبان انسانی را به تصاویری خیره‌کننده تبدیل کنند.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
DEYOLO: Dual-Feature-Enhancement YOLO for Cross-Modality Object Detection

Topic: Object detection

Paper
: https://arxiv.org/pdf/2412.04931v1.pdf

GitHub: https://github.com/chips96/deyolo

معماری DEYOLO برای تشخیص اشیاء در محیط‌های کم‌نور با ترکیب تصاویر RGB و مادون قرمز (IR) طراحی شده است. این مدل از دو ماژول تقویتی DECA و DEPA استفاده می‌کند تا ویژگی‌های معنایی و فضایی هر دو مدالیته را تقویت کرده و تداخل آن‌ها را کاهش دهد. همچنین، با بهره‌گیری از Bi-Directional Decoupled Focus میدان دید شبکه را گسترش می‌دهد. این روش در مقایسه با الگوریتم‌های پیشرفته موجود، عملکرد بهتری در تشخیص اشیاء نشان داده است.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
This media is not supported in your browser
VIEW IN TELEGRAM
هوش مصنوعی بسیار سریع در حال یادگیری است😁

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🔥 کاوش در مجموعه داده‌های عظیم - Stanford 🔥

📂 Distributed file system
🔄 MapReduce
📈 PageRank
🔍 Nearest Neighbor Search
📌 Locality Sensitive Hashing
🌸 Bloom Filters
👥 Collaborative Filtering
📊 Clustering
🌳 Decision Trees
... و بسیاری موضوعات جذاب دیگر!

https://www.youtube.com/playlist?list=PLLssT5z_DsK9JDLcT8T62VtzwyW9LNepV

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
This media is not supported in your browser
VIEW IN TELEGRAM
Transformer Explainer

در واقعTransformer Explainer یک ابزار بصری و تعاملی است که برای درک بهتر عملکرد مدل‌های مبتنی بر Transformer، مانند GPT، طراحی شده است. 🌟 این ابزار، مدل زنده‌ی GPT-2 را مستقیماً در مرورگر شما اجرا می‌کند و به شما این امکان را می‌دهد که با متن‌های خود آزمایش کنید و به‌صورت زنده مشاهده کنید که اجزای داخلی و عملیات Transformer چگونه برای پیش‌بینی توکن‌های بعدی با یکدیگر هماهنگ می‌شوند. 🔍📖

https://poloclub.github.io/transformer-explainer/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
💡 معرفی مدل I-JEPA از Meta 💡

🔍 مدل جدیدی از Meta در Hugging Face Transformers منتشر شده که این بار خبری از LLM یا GenAI نیست! این مدل، I-JEPA نام دارد و بر اساس دیدگاه Yann LeCun طراحی شده تا هوش مصنوعی واقعی‌تری ایجاد کند؛ هوشی که جهان را همانند ما انسان‌ها درک کند.


https://ai.meta.com/blog/yann-lecun-ai-model-i-jepa/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🚀 معرفی ابزار قدرتمند FlashRAG برای پژوهش‌های پیشرفته RAG

در واقع FlashRAG یک ابزار پایتون حرفه‌ای است که برای بازتولید و توسعه تحقیقات در حوزه Retrieval Augmented Generation (RAG) طراحی شده است. این ابزار با امکانات گسترده، کار پژوهشگران و توسعه‌دهندگان را بسیار ساده‌تر می‌کند.

ویژگی‌های برجسته فلش‌رگ:
۳۲ مجموعه داده بنچمارک پردازش‌شده برای ارزیابی و آزمایش مدل‌های RAG
۱۲ الگوریتم پیشرفته RAG از پیش پیاده‌سازی‌شده با قابلیت بازتولید نتایج
چارچوب انعطاف‌پذیر برای ساخت خطوط پردازشی پیچیده با اجزایی مانند retrievers، rerankers و generators
ابزارهای بهینه‌سازی مانند vLLM و Faiss برای افزایش سرعت و کارایی

https://github.com/RUC-NLPIR/FlashRAG

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
This media is not supported in your browser
VIEW IN TELEGRAM
حل مسئله در انسان‌ها در مقابل مورچه‌ها 😬😬

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🧠 مدل‌های زبانی بزرگ (LLMs) مثل GPT ابزارهایی قدرتمند برای درک و تولید زبان هستند. اما وقتی با قابلیت‌هایی مثل حافظه و ابزارهای مختلف ترکیب شوند، به اوج پتانسیل خود می‌رسند:

𝟭. 𝗟𝗟𝗠𝘀:
این مدل‌ها برای تولید متن و پاسخ به سوالات طراحی شده‌اند، اما تنها به ورودی‌های لحظه‌ای پاسخ می‌دهند و از زمینه طولانی‌مدت بی‌بهره‌اند.

𝟮. 𝗟𝗟𝗠𝘀 + 𝗣𝗹𝗮𝗻𝗻𝗶𝗻𝗴:
با اضافه شدن برنامه‌ریزی، مدل‌ها قادر می‌شوند به‌جای پاسخ‌های تک‌مرحله‌ای، راه‌حل‌های چندمرحله‌ای ارائه دهند و برای اهداف خاص استراتژی طراحی کنند.

𝟯. 𝗟𝗟𝗠𝘀 + 𝗣𝗹𝗮𝗻𝗻𝗶𝗻𝗴 + 𝗠𝗲𝗺𝗼𝗿𝘆:
حافظه، مدل را قادر می‌سازد تا اطلاعات جلسات یا مکالمات طولانی‌مدت را به خاطر بسپارد و تجربه‌ای روان‌تر و کارآمدتر ارائه دهد.

𝟰. 𝗔𝗜 𝗔𝗴𝗲𝗻𝘁𝘀 (𝗟𝗟𝗠 + 𝗣𝗹𝗮𝗻𝗻𝗶𝗻𝗴 + 𝗠𝗲𝗺𝗼𝗿𝘆 + 𝗧𝗼𝗼𝗹𝘀):
اینجا نقطه‌ی اوج ماجراست! مدل‌هایی که علاوه بر برنامه‌ریزی و حافظه، به ابزارهایی مثل APIها، پایگاه‌های داده یا حتی وب دسترسی دارند. این عامل‌ها نه‌تنها پاسخ می‌دهند، بلکه می‌توانند وظایفی مثل تحقیق، تصمیم‌گیری، خودکارسازی فرآیندها یا نوشتن گزارش‌ها را هم انجام دهند.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer