Algorithm design & data structure
6.49K subscribers
836 photos
141 videos
174 files
435 links
این کانال برای تمامی علاقه‌مندان به کامپیوتر، مخصوصاً حوزه ساختمان داده‌ها و الگوریتم‌ها، مفید می باشد. آشنایی با ریاضیات مقدماتی، برنامه‌نویسی مقدماتی و پیشرفته و همچنین شی‌گرایی می‌تواند در درک بهتر مفاهیم این درس کمک‌ کند.

👨‍💻Admin👉 @Se_mohamad
Download Telegram
"🚀 با استفاده از هوش مصنوعی، مسیر یادگیری خود را طراحی کنید! 🧠 فقط کافیست موضوع مورد نظر خود را وارد کنید و مسیر یادگیری به صورت گام به گام و در قالب یک نمودار گرافیکی جذاب به شما نمایش داده خواهد شد. 📊"

https://roadmap.sh/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
7 پروژه بینایی کامپیوتری برای همه سطوح

1. Plant Disease Detection
2. Optical Character Recognition (English)
3. American Sign Language Image Classification
4. Car Number Plate Recognition
5. Flickr Image Captioning
6. Multi-person Pose Estimation and Tracking in Videos
7. Anomaly Detection

https://www.kdnuggets.com/7-computer-vision-projects-for-all-levels

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
@MachineLearning_ir - Top 50 LLM Interview Questions.pdf
7.1 MB
50 سوال کلیدی برای آمادگی در مصاحبه‌های مدل‌های زبان بزرگ (LLM)

🚀 اگر به دنبال موفقیت در مصاحبه‌های تخصصی یادگیری ماشین و هوش مصنوعی هستید، این مجموعه سؤالات بهترین راهنما برای شماست.

🔑 موضوعات پوشش داده شده:

اصول اولیه مثل Tokenization
مفاهیم پیشرفته مانند LoRA
تکنیک‌های به‌روز مثل Chain-of-Thought Prompting
و نکات مهمی که در پروژه‌ها و تحقیقات مدرن استفاده می‌شوند.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🌟 تحولی بزرگ در هوش مصنوعی: از LLMs به LCMs با متا

متا به‌تازگی یک گام بزرگ در دنیای هوش مصنوعی برداشته و Large Concept Models (LCMs) را معرفی کرده است. این مدل‌ها با تغییر پارادایم رایج در مدل‌های زبانی بزرگ (LLMs)، قابلیت‌هایی جدید و پیشرفته‌ای را ارائه می‌دهند.

🔹 چرا این تغییر مهم است؟
مدل‌های زبانی بزرگ (LLMs) اگرچه در پردازش توکن‌ها عالی هستند، اما در استدلال‌های پیچیده و انسجام در متون بلند دچار محدودیت‌اند. از سوی دیگر، LCMs با تمرکز بر *مفاهیم معنایی* و پردازش در سطح جمله، مشکلات موجود را برطرف کرده‌اند.

ویژگی‌های برجسته LCMs:
1️⃣ برنامه‌ریزی سلسله‌مراتبی: توانایی تولید خروجی‌هایی با ساختارهای دقیق‌تر.
2️⃣ مدیریت متون بلند: پردازش مؤثرتر زمینه‌های طولانی بدون افت دقت.
3️⃣ چندزبانه بودن: پشتیبانی از بیش از 200 زبان بدون نیاز به بازآموزی.

Paper: https://ai.meta.com/research/publications/large-concept-models-language-modeling-in-a-sentence-representation-space/
GitHub:https://github.com/facebookresearch/large_concept_model

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
💡 دوره‌های رایگان و آنلاین دانشگاه MIT

دانشگاه معتبر MIT دوره‌های آنلاین و رایگانی را در موضوعات مختلف از جمله علوم کامپیوتر و امور مالی ارائه کرده است. این دوره‌ها فرصتی بی‌نظیر برای یادگیری علاقه‌مندان به این حوزه‌ها هستند! 🌟

مزایا:
- دسترسی رایگان به محتوای آموزشی باکیفیت
- یادگیری از اساتید برتر جهان

📜 نکته: شرکت در دوره‌ها رایگان است، اما اگر به گواهی پایان‌دوره نیاز دارید، باید هزینه آن را پرداخت کنید.

📥 لینک دوره‌ها 👇
https://digiato.com/interdisciplinary/mit-online-free-courses

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
KAG: Boosting LLMs in Professional Domains via Knowledge Augmented Generation

Paper: https://arxiv.org/pdf/2409.13731v3.pdf

Code: https://github.com/openspg/kag

Dataset: 2WikiMultiHopQA

این مقاله به بررسی چارچوب KAG پرداخته است. KAG یک ابزار قدرتمند برای مدیریت و پردازش اطلاعات به ویژه در حوزه هوش مصنوعی است. این چارچوب به دو بخش اصلی تقسیم می‌شود: KAG Builder که داده‌های خام را به یک پایگاه دانش ساخت‌یافته تبدیل می‌کند و KAG Solver که از این پایگاه دانش برای پاسخگویی به پرسش‌ها و استدلال استفاده می‌کند. کاربردهای KAG شامل سیستم‌های پرسش و پاسخ، چت‌بات‌ها، سیستم‌های توصیه‌گر و خلاصه‌سازی متن است.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🔹 دسترسی به دوره جامع LLM Agents 🔹

اگر به یادگیری عمیق درباره مدل‌های زبانی بزرگ (LLMs) و کاربردهای پیشرفته آن‌ها در اتوماسیون وظایف، تولید کد، رباتیک و تعامل انسان و ماشین علاقه دارید، می‌توانید به اسلایدها، کویزها و منابع این دوره دسترسی پیدا کنید.

موضوعات کلیدی:
- مبانی LLMها
- ابزارها و زیرساخت‌های LLM Agents
- امنیت، اخلاق و حریم خصوصی

📚 مناسب برای دانشجویان و علاقه‌مندان به هوش مصنوعی!
https://chatgpt.com/c/6772d236-570c-8013-b335-ab1af4f7a7a3

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
انتشار رایگان اپلیکیشن‌های Gradio در Hugging Face Spaces

آیا می‌خواهید مدل‌های یادگیری ماشینی خود را به شکلی تعاملی ارائه کنید؟ 🚀
در واقع Hugging Face Spaces این امکان را به شما می‌دهد تا اپلیکیشن‌های Gradio خود را به‌صورت رایگان منتشر کرده و آن‌ها را با دیگران به اشتراک بگذارید. 🌟
با این پلتفرم، تجربه‌ای ساده و جذاب برای نمایش پروژه‌هایتان خواهید داشت! 🎨

https://pyimagesearch.com/2024/12/30/deploy-gradio-apps-on-hugging-face-spaces/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
Natural Language Processing with PyTorch.pdf
16.1 MB
💡 Natural Language Processing with PyTorch
کتابی جامع برای یادگیری پردازش زبان طبیعی (NLP) با استفاده از PyTorch، یکی از قدرتمندترین فریم‌ورک‌های یادگیری عمیق.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
⭕️ معرفی مدل سوم DeepSeek: رایگان و متن‌باز

✔️ این مدل، مشابه ChatGPT، امکان جستجوی وب را فراهم می‌کند و با ویژگی Think Deep توانایی جستجوی عمیق‌تر و دقیق‌تری را ارائه می‌دهد.
در حوزه‌های برنامه‌نویسی و ریاضیات عملکردی بهتر از GPT-4o و Claude Sonnet 3.5 دارد.

### ویژگی‌های فنی کلیدی:
🔸 با ۲.۸ میلیون ساعت GPU آموزش دیده است که نسبت به مدل‌های مشابه، زمان کمتری محسوب می‌شود.
🔸 از رویکردی بهره می‌برد که محاسبات را به طور یکنواخت در لایه‌های MoE توزیع می‌کند، بدون اینکه پیچیدگی محاسباتی بیشتری ایجاد شود.

مدلی قدرتمند برای استفاده گسترده!

https://chat.deepseek.com/sign_in

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
📄 Graph Artificial Intelligence in Medicine

📎 Study the paper

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
کاوش در Multi-Modal Vision-Language Models (VLMs)؟ 🌟
اگر به دنیای هیجان‌انگیز مدل‌های multi-modal vision-language
برای computer vision tasks علاقه‌مندید، پیشنهاد می‌کنم حتماً این منبع از Hugging Face را بررسی کنید:

https://huggingface.co/learn/cookbook/en/fine_tuning_vlm_trl
تجربه‌ای عالی برای گسترش دانش شما در این حوزه!

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
💡 آیا مدل‌های هوش مصنوعی واقعاً خلاق هستند؟ بیایید محدودیت‌های آن‌ها و کمبودهایشان را بررسی کنیم.

🧪 مدل‌های LLM و دیگر مدل‌های Generative AI به تشخیص و ترکیب الگوهای موجود متکی هستند، اما در خلق ایده‌های جدید ضعف دارند. برای مثال، generative AI نمی‌تواند مفاهیم انقلابی پیکاسو را بازآفرینی کند، مگر اینکه نمونه‌هایی برای یادگیری در اختیارش قرار گیرد. کسانی که از این مدل‌ها برای ایده‌پردازی استفاده می‌کنند، معمولاً متوجه می‌شوند که پیشنهادات آن‌ها اصالت کافی ندارند.

🔍 مشکل واضح است: این مدل‌ها generalize می‌کنند اما innovate نمی‌کنند. آن‌ها اطلاعات شناخته‌شده را بازآرایی می‌کنند، اما نمی‌توانند مفاهیمی کاملاً جدید تولید کنند، که این همان جوهره‌ی خلاقیت واقعی است.

🛠 راه‌حل: هوش مصنوعی باید یاد بگیرد چگونه ایده‌های جدید کشف و تولید کند، به جای اینکه صرفاً به الگوهای منطقی تکیه کند. در حال حاضر، این مدل‌ها فاقد جنبه‌های chaotic و هنری مغز انسان هستند که نوآوری واقعی را به پیش می‌برد. ادغام مدل‌هایی که قادر به شبیه‌سازی divergent thinking و randomness باشند، می‌تواند به هوش مصنوعی کمک کند از رویکرد منطقی‌محور خود خارج شده و مرزهای خلاقیت را جابه‌جا کند.

👩🏻‍💻 برای متخصصان: این به معنای درک محدودیت‌های هوش مصنوعی در کنار استفاده از نقاط قوت آن است. از آن به عنوان یک همکار استفاده کنید که ایده‌ها را اصلاح و بهبود می‌بخشد، اما بدانید که خلاقیت انسانی همچنان در حوزه‌هایی که نیاز به نوآوری‌های خلاقانه دارند، بی‌رقیب است.

📃 Source:https://thethoughtprocess.xyz/language/en/science-en/computer-science/artificial-intelligence/2024/12/26/artificial-general-intelligence-agi-why-openais-o3-isnt-enough/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🎥 معرفی معماری MAMBA 🚀
🔍 اگر به معماری‌های مدرن و پیشرفته در یادگیری ماشین علاقه دارید، حتماً باید با معماری MAMBA آشنا شوید! 🌟
این معماری با تمرکز بر مدیریت بهینه داده‌ها و مدل‌سازی چندمنظوره توانسته عملکردی بسیار قوی در تحلیل داده‌های بزرگ ارائه دهد. 💡

🧩 MAMBA
دز واقع MAMBA، یک معماری ترکیبی و هوشمند است که به حل چالش‌های پیچیده در پردازش داده‌های متنوع کمک می‌کند. از جمله ویژگی‌های کلیدی آن:
🔹 انعطاف‌پذیری بالا در پردازش داده‌ها
🔹 سرعت بیشتر در یادگیری مدل‌ها
🔹 و افزایش دقت در تحلیل اطلاعات

📲 برای آشنایی بیشتر، ویدیوی کامل رو ببینید 👇
https://youtu.be/N6Piou4oYx8?si=Exl-WkPxFI8MknxO

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🔔 نکات برجسته تحقیقات LLM در سال ۲۰۲۴

سال ۲۰۲۴ یکی از پرثمرترین سال‌ها در حوزه تحقیقات هوش مصنوعی و مدل‌های زبانی بزرگ (LLM) بود. برای شروع سال جدید، مقاله‌ای درباره دستاوردهای برتر تحقیقات LLM در این سال آماده شده است. 🌟

این مقاله، مجموعه‌ای از مهم‌ترین پیشرفت‌ها را در زمینه‌هایی چون مدل‌های Mixture-of-Experts و قوانین جدید مقیاس‌بندی LLM بررسی می‌کند. با تمرکز بر نیمه اول سال ۲۰۲۴ (ژانویه تا ژوئن)، در هر ماه یک مقاله برجسته معرفی شده است.


👀 مطالعه این مقاله برای افرادی که به دنبال درک جدیدترین روندها و ایده‌های نوآورانه در حوزه LLM هستند، یک منبع عالی خواهد بود.

🔗 لینک به مقاله:
https://magazine.sebastianraschka.com/p/ai-research-papers-2024-part-1

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🔍 برترین مقالات هوش مصنوعی ۲۰۲۴

اگر دنبال مقالات برتر AI در سال ۲۰۲۴ هستید، تمامی مقالات هفته به هفته همراه با خلاصه و لینک در یک فایل MD جمع‌آوری شده‌اند.

💡 این فایل را به NotebookLM اضافه کنید تا:
- خلاصه صوتی یا متنی برای هر ماه بسازید.
- با جستجوهایی مثل «مقالات درباره استدلال» مقاله‌های مرتبط را پیدا کنید.

📌 لینک: https://github.com/dair-ai/ML-Papers-of-the-Week/tree/main#top-ml-papers-of-the-week-december-23---december-29---2024

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
اگر می‌خواهید کدهای مقاله‌ی Attention is All You Need را بهتر درک کنید، پیشنهاد می‌کنم از لینک زیر استفاده کنید. 🚀
https://nlp.seas.harvard.edu/annotated-transformer/

این منبع، توضیحات اصلی مقاله را به همراه کدهای پایتورچ ارائه کرده و به شما کمک می‌کند مفاهیم را سریع‌تر و دقیق‌تر یاد بگیرید. 🧑‍💻📚

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer