Algorithm design & data structure
6.46K subscribers
821 photos
140 videos
174 files
419 links
این کانال برای تمامی علاقه‌مندان به کامپیوتر، مخصوصاً حوزه ساختمان داده‌ها و الگوریتم‌ها، مفید می باشد. آشنایی با ریاضیات مقدماتی، برنامه‌نویسی مقدماتی و پیشرفته و همچنین شی‌گرایی می‌تواند در درک بهتر مفاهیم این درس کمک‌ کند.

👨‍💻Admin👉 @Se_mohamad
Download Telegram
🎉 کانال ما به 6k عضو رسید! 🎉
ممنون از همراهی و حمایت‌های شما عزیزان 🌟
منتظر محتوای جذاب‌تر باشید! 🚀
🔹 یه ابزار فوق‌العاده برای عاشقان چیت‌شیت! 🔹

اگه دوست داری یه ابزار حرفه‌ای برای تولید چیت‌شیت داشته باشی، این ابزار مخصوص خودته! 🌟
کافیه یه پرامپت ورودی بهش بدی، مثل: "یه چیت‌شیت برای پردازش زبان طبیعی (NLP) درست کن."🔍
این ابزار برات یه خلاصه کامل از NLP آماده می‌کنه، و جالب‌تر اینکه خروجی‌هاش می‌تونن شامل چارت‌ها، نمودارها و تصاویر کاربردی باشن! 📊🖼

🔗 اگه به دنبال ابزارهای خفن برای یادگیری و تولید محتوای سریع هستی، پیشنهاد می‌کنم حتما امتحانش کنی!

👇 شما هم اگه ابزار جذابی می‌شناسید، معرفی کنید! 💬

Link : https://www.mymap.ai/cheat-sheet-maker

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
𝐔𝐧𝐯𝐞𝐢𝐥𝐢𝐧𝐠_𝐭𝐡𝐞_𝟐𝟓_𝐓𝐲𝐩𝐞𝐬_𝐨𝐟_𝐑𝐀𝐆.pdf
2.7 MB
📚 آشنایی با ۲۵ نوع مختلف از RAG

🔍 به دنیای نوآوری‌های RAG عمیق‌تر نگاه کنید!
درک جزئیات Retrieval-Augmented Generation (RAG) برای فعالان حوزه هوش مصنوعی بسیار اهمیت دارد. 💡
چه در حال بهینه‌سازی مدل‌های زبانی بزرگ (LLMs) برای پرسش‌های بلادرنگ باشید یا در تلاش برای پیشبرد مرزهای بازیابی تطبیقی، این راهنمای جامع، نوشته‌شده توسط Bhavishya Pandit، ۲۵ نوع منحصر به فرد RAG را با اهداف و کاربردهای مختلف توضیح می‌دهد.

از دقت اصلاحی **Corrective RAG
🔧 تا هوش تطبیقی Auto RAG 🤖، این راهکارها برای هر چالشی، راه‌حلی دارند.

نکات برجسته:
1. Speculative RAG:
افزایش بهره‌وری با پیش‌نویس‌های موازی ⚡️
2. Graph RAG:
ایجاد گراف‌های دانش پویا برای بازیابی هوشمندتر 🕸
3. Iterative RAG:
جستجوهای دقیق‌تر با یادگیری تقویتی 🔄

چه در حال توسعه هوش مصنوعی مکالمه‌ای نسل بعد باشید یا سیستم‌های تولید محتوا را بهینه کنید، این چارچوب‌ها تحولی در کار شما ایجاد خواهند کرد! 🌟

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🎯 ارتقای توانایی‌های پاسخ‌دهی مدل‌های زبانی بزرگ (LLMs)!

برای اینکه مدل‌های زبانی بتونن بهترین پاسخ‌ها رو ارائه بدن، بهتره قبل از تولید جواب، اطلاعات رو از منابع خارجی مثل اینترنت یا فایل‌های PDF جستجو کنیم. این فرایند که بهش RAG میگن، تأثیر زیادی روی عملکرد داره، اما اجرای درستش ساده نیست.

مراحل کلیدی در بازیابی اطلاعات از PDFها شامل این موارد میشه:
📄 اجرای OCR برای شناسایی متن در PDFهای اسکن‌شده
📐 استفاده از مدل‌های تشخیص ساختار صفحه برای تفکیک پاراگراف‌ها، عناوین و تصاویر
🔄 بازسازی ساختار و ترتیب خواندن صفحه
🖼 بهره‌گیری از مدل‌های پیشرفته برای توصیف تصاویر و جداول به زبان طبیعی
✂️ تقسیم یا ترکیب متن به‌صورت منسجم و منطقی
🧠 استفاده از یک مدل تعبیه برداری قوی مثل BGE M3 برای نگاشت متن به فضای برداری معنادار
📂 ذخیره‌سازی ایندکس برداری برای بازیابی‌های آینده

اطلاع بیشتر:
https://huggingface.co/blog/manu/colpali

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
📚 Essential Data Science Concepts from 1 to 26

1. Algorithm
مجموعه‌ای از قوانین یا دستورالعمل‌ها برای حل یک مسئله یا انجام یک وظیفه.

2. Big Data
مجموعه داده‌های بسیار بزرگ و پیچیده‌ای که برنامه‌های پردازش داده سنتی نمی‌توانند به‌طور کارآمد مدیریت کنند.

3. Classification
یک نوع از وظایف یادگیری ماشین که شامل اختصاص برچسب به نمونه‌ها بر اساس ویژگی‌های آن‌ها است.

4. Data Mining
فرایند کشف الگوها و استخراج اطلاعات مفید از مجموعه داده‌های بزرگ.

5. Ensemble Learning
تکنیکی در یادگیری ماشین که چندین مدل را برای بهبود عملکرد پیش‌بینی ترکیب می‌کند.

6. Feature Engineering
فرایند انتخاب، استخراج و تبدیل ویژگی‌ها از داده خام برای بهبود عملکرد مدل.

7. Gradient Descent
الگوریتم بهینه‌سازی برای کاهش خطای مدل با تنظیم تدریجی پارامترهای آن.

8. Hypothesis Testing
یک روش آماری برای نتیجه‌گیری درباره یک جامعه بر اساس داده‌های نمونه.

9. Imputation
فرایند جایگزینی مقادیر گم‌شده در یک مجموعه داده با مقادیر تخمینی.

10. Joint Probability
احتمال وقوع هم‌زمان دو یا چند رویداد.

11. K-Means Clustering
یک الگوریتم محبوب یادگیری ماشین بدون نظارت برای گروه‌بندی داده‌ها به خوشه‌ها.

12. Logistic Regression
مدلی آماری که برای وظایف دسته‌بندی دودویی استفاده می‌شود.

13. Machine Learning
زیرمجموعه‌ای از هوش مصنوعی که به سیستم‌ها امکان یادگیری از داده‌ها و بهبود عملکرد را می‌دهد.

14. Neural Network
سیستمی کامپیوتری الهام‌گرفته از ساختار مغز انسان که برای وظایف مختلف یادگیری ماشین به کار می‌رود.

15. Outlier Detection
فرایند شناسایی مشاهداتی که به‌طور قابل‌توجهی از سایر نقاط داده فاصله دارند.

16. Precision and Recall
معیارهایی برای ارزیابی عملکرد مدل‌های دسته‌بندی.

17. Quantitative Analysis
استفاده از روش‌های ریاضی و آماری برای تحلیل و تفسیر داده‌ها.

18. Regression Analysis
تکنیکی آماری برای مدل‌سازی رابطه بین یک متغیر وابسته و یک یا چند متغیر مستقل.

19. Support Vector Machine
الگوریتمی نظارت‌شده در یادگیری ماشین برای وظایف دسته‌بندی و رگرسیون.

20. Time Series Analysis
مطالعه داده‌های جمع‌آوری‌شده در طول زمان برای شناسایی الگوها، روندها و تغییرات فصلی.

21. Unsupervised Learning
تکنیک‌هایی در یادگیری ماشین برای شناسایی الگوها و روابط در داده‌های بدون برچسب.

22. Validation
فرایند ارزیابی عملکرد و تعمیم‌پذیری مدل یادگیری ماشین با استفاده از مجموعه داده‌های مستقل.

23. Weka
یک ابزار متن‌باز محبوب برای داده‌کاوی و وظایف یادگیری ماشین.

24. XGBoost
پیاده‌سازی بهینه‌شده‌ای از تقویت گرادیان که به‌طور گسترده برای وظایف دسته‌بندی و رگرسیون استفاده می‌شود.

25. Yarn
یک مدیر منابع در Apache Hadoop برای مدیریت منابع در خوشه‌های توزیع‌شده.

26. Zero-Inflated Model
یک مدل آماری برای تحلیل داده‌هایی با تعداد زیادی صفر، که اغلب در داده‌های شمارشی مشاهده می‌شود.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
💡 معرفی Decision Transformer

مقاله "Decision Transformer: Reinforcement Learning via Sequence Modeling" یادگیری تقویتی را با معماری ترانسفورمر ترکیب می‌کند و آن را به مسئله‌ای مشابه مدل‌سازی دنباله تبدیل می‌کند. در این روش، حالات، اقدامات و پاداش‌ها به صورت توالی نمایش داده می‌شوند و مدل ترانسفورمر با یادگیری از این داده‌ها، رفتار عامل را پیش‌بینی می‌کند. 🌟

🎯 مزایا:
- حذف نیاز به تابع ارزش یا سیاست صریح
- قابلیت یادگیری از داده‌های متنوع
- استفاده از پتانسیل ترانسفورمرها در یادگیری تقویتی

این رویکرد در رباتیک، بازی‌ها و مسائل یادگیری تقویتی پیچیده کاربردهای جذابی دارد. 🚀

Paper : https://arxiv.org/abs/2106.01345

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
💡 Prompt Engineering Techniques: Comprehensive Repository for Development and Implementation 🖋

این عنوان به منبعی کامل اشاره دارد که شامل تکنیک‌ها و روش‌های مختلف برای طراحی و بهینه‌سازی پرامپت‌ها در تعامل با مدل‌های زبانی هوش مصنوعی است. 🌟

🎯 هدف:
ایجاد پرامپت‌هایی که عملکرد و پاسخ‌دهی مدل‌ها را بهبود بخشیده و در کاربردهای مختلف قابل استفاده باشند.

برای پژوهشگران و توسعه‌دهندگانی که به دنبال نوآوری در حوزه تعاملات هوش مصنوعی هستند، این مخزن یک ابزار بی‌نظیر است. 🚀

Giyhub : https://github.com/NirDiamant/Prompt_Engineering

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
This media is not supported in your browser
VIEW IN TELEGRAM
LlamaCoder:
ایده تون رو در عرض چند دقیقه تبدیل به برنامه کنید.🚀
در واقعLlamaCoder یک ابزار منبع‌باز است که با استفاده از مدل‌های زبان بزرگ (LLM) متن‌باز توسعه داده شده است. این ابزار بخشی از مجموعه Claude Artifacts بوده و به شما امکان می‌دهد تنها با یک پرامپت ساده، برنامه‌های کوچک و کاربردی بسازید.

ویژگی‌های LlamaCoder
پشتیبانی از مدل‌های قدرتمند متن‌باز:
- Qwen-2.5 Coder
- Llama-3.1
- Llama-3.2

فناوری‌های پیشرفته برای تجربه‌ای کارآمد:
- Together AI

- Sandpack
- Next.js و Tailwind CSS
- Helicone
- Plausible

با LlamaCoder، ایده‌های خود را در کمترین زمان ممکن به واقعیت تبدیل کنید!

Link : https://llamacoder.together.ai/
#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
دوستان عزیز،
می‌دونم که آماده شدن برای مصاحبه‌های شغلی چقدر سخت می‌تونه باشه، مخصوصاً وقتی که الگوریتم و ساختمان داده (DSA) مثل یک قله دست‌نیافتنی به نظر می‌رسه.

اما باور کنید، یادگیری DSA یکی از مهم‌ترین مهارت‌هاست که برای موفقیت در مصاحبه‌ها بهش نیاز دارید. 🌟

ناامید نشید—ادامه بدید! 💪

برای کمک بهتون، یه مسابقه کاملاً رایگان پیدا کردم که می‌تونه توی تمرین DSA خیلی مؤثر باشه:

https://www.geeksforgeeks.org/courses/gfg-160-series

رایگان بودن 100٪


به یاد داشته باشید، هر تلاش کوچیک یک قدم به سمت هدف‌تونه. پس هیچ وقت تسلیم نشید و ادامه بدید. 🌈

شما از چیزی که فکر می‌کنید به موفقیت نزدیک‌ترید. پس با قدرت جلو برید—you’ve got this! 🚀

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer
چرا به 𝐌𝐮𝐥𝐭𝐢-𝐇𝐞𝐚𝐝 𝐀𝐭𝐭𝐞𝐧𝐭𝐢𝐨𝐧 نیاز داریم وقتی که 𝐒𝐞𝐥𝐟-𝐀𝐭𝐭𝐞𝐧𝐭𝐢𝐨𝐧 داریم؟

برای درک این موضوع ب نکات زیر توجه کنید:

محدودیت 𝐒𝐞𝐥𝐟-𝐀𝐭𝐭𝐞𝐧𝐭𝐢𝐨𝐧
در واقع 𝐒𝐞𝐥𝐟-𝐀𝐭𝐭𝐞𝐧𝐭𝐢𝐨𝐧 به مدل کمک می‌کند روابط بین کلمات در یک دنباله را بفهمد. اما مشکل اینجاست که هر توجه (Attention) تنها می‌تواند روی یک جنبه از داده تمرکز کند؛ مثلاً معنای کلمات یا گرامر.
این محدودیت باعث می‌شود برخی روابط مهم دیگر از دست بروند.

چرا 𝐌𝐮𝐥𝐭𝐢-𝐇𝐞𝐚𝐝 𝐀𝐭𝐭𝐞𝐧𝐭𝐢𝐨𝐧؟
در واقع 𝐌𝐮𝐥𝐭𝐢-𝐇𝐞𝐚𝐝 𝐀𝐭𝐭𝐞𝐧𝐭𝐢𝐨𝐧 با استفاده از چندین "سر توجه" (Attention Heads) این مشکل را حل می‌کند.
هر سر داده ورودی را از زاویه‌ای متفاوت بررسی می‌کند، روی جنبه‌هایی مثل:
- معنای کلمات
- موقعیت
- زمینه (Context)

این کار باعث می‌شود مدل داده را عمیق‌تر درک کند و هم‌زمان چندین رابطه را شناسایی کند.

چطور کار می‌کند؟
ورودی توسط چند سر توجه پردازش می‌شود و بردارهای زمینه‌ای (Context Vectors) مثل Z1 و Z2 تولید می‌شوند.
سپس این بردارها با یکدیگر ادغام (Concatenate) می‌شوند تا نمایشی جامع‌تر و دقیق‌تر از داده ایجاد کنند.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
sakhteman dade(Lipschutz).pdf
14.2 MB
📚 معرفی کتاب: اصول ساختمان داده‌ها

یکی از بهترین منابع برای یادگیری اصولی و دقیق درس ساختمان داده‌ها، کتاب "اصول ساختمان داده‌ها" نوشته سیمور لیپشوتز است. این کتاب توسط مهندس حسین ابراهیم‌زاده قلزم به زبان فارسی ترجمه شده و یکی از منابع مهم برای دانشجویان رشته‌های کامپیوتر و علاقه‌مندان به الگوریتم‌ها و داده‌ساختارها محسوب می‌شود. 🧠

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer
🌟 معرفی ریپوزیتوری رسمی LLM Engineer's Handbook 🌟

ریپوزیتوری رسمی این کتابچه که در حال حاضر ۱.۶ هزار ستاره⭐️ داره، به‌تازگی آپدیت شده! این ریپوزیتوری یکی از بهترین منابع برای یادگیری و استفاده از LLMOps pipelines است.

ویژگی‌ها و مواردی که یاد می‌گیرید:
- ساخت و اجرای پایپلاین‌ها با ZenML
- آموزش و استقرار مدل‌ها روی AWS همراه با autoscaling
- نظارت بر مدل‌های زبانی بزرگ (LLM) در تولید با Opik
- استفاده از RAG پیشرفته با Qdrant
- و ده‌ها آموزش و ابزار جذاب دیگر!

این ریپوزیتوری را حتماً بررسی کنید:

https://github.com/PacktPublishing/LLM-Engineers-Handbook

این منبع ارزشمند مخصوصاً برای محققان و علاقه‌مندان به حوزه LLMOps بسیار مفید است! 🚀

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
Diffusion Models and Their Applications

کورس Diffusion Models and Their Applications یک دوره پیشرفته برای آشنایی با مدل‌های دیفیوژن و کاربردهای گسترده آن‌ها در هوش مصنوعی و یادگیری ماشین است. این مدل‌ها که به تازگی به عنوان استاندارد طلایی برای تولید محتوای مولد شناخته شده‌اند، در تولید تصاویر و ویدئوهای باکیفیت بی‌نظیر عملکرد فوق‌العاده‌ای نشان داده‌اند. نمونه‌هایی مانند SORA، Midjourney و StableDiffusion بیانگر قدرت این تکنیک‌ها هستند.

معرفی دوره:
این کورس به بررسی پایه‌های تئوری و کاربردهای عملی مدل‌های دیفیوژن می‌پردازد. تمرکز اصلی این دوره، یادگیری عمیق از طریق تمرین‌های برنامه‌نویسی و پروژه‌های عملی است. به جای برگزاری آزمون، شما با پیاده‌سازی این مدل‌ها در مسائل واقعی، تجربه‌ای کاربردی و مؤثر کسب خواهید کرد.

https://mhsung.github.io/kaist-cs492d-fall-2024/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🔍 دانشمندان کلیدی در پیشرفت اولیه شبکه‌های عصبی و یادگیری ماشین:
1️⃣ فرانک روزنبلات (Frank Rosenblatt)
تولد: 1928 (نیویورک)
فوت: 1971
🎓 تحصیلات: رشته روانشناسی، دانشگاه کرنل
📚 دستاوردها:

مدل پرسپترون: اولین مدل شبکه‌های عصبی مصنوعی در سال 1960.
این مدل برای تفکیک الگوهای ساده و طبقه‌بندی باینری توسعه یافت.
🌟 پژوهش‌های او بر شبیه‌سازی فرآیندهای یادگیری انسانی تمرکز داشت.
2️⃣ دیوید روملهارت (David Rumelhart)
تولد: 1942 (واشنگتن)
فوت: 2011
🎓 تحصیلات: دکترای روانشناسی ریاضی، دانشگاه استنفورد
📚 دستاوردها:

الگوریتم Backpropagation: معرفی در دهه 1980.
این الگوریتم آموزش شبکه‌های عصبی چندلایه را ممکن کرد و یکی از پیشرفت‌های کلیدی یادگیری عمیق به شمار می‌آید.
🌟 تمرکز او بر پیوند روانشناسی، شبکه‌های عصبی، و علوم شناختی بود.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
✳️ Self-Ensembling Gaussian Splatting for Few-shot Novel View Synthesis


🔍 چرا این مقاله مهم است؟
مدل 3D Gaussian Splatting (3DGS) معمولاً در مواجهه با نماهای پراکنده دچار بیش‌برازش می‌شود و نمی‌تواند تغییرات وسیع در زوایای دید را به‌خوبی تعمیم دهد. این مقاله با معرفی روش Self-Ensembling Gaussian Splatting (SE-GS)، این مشکل را حل کرده و رویکردی مبتنی بر Self-ensemble برای تنظیم بهتر مدل‌ها ارائه می‌دهد.

🔑 دستاورد کلیدی:

دو مدل Σ و Δ معرفی شده‌اند که در کنار یکدیگر، کیفیت تولید تصاویر جدید را با تنظیم‌های دینامیک و مبتنی بر عدم قطعیت، بهبود می‌بخشند. این روش علاوه بر کارایی، هزینه‌های اضافی آموزش را کاهش داده و یک مدل نهایی قوی‌تر ارائه می‌دهد.


این مقاله برای علاقه‌مندان به یادگیری ماشین، گرافیک کامپیوتری، و تولید نماهای جدید، کاربردی و ارزشمند است.

Paper : https://arxiv.org/abs/2411.00144

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
مقاله GNN-RAG روشی نوین ارائه می‌دهد که توانایی‌های زبان‌شناختی مدل‌های زبانی بزرگ (LLMs) را با قدرت استدلال گراف‌های عصبی (GNNs) ترکیب می‌کند. در این روش، GNN روی زیرگراف‌های متراکم استدلال می‌کند تا پاسخ‌های احتمالی را استخراج کند. سپس مسیرهای استدلالی گراف دانش به زبان طبیعی تبدیل شده و به مدل زبانی داده می‌شوند تا فرآیند پاسخ‌دهی تکمیل شود. این روش ترکیبی از قابلیت‌های GNN و LLM برای پاسخ‌دهی به سؤالات مبتنی بر گراف دانش است.

Paper:https://arxiv.org/abs/2405.20139

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
𝗧𝗵𝗲_𝗠𝗮𝘁𝗿𝗶𝘅_𝗖𝗼𝗼𝗸_𝗕𝗼𝗼𝗸.pdf
13 MB
📘 The Matrix Cookbook
یک منبع فوق‌العاده برای هرآنچه که باید درباره ماتریس‌ها بدانید! این کتاب شامل روابط، تقریب‌ها، نابرابری‌ها و نکات کلیدی درباره ماتریس‌ها است که در مهندسی، علوم کامپیوتر و حتی فیزیک محاسباتی کاربرد دارند.

اگر با ماتریس‌ها سر و کار دارید، این کتاب راهنمای ضروری شماست! 🚀

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer
لایبرری LLM یکی از ابزارهای قدرتمند پایتون برای کار با مدل‌های زبانی (Language Models) است. با استفاده از این لایبرری، می‌توانید به راحتی مدل‌های زبانی را فراخوانی کرده، از آن‌ها برای کاربردهای مختلف بهره ببرید، پرامپت‌های دلخواه بنویسید، مدل‌ها را آموزش دهید و بسیاری امکانات پیشرفته دیگر را کشف کنید.

این ابزار برای توسعه‌دهندگان و علاقه‌مندان به پردازش زبان طبیعی و هوش مصنوعی، یک گزینه ایده‌آل است تا به‌طور کارآمد از مدل‌های زبانی بهره‌مند شوند. 🌟

Link:https://llm.datasette.io/en/stable/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer