Algorithm design & data structure
6.49K subscribers
831 photos
141 videos
174 files
431 links
این کانال برای تمامی علاقه‌مندان به کامپیوتر، مخصوصاً حوزه ساختمان داده‌ها و الگوریتم‌ها، مفید می باشد. آشنایی با ریاضیات مقدماتی، برنامه‌نویسی مقدماتی و پیشرفته و همچنین شی‌گرایی می‌تواند در درک بهتر مفاهیم این درس کمک‌ کند.

👨‍💻Admin👉 @Se_mohamad
Download Telegram
مهم‌ترین معادلات ریاضی در علم داده!
🎓 10 دوره رایگان ریاضی:https://www.mltut.com/mathematics-for-data-science-free-courses/
1️⃣ Gradient Descent: Optimization algorithm minimizing the cost function.
2️⃣ Normal Distribution: Distribution characterized by mean μ\muμ and variance σ2\sigma^2σ2.
3️⃣ Sigmoid Function: Activation function mapping real values to 0-1 range.
4️⃣ Linear Regression: Predictive model of linear input-output relationships.
5️⃣ Cosine Similarity: Metric for vector similarity based on angle cosine.
6️⃣ Naive Bayes: Classifier using Bayes’ Theorem and feature independence.
....

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
مدل‌های زبانی بزرگ مثل ChatGPT می‌توانند در برنامه‌نویسی شما بسیار مفید باشند:

ایجاد رابط‌های کاربری پویا
مدیریت و پردازش حجم زیادی از داده‌های متنی
و بسیاری موارد دیگر!

در این دوره، با مبانی مدل‌های زبانی بزرگ (LLMs) آشنا می‌شوید و یاد می‌گیرید چگونه از آن‌ها در پروژه‌های کدنویسی خود استفاده کنید. 🚀
https://www.freecodecamp.org/news/development-with-large-language-models/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
NeuZip: Memory-Efficient Training and Inference with Dynamic Compression of Neural Networks
اگر به بهینه‌سازی مصرف حافظه در شبکه‌های عصبی و افزایش کارایی مدل‌های بزرگ علاقه دارید، پیشنهاد می‌کنیم مقاله بالا را مطالعه کنید. NeuZip روشی نوآورانه برای فشرده‌سازی وزن‌ها است که علاوه بر کاهش چشمگیر استفاده از حافظه در آموزش و استنتاج، عملکرد مدل را کاملاً حفظ می‌کند.
💡 کد این روش به‌صورت رایگان منتشر شده است!

Paper:https://arxiv.org/pdf/2410.20650
Github:https://github.com/BorealisAI/neuzip

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
This media is not supported in your browser
VIEW IN TELEGRAM
📚 کنفرانس #NeurIPS2024 یکی از معتبرترین رویدادهای هوش مصنوعی و یادگیری ماشین در جهان برگزار شده است!
🔍 امسال، بیش از ۴,۵۰۰ مقاله پژوهشی ارزشمند ارائه شده که شما می‌توانید آن‌ها را به‌صورت تعاملی در یک بصری‌سازی جذاب بررسی کنید.

اگر به حوزه‌های مختلف هوش مصنوعی علاقه دارید، این ابزار می‌تواند بهترین راه برای یافتن موضوعات مورد علاقه‌تان باشد، مثل:

شبکه‌های عصبی عمیق 🧠
مدل‌های زبانی بزرگ (LLMs) ✍️
بینایی کامپیوتر 👁
بهینه‌سازی و الگوریتم‌ها 📈
https://jalammar.github.io/assets/neurips_2024.html

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
💾 LLM Datasets v2.0

🚀 Updated Repository for Phi-4 Inspiration!
یه مجموعه فوق‌العاده از modern, high-quality datasets for post-training، آماده شده که نه‌تنها به درد پروژه‌های آموزشی می‌خوره، بلکه ابزار و مشاوره‌های عالی هم داره.

🔍 این مجموعه، بعد از فیلترینگ قوی، بهترین‌ها رو در ۸ دسته ارائه می‌ده:
1. General Purpose

2. Math
3. Code
4. Instruction Following 🆕
5. Multilingual
6. Agent & Function Calling
7. Real Conversations 🆕
8. Preference Alignment 🆕

💡 اگر در حال تولید datasets هستید یا دنبال داده برای training run بعدی خودتون می‌گردید، حتماً یه نگاهی بهش بندازید! 😎

لینک ریپو: https://github.com/mlabonne/llm-datasets

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
📃A Survey of Graph Neural Networks for Social Recommender Systems


📎 https://arxiv.org/abs/2212.04481

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
📊 معرفی لایبرری TPOT: راهکاری برای یادگیری ماشین خودکار! 🚀
💡 در واقع TPOT یک لایبرری پایتونی قدرتمند برای یادگیری ماشین خودکار (AutoML) است که با استفاده از الگوریتم ژنتیک، پایپلاین مدل‌های یادگیری ماشین را بهینه می‌کند. این ابزار می‌تواند در بسیاری از دیتاست‌ها، دقت بالاتری نسبت به سایر روش‌ها ارائه دهد.

🌟 ویژگی‌های کلیدی TPOT:
بهینه‌سازی پایپلاین: این ابزار با الگوریتم ژنتیک بهترین مدل را برای داده‌های شما انتخاب می‌کند.
سادگی استفاده: فقط با چند خط کدنویسی می‌توانید مدل یادگیری ماشین خود را بسازید.
قابلیت تنظیم پارامترها:
تعداد جمعیت اولیه
نرخ جهش
و سایر تنظیمات الگوریتم ژنتیک به راحتی قابل تنظیم هستند. 🛠
https://github.com/EpistasisLab/tpot/tree/master

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🔥 از صفر تا قهرمانی با VLMs (Vision-Language Models) 🔥

📢 معرفی دوره جدید: "VLMs Zero to Hero"

1️⃣ NLP Fundamentals
2️⃣ CV Fundamentals
3️⃣ Early Vision-Language Models
4️⃣ Scale and Efficiency
5️⃣ Modern Vision-Language Models
https://github.com/SkalskiP/vlms-zero-to-hero

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
جستجوی باینری: سریع، دقیق، و قدرتمند 🔍⚡️

جستجوی باینری (Binary Search) یکی از الگوریتم‌های اساسی و فوق‌العاده سریع برای جستجو در داده‌های مرتب‌شده است. این الگوریتم با کاهش مداوم فضای جستجو به نصف، پیچیدگی زمانی بسیار کارآمدی ارائه می‌دهد:



ایده اصلی 🧠
جستجوی باینری از اصل "تقسیم و حل" (Divide and Conquer) استفاده می‌کند:
1. لیست باید مرتب باشد.
2. عنصر میانی لیست بررسی می‌شود:
- اگر مقدار هدف کوچک‌تر باشد، جستجو به نیمه‌ی چپ محدود می‌شود.
- اگر مقدار هدف بزرگ‌تر باشد، جستجو به نیمه‌ی راست محدود می‌شود.
- اگر عنصر میانی برابر مقدار هدف باشد، مکان آن پیدا شده است!



مزایا 🌟
- سرعت بالا: پیچیدگی زمانی (O(log n))، که برای داده‌های بزرگ بسیار کارآمد است.
- مصرف کم حافظه: نیاز به فضای اضافی ندارد (به جز در نسخه بازگشتی).
- کاربرد گسترده: در دیتابیس‌ها، موتورهای جستجو، و حتی مسائل گرافیکی.



معایب ⚠️
- پیش‌شرط مهم: لیست باید از پیش مرتب‌شده باشد.
- در مقایسه با جستجوی خطی (Linear Search)، در لیست‌های کوتاه ممکن است بهینه‌تر نباشد.
- نسخه بازگشتی ممکن است در داده‌های بسیار بزرگ به دلیل استفاده از پشته دچار محدودیت شود.



پیاده‌سازی جستجوی باینری

نسخه‌ی تکراری (Iterative):
def binary_search_iterative(arr, target):
left, right = 0, len(arr) - 1
while left <= right:
mid = (left + right) // 2
if arr[mid] == target:
return mid
elif arr[mid] < target:
left = mid + 1
else:
right = mid - 1
return -1




نسخه‌ی بازگشتی (Recursive):
def binary_search_recursive(arr, target, left, right):
if left > right:
return -1
mid = (left + right) // 2
if arr[mid] == target:
return mid
elif arr[mid] < target:
return binary_search_recursive(arr, target, mid + 1, right)
else:
return binary_search_recursive(arr, target, left, mid - 1)




مثال کاربردی 📚
فرض کنید لیستی از اعداد مرتب داریم:
[2, 4, 7, 10, 23, 36, 50, 72]
اگر بخواهیم عدد 23 را پیدا کنیم:
1. ابتدا عنصر میانی: (10) → مقدار هدف بزرگ‌تر است → نیمه‌ی راست.
2. عنصر میانی جدید: (36) → مقدار هدف کوچک‌تر است → نیمه‌ی چپ.
3. عنصر میانی جدید: (23) → پیدا شد!



کاربردهای عملی جستجوی باینری 🔧
1. جستجو در دیتابیس‌ها: برای پیدا کردن رکوردهای خاص.
2. الگوریتم‌های مرتب‌سازی: مثل مرتب‌سازی ادغامی و سریع (Merge Sort, Quick Sort).
3. حل مسائل بهینه‌سازی: پیدا کردن ریشه در توابع، جستجو در فضای جواب (Solution Space).
4. کدنویسی رقابتی: برای حل مسائل در ساختار داده‌های مرتب.



پیچیدگی زمانی و مکانی ⏱️
- زمانی: (O(log n)) (در بدترین، بهترین و حالت متوسط).
- مکانی:
- نسخه‌ی تکراری: (O(1))
- نسخه‌ی بازگشتی: (O(log n))به دلیل استفاده از پشته بازگشت).

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer
LLM.pdf
2.2 MB
برای یادگیری بیشتر درباره LLM، در اینجا یک اسلاید از Roshan Sharma معرفی شده که در آن می‌توانید مفاهیمی مثل موارد زیر را یاد بگیرید:

👉Emergent abilities in LLMs.
👉Decoder-only architectures.
👉Multi-stage training process.
👉Prompting techniques.
👉Scaling laws for performance.
👉Multimodal capabilities.
👉Safety and efficiency challenges.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
Introduction to Deep Learning.pdf
10.5 MB
🚀 کاوش در دنیای یادگیری عمیق 🤖

🌟 یادگیری عمیق در حال تحول صنایع است و به ماشین‌ها این امکان را می‌دهد که مانند انسان‌ها یاد بگیرند و فکر کنند. از قدرت بخشیدن به دستیارهای صوتی 🗣 تا پیشرفت در تشخیص‌های پزشکی 🏥، کاربردهای آن بی‌پایان است!

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
دوره Generative AI for Beginners از مایکروسافت موضوعات زیر را پوشش می‌دهد:

- Introduction to Generative AI and LLMs
- Exploring and comparing different LLM types
- Understanding Prompt Engineering Fundamentals
- Creating Advanced Prompts
- Building Text Generation Applications
- Building Chat Applications with Generative AI
- Building Low Code Generative AI Applications
- Designing UX for Generative AI Applications

https://www.youtube.com/playlist?list=PLmsFUfdnGr3zAgBMu4l1W713a0W__zAMl

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
آیا LLMs می‌توانند کد بهتری بنویسند اگر از آن‌ها بخواهید "کد بهتری بنویسند"؟

به نظر می‌رسد که درخواست از LLMs برای نوشتن کد بهتر، واقعاً منجر به تولید کدهای بهتری می‌شود. همچنین، دیدن اینکه چطور Prompt Engineering می‌تواند برای تولید کدهای بهینه‌تر به کار گرفته شود، جالب است.

در مجموع، LLMs نمی‌توانند جایگزین مهندسان نرم‌افزار شوند، اما دانستن چگونگی و زمان استفاده از آن‌ها برای تولید و بهینه‌سازی کد، یک مزیت بزرگ محسوب می‌شود.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
مدل rStar-Math را معرفی می‌کنیم که نشان می‌دهد مدل‌های زبانی کوچک (SLMs) می‌توانند در استدلال ریاضی با مدل‌های بزرگ‌تری مثل OpenAI o1-mini رقابت کنند یا حتی بهتر عمل کنند، بدون نیاز به آموزش از مدل‌های برتر.

این مدل با استفاده از جستجوی درخت مونت‌کارلو (MCTS) و پاداش‌دهی توسط یک SLM، فرآیند تفکر عمیق را شبیه‌سازی می‌کند تا پاسخ‌های بهینه تولید کند.

📌 نکته مهم: rStar-Math بدون نیاز به Distillation، استدلال پیشرفته ریاضی را ممکن می‌سازد و نشان‌دهنده پیشرفت بزرگ در کارایی مدل‌های کوچک است!

https://github.com/microsoft/rStar

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🚀 O3:
نسل جدید هوش مصنوعی با توانایی‌های فراتر از تصور

🔬 مدل O3 به سطحی از درک و پردازش رسیده که می‌تواند مسائلی را حل کند که تنها برندگان جایزه نوبل قادر به فهم آن‌ها هستند. با این پیشرفت، دسترسی به هوش فوق‌العاده دیگر محدود به نخبگان علمی نیست و هر کسی می‌تواند از مدلی استفاده کند که فراتر از توانایی ۹۹.۹۹۹٪ از انسان‌ها عمل می‌کند.

📊 مدل O1-Pro با ضریب هوشی ۱۳۳ استانداردهای جدیدی را در هوش مصنوعی تعریف کرد، و اگر O3 جهشی مشابه پیشرفت از GPT-4 به O1 داشته باشد، برآوردها نشان می‌دهد که این مدل به IQ ۱۴۵ رسیده—سطحی که امکان حل پیچیده‌ترین چالش‌های علمی و فنی را فراهم می‌کند.

🤯 در مقایسه، GPT-2 و GPT-3 به ترتیب در سطح توانایی‌های مغز موش و سگ ارزیابی می‌شدند، در حالی که GPT-4 عملکردی در حد یک دانش‌آموز دبیرستانی داشت و O1 معادل یک دانشجوی کارشناسی ارشد بود. اکنون، O3 به مرزهای نبوغ علمی نزدیک شده است.

🔎 این فناوری هنوز در مرحله بررسی است، اما نشانه‌های آن از تحولی بزرگ در آینده‌ی هوش مصنوعی حکایت دارد.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
SSM_Slides_2024.05.19.pdf
11.1 MB
Mamba_State_Space_Model

📢 برای علاقه‌مندان به مدل‌های جایگزین ترانسفورمرها!

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
مجموعه‌ای گزیده از کاربردهای عوامل هوش مصنوعی در صنایع مختلف که کاربردهای عملی را نمایش داده و به پروژه‌های متن‌باز برای پیاده‌سازی لینک می‌دهد. ببینید چگونه عوامل هوش مصنوعی در حال تحول صنایع مختلف مانند بهداشت و درمان، مالی، آموزش و ... هستند! 🤖

https://github.com/DataSpoof/500-AI-Agents-Projects

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
Transformers 2: Self-adaptive LLMs
نسل دوم مدل‌های ترانسفورمر (Transformers 2 با ویژگی (Self-adaptive) طراحی شده‌اند تا بتوانند عملکرد خود را در شرایط مختلف بهینه کنند. این مدل‌ها از معماری بهبودیافته‌ای استفاده می‌کنند که قابلیت تغییر پارامترها و مقیاس‌پذیری را بر اساس پیچیدگی وظایف دارد. خودتنظیمی در این مدل‌ها، امکان یادگیری بهتر از داده‌های متنوع و ارائه پاسخ‌های دقیق‌تر در زمان واقعی را فراهم می‌کند.



Paper: https://arxiv.org/pdf/2501.06252v2.pdf

Code:
https://github.com/SakanaAI/self-adaptive-llms
https://github.com/codelion/adaptive-classifier

Datasets: GSM8K - HumanEval - MATH
MBPP - TextVQA - OK-VQA - ARC (AI2 Reasoning Challenge)

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
ML, DL, AND AI Cheat Sheet.pdf
7.5 MB
تمام Cheat Sheet‌های کاربردی در حوزه‌های یادگیری ماشین، یادگیری عمیق و هوش مصنوعی را یکجا در این مجموعه گردآوری شده است. 📚💡
اگر به دنبال مرجع سریع و جامع برای مفاهیم کلیدی این حوزه‌ها هستید، این مجموعه مناسب شماست.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer