Algorithm design & data structure
6.49K subscribers
836 photos
141 videos
174 files
435 links
این کانال برای تمامی علاقه‌مندان به کامپیوتر، مخصوصاً حوزه ساختمان داده‌ها و الگوریتم‌ها، مفید می باشد. آشنایی با ریاضیات مقدماتی، برنامه‌نویسی مقدماتی و پیشرفته و همچنین شی‌گرایی می‌تواند در درک بهتر مفاهیم این درس کمک‌ کند.

👨‍💻Admin👉 @Se_mohamad
Download Telegram
🌐 اگر به یادگیری ماشین و موضوعات پیشرفته در هوش مصنوعی علاقه‌مندید، سایت Deep-ML.com منبعی فوق‌العاده برای شماست. این سایت شامل مقالات تخصصی، پروژه‌های عملی و منابع آموزشی به‌روز در زمینه‌های مختلف یادگیری عمیق و شبکه‌های عصبی است.

📂 از ویژگی‌های جذاب این سایت:

ارائه پروژه‌های عملی برای درک عمیق‌تر مفاهیم
مقالات آموزشی مناسب برای مبتدی‌ها و متخصص‌ها
بررسی تکنیک‌های نوین در حوزه یادگیری ماشین
🔗 حتماً از این سایت بازدید کنید و دانش خود را در دنیای یادگیری عمیق گسترش دهید!


#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
data structure (3).pdf
1.3 MB
جزوه ساختمان داده طورانی یه منبع عالی برای یادگیری مفاهیم پایه و آماده شدن برای آزمون‌هاست. 📘 اگه دنبال یه جزوه خوب و ساده هستید، این جزوه رو از دست ندید! 😊

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer
📚 Probability for Computer Scientists - Stanford

از مفاهیم پایه‌ای مثل ترکیبیات (Combinatorics) تا موضوعات پیشرفته‌ای مانند Naive Bayes، Bootstrapping و Maximum Likelihood.

Link : https://www.youtube.com/playlist?list=PLoROMvodv4rOpr_A7B9SriE_iZmkanvUg

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
تبدیل متن به صوت در پایتون!

جهت تبدیل متن به سیگنال صوتی میشه از سرویس هایی به اسم TTS استفاده کرد. TTS مخفف Text To Speech هست که متن رو به عنوان ورودی دریافت و در خروجی یک سیگنال صوتی که شامل همون متن است داده میشه, یعنی برعکس ASR یا همون STT هست.
به کمک این سه تا لایبرری در پایتون می تونید ساده و کاربردی این تسک رو پیاده سازی کنید.

لینک این سه تا لایبرری:
https://pypi.org/project/TTS/
https://pypi.org/project/gTTS/
https://pypi.org/project/pyttsx3/

برای زبان فارسی هم نرم افزار زیر جواب میده:
https://www.samisoft.ir/speech_to_text/پ


#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
LLM Fine-Tuning Course (Offered by Hugging Face)

این دوره‌ای کاربردی درباره Fine-Tuning مدل‌های زبانی برای کاربردهای خاص شماست.

این دوره که توسط Hugging Face ارائه شده، بر پایه مدل‌های سری SmolLM2 طراحی شده است.

مطالبی که در این دوره پوشش داده می‌شود:
Instruction Tuning
Preference Alignment
Parameter-efficient Fine-tuning
Evaluation
Vision-language Models
Synthetic Datasets
Inference

https://github.com/huggingface/smol-course

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
2DMatGMM: An open-source robust machine learning platform for real-time detection and classification of 2D material flakes

Github: https://github.com/jaluus/2dmatgmm

Paper: https://arxiv.org/abs/2412.09333v1

Dataset: https://paperswithcode.com/task/instance-segmentation

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🎓 آموزش جامع علوم کامپیوتر با OSSU

برنامه درسی OSSU یک دوره رایگان و کامل در علوم کامپیوتر است که با استفاده از منابع آنلاین از بهترین دانشگاه‌های دنیا مثل هاروارد و MIT ارائه می‌شود. این دوره برای کسانی طراحی شده که به دنبال یادگیری اصولی و عمیق علوم کامپیوتر هستند، با تمرکز بر خودآموزی و حمایت از جامعه‌ای جهانی از علاقه‌مندان.

اگر به دنبال پایه‌ای محکم در علوم کامپیوتر هستید، OSSU گزینه‌ای فوق‌العاده است.
https://github.com/ossu/computer-science

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
⚡️ Byte Latent Transformer: Patches Scale Better Than Tokens

معماری BLT مدل زبانی جدیدی است که برای اولین بار توانسته عملکردی هم‌سطح مدل‌های مبتنی بر توکن‌سازی ارائه دهد، اما با مزایایی مثل:

پردازش مستقیم داده‌ها در سطح بایت
افزایش سرعت استنتاج
مقاومت بیشتر در برابر خطاها

Github: https://github.com/facebookresearch/blt

Paper: https://arxiv.org/abs/2412.09871v1

Dataset: https://paperswithcode.com/dataset/mmlu

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
5. Python Data Structure.pdf
1.3 MB
📘 Python Data Structure

این کتاب یک منبع عالی برای یادگیری مفاهیم داده‌ساختارها به زبان ساده است. اگر می‌خواهید با لیست‌ها، دیکشنری‌ها، مجموعه‌ها و دیگر داده‌ساختارهای پایتون به صورت عمیق آشنا شوید.

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer
۸۳٪ از ۱۰۰ مقاله پرارجاع هوش مصنوعی در سال ۲۰۲۳ روی مدل‌های زبانی بزرگ (LLMs) تمرکز داشتند.

متا با مدل‌های LLaMA و Llama 2 نشان داد که مدل‌های باز می‌توانند با غول‌های انحصاری مانند GPT-4 رقابت کنند. همچنین مایکروسافت با انتشار ۱۳ مقاله برتر، جایگاه برترین سازمان را از آن خود کرد.

https://www.zeta-alpha.com/post/analyzing-the-homerun-year-for-llms-the-top-100-most-cited-ai-papers-in-2023-with-all-medals-for-o

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
💡 Coconut:
گامی نوین در استدلال مدل‌های زبانی بزرگ


🔍 تصور کنید مدل‌های زبانی بزرگ (LLMs) به جای استدلال در چارچوب زبان‌های طبیعی مانند انگلیسی، در یک فضای نهفته و نامحدود تفکر کنند! مقاله‌ای تازه با معرفی پارادایمی نوین به نام Coconut، این ایده را به واقعیت نزدیک کرده است.

در این روش، به‌جای تبدیل وضعیت پنهان مدل به کلمات، این حالت به‌عنوان "تفکر پیوسته" مستقیماً به مدل بازمی‌گردد و به آن امکان می‌دهد در فضای پیوسته استدلال کند. Coconut توانسته در برخی وظایف استدلالی پیچیده که نیاز به برنامه‌ریزی و بازگشت‌های مکرر دارند، عملکرد بهتری از روش‌های سنتی مانند زنجیره تفکر (CoT) ارائه دهد.

🌟ویژگی برجسته:
این رویکرد به مدل اجازه می‌دهد تا چندین مسیر جایگزین برای استدلال را رمزگذاری کند و به‌جای محدود شدن به یک مسیر قطعی، با جستجوی پیشرفته، مسائل را با دقت بیشتری حل کند.

🧠 چرا مهم است؟ Coconut درک ما از نحوه استدلال مدل‌ها را متحول می‌کند و راه را برای پژوهش‌های آینده در زمینه پردازش زبان طبیعی هموار می‌سازد.

Paper:https://arxiv.org/pdf/2412.06769

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
💡 اتصالات میان‌بُر (Shortcut Connections): راهکاری برای شبکه‌های عصبی عمیق

📌 یکی از چالش‌های اصلی در ساخت شبکه‌های عصبی عمیق، پدیده vanishing gradients است. با افزایش عمق شبکه، گرادیان‌ها در لایه‌های اولیه به شدت کاهش می‌یابند و فرآیند یادگیری مختل می‌شود. اما با معرفی ساختاری به نام Shortcut Connections**، این مشکل تا حد زیادی حل شده است.

Shortcut Connections چیست؟

اتصالات میان‌بُر یا Residual Connections روشی است که در آن، خروجی یک لایه با ورودی همان لایه جمع می‌شود. این ساختار باعث می‌شود که اطلاعات به‌طور مستقیم از لایه‌های اولیه به لایه‌های بعدی منتقل شوند، بدون اینکه تحت تأثیر کاهش گرادیان قرار گیرند.



مزایا:
1. حفظ گرادیان‌ها:
با استفاده از این اتصالات، گرادیان‌ها حتی در لایه‌های اولیه نسبتاً بزرگ باقی می‌مانند و یادگیری در شبکه‌های عمیق بهبود می‌یابد.
- مثال:
- گرادیان در لایه ۵: 1.32
- گرادیان در لایه ۱: 0.22

2. یادگیری بهتر لایه‌های اولیه:
اتصالات میان‌بُر به لایه‌های اولیه اجازه می‌دهند که در فرآیند یادگیری نقش فعالتری ایفا کنند.

3. ساده‌سازی جریان اطلاعات:
این ساختار مانند یک "میان‌بُر" عمل می‌کند و داده‌ها را بدون نیاز به تغییر در تمامی لایه‌ها، به لایه‌های بعدی منتقل می‌کند.



روش کار:
از لحاظ ریاضی:
Output = Linear(Layer Input) + Input

این عملیات ساده، جریان گرادیان‌ها را در طول گذرهای forward و backward شبکه بهبود داده و یادگیری را تسهیل می‌کند.



چرا مهم است؟
در واقع Shortcut Connections یکی از مؤلفه‌های کلیدی در ساختارهایی مانند ResNet است که در بسیاری از مدل‌های پیشرفته استفاده می‌شود. این ساختار نه‌تنها عملکرد شبکه‌های عصبی عمیق را بهبود می‌بخشد، بلکه راه را برای طراحی مدل‌های پیچیده‌تر و مؤثرتر هموار می‌سازد.

🔗 اگر به مدل‌های عمیق علاقه دارید، یادگیری این مفهوم ضروری است!

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
Introduction to Data Science – Lecture Material

🔗 Github

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
Transformer.pdf
866 KB
توضیح کامل لایه‌های مدل Transformer
مدل Transformer از اجزای اصلی تشکیل شده که هر کدام نقش کلیدی در پردازش داده‌های ورودی ایفا می‌کنند. در این توضیح، به لایه‌های اصلی مدل، از جمله Multi-Head Self-Attention، Positional Encoding، و همچنین مراحل ضرب ماتریسی و فرآیندهای آموزش و استنتاج (inference) پرداخته شده است.
Paper: Attention is all you need

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
📚 دوره مقدماتی MIT درباره مدل‌های بنیادین و هوش مصنوعی تولیدی
↳ ChatGPT
↳ Stable-Diffusion & Dall-E
↳ Neural Networks
↳ Supervised Learning
↳ Representation & Unsupervised Learning
↳ Reinforcement Learning
↳ Generative AI
↳ Self-Supervised Learning
↳ Foundation Models
↳ GANs (adversarial)
↳ Contrastive Learning
↳ Auto-encoders
↳ Denoising & Diffusion

https://www.futureofai.mit.edu/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer
🌙
شب یلدا، بلندترین شب سال، فرصتی برای با هم بودن و گرم کردن دل‌هاست. با حافظ‌خوانی، طعم خوش هندوانه و انار، و گرمای جمع خانواده، این شب زیبا را به‌یادماندنی کنید.
🍉❤️☕️
یلدایتان مبارک و پر از لحظات شیرین!