🌐 اگر به یادگیری ماشین و موضوعات پیشرفته در هوش مصنوعی علاقهمندید، سایت Deep-ML.com منبعی فوقالعاده برای شماست. این سایت شامل مقالات تخصصی، پروژههای عملی و منابع آموزشی بهروز در زمینههای مختلف یادگیری عمیق و شبکههای عصبی است.
📂 از ویژگیهای جذاب این سایت:
ارائه پروژههای عملی برای درک عمیقتر مفاهیم
مقالات آموزشی مناسب برای مبتدیها و متخصصها
بررسی تکنیکهای نوین در حوزه یادگیری ماشین
🔗 حتماً از این سایت بازدید کنید و دانش خود را در دنیای یادگیری عمیق گسترش دهید!
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
📂 از ویژگیهای جذاب این سایت:
ارائه پروژههای عملی برای درک عمیقتر مفاهیم
مقالات آموزشی مناسب برای مبتدیها و متخصصها
بررسی تکنیکهای نوین در حوزه یادگیری ماشین
🔗 حتماً از این سایت بازدید کنید و دانش خود را در دنیای یادگیری عمیق گسترش دهید!
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Fundamentals of Deep Learning
📚 Download Link: https://drive.google.com/file/d/1LIwo1q81T2OskjhbsInT5eYFf0XNm8CI/view?usp=drive_link
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
📚 Download Link: https://drive.google.com/file/d/1LIwo1q81T2OskjhbsInT5eYFf0XNm8CI/view?usp=drive_link
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
data structure (3).pdf
1.3 MB
جزوه ساختمان داده طورانی یه منبع عالی برای یادگیری مفاهیم پایه و آماده شدن برای آزمونهاست. 📘 اگه دنبال یه جزوه خوب و ساده هستید، این جزوه رو از دست ندید! 😊✅
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
📚 Probability for Computer Scientists - Stanford
از مفاهیم پایهای مثل ترکیبیات (Combinatorics) تا موضوعات پیشرفتهای مانند Naive Bayes، Bootstrapping و Maximum Likelihood.
Link : https://www.youtube.com/playlist?list=PLoROMvodv4rOpr_A7B9SriE_iZmkanvUg
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
از مفاهیم پایهای مثل ترکیبیات (Combinatorics) تا موضوعات پیشرفتهای مانند Naive Bayes، Bootstrapping و Maximum Likelihood.
Link : https://www.youtube.com/playlist?list=PLoROMvodv4rOpr_A7B9SriE_iZmkanvUg
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
تبدیل متن به صوت در پایتون!
جهت تبدیل متن به سیگنال صوتی میشه از سرویس هایی به اسم TTS استفاده کرد. TTS مخفف Text To Speech هست که متن رو به عنوان ورودی دریافت و در خروجی یک سیگنال صوتی که شامل همون متن است داده میشه, یعنی برعکس ASR یا همون STT هست.
به کمک این سه تا لایبرری در پایتون می تونید ساده و کاربردی این تسک رو پیاده سازی کنید.
لینک این سه تا لایبرری:
https://pypi.org/project/TTS/
https://pypi.org/project/gTTS/
https://pypi.org/project/pyttsx3/
برای زبان فارسی هم نرم افزار زیر جواب میده:
https://www.samisoft.ir/speech_to_text/پ
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
جهت تبدیل متن به سیگنال صوتی میشه از سرویس هایی به اسم TTS استفاده کرد. TTS مخفف Text To Speech هست که متن رو به عنوان ورودی دریافت و در خروجی یک سیگنال صوتی که شامل همون متن است داده میشه, یعنی برعکس ASR یا همون STT هست.
به کمک این سه تا لایبرری در پایتون می تونید ساده و کاربردی این تسک رو پیاده سازی کنید.
لینک این سه تا لایبرری:
https://pypi.org/project/TTS/
https://pypi.org/project/gTTS/
https://pypi.org/project/pyttsx3/
برای زبان فارسی هم نرم افزار زیر جواب میده:
https://www.samisoft.ir/speech_to_text/پ
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
LLM Fine-Tuning Course (Offered by Hugging Face)
این دورهای کاربردی درباره Fine-Tuning مدلهای زبانی برای کاربردهای خاص شماست.
این دوره که توسط Hugging Face ارائه شده، بر پایه مدلهای سری SmolLM2 طراحی شده است.
مطالبی که در این دوره پوشش داده میشود:
✅ Instruction Tuning
✅ Preference Alignment
✅ Parameter-efficient Fine-tuning
✅ Evaluation
✅ Vision-language Models
✅ Synthetic Datasets
✅ Inference
https://github.com/huggingface/smol-course
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
این دورهای کاربردی درباره Fine-Tuning مدلهای زبانی برای کاربردهای خاص شماست.
این دوره که توسط Hugging Face ارائه شده، بر پایه مدلهای سری SmolLM2 طراحی شده است.
مطالبی که در این دوره پوشش داده میشود:
✅ Instruction Tuning
✅ Preference Alignment
✅ Parameter-efficient Fine-tuning
✅ Evaluation
✅ Vision-language Models
✅ Synthetic Datasets
✅ Inference
https://github.com/huggingface/smol-course
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
DATA SCIENCE ROADMAP
🔗 https://github.com/marantmir/Data-Science-Roadmap-2023
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🔗 https://github.com/marantmir/Data-Science-Roadmap-2023
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
2DMatGMM: An open-source robust machine learning platform for real-time detection and classification of 2D material flakes
Github: https://github.com/jaluus/2dmatgmm
Paper: https://arxiv.org/abs/2412.09333v1
Dataset: https://paperswithcode.com/task/instance-segmentation
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Github: https://github.com/jaluus/2dmatgmm
Paper: https://arxiv.org/abs/2412.09333v1
Dataset: https://paperswithcode.com/task/instance-segmentation
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
This media is not supported in your browser
VIEW IN TELEGRAM
تشخیص پلاک خودروهای ایرانی با استفاده از YOLOv11 و OpenCV
https://github.com/Gholamrezadar/yolo11-persian-license-plate-recognition
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
https://github.com/Gholamrezadar/yolo11-persian-license-plate-recognition
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🎓 آموزش جامع علوم کامپیوتر با OSSU
برنامه درسی OSSU یک دوره رایگان و کامل در علوم کامپیوتر است که با استفاده از منابع آنلاین از بهترین دانشگاههای دنیا مثل هاروارد و MIT ارائه میشود. این دوره برای کسانی طراحی شده که به دنبال یادگیری اصولی و عمیق علوم کامپیوتر هستند، با تمرکز بر خودآموزی و حمایت از جامعهای جهانی از علاقهمندان.
اگر به دنبال پایهای محکم در علوم کامپیوتر هستید، OSSU گزینهای فوقالعاده است.
https://github.com/ossu/computer-science
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
برنامه درسی OSSU یک دوره رایگان و کامل در علوم کامپیوتر است که با استفاده از منابع آنلاین از بهترین دانشگاههای دنیا مثل هاروارد و MIT ارائه میشود. این دوره برای کسانی طراحی شده که به دنبال یادگیری اصولی و عمیق علوم کامپیوتر هستند، با تمرکز بر خودآموزی و حمایت از جامعهای جهانی از علاقهمندان.
اگر به دنبال پایهای محکم در علوم کامپیوتر هستید، OSSU گزینهای فوقالعاده است.
https://github.com/ossu/computer-science
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
⚡️ Byte Latent Transformer: Patches Scale Better Than Tokens
معماری BLT مدل زبانی جدیدی است که برای اولین بار توانسته عملکردی همسطح مدلهای مبتنی بر توکنسازی ارائه دهد، اما با مزایایی مثل:
پردازش مستقیم دادهها در سطح بایت
افزایش سرعت استنتاج
مقاومت بیشتر در برابر خطاها
Github: https://github.com/facebookresearch/blt
Paper: https://arxiv.org/abs/2412.09871v1
Dataset: https://paperswithcode.com/dataset/mmlu
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
معماری BLT مدل زبانی جدیدی است که برای اولین بار توانسته عملکردی همسطح مدلهای مبتنی بر توکنسازی ارائه دهد، اما با مزایایی مثل:
پردازش مستقیم دادهها در سطح بایت
افزایش سرعت استنتاج
مقاومت بیشتر در برابر خطاها
Github: https://github.com/facebookresearch/blt
Paper: https://arxiv.org/abs/2412.09871v1
Dataset: https://paperswithcode.com/dataset/mmlu
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
5. Python Data Structure.pdf
1.3 MB
📘 Python Data Structure
این کتاب یک منبع عالی برای یادگیری مفاهیم دادهساختارها به زبان ساده است. اگر میخواهید با لیستها، دیکشنریها، مجموعهها و دیگر دادهساختارهای پایتون به صورت عمیق آشنا شوید.
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
این کتاب یک منبع عالی برای یادگیری مفاهیم دادهساختارها به زبان ساده است. اگر میخواهید با لیستها، دیکشنریها، مجموعهها و دیگر دادهساختارهای پایتون به صورت عمیق آشنا شوید.
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
۸۳٪ از ۱۰۰ مقاله پرارجاع هوش مصنوعی در سال ۲۰۲۳ روی مدلهای زبانی بزرگ (LLMs) تمرکز داشتند.
متا با مدلهای LLaMA و Llama 2 نشان داد که مدلهای باز میتوانند با غولهای انحصاری مانند GPT-4 رقابت کنند. همچنین مایکروسافت با انتشار ۱۳ مقاله برتر، جایگاه برترین سازمان را از آن خود کرد.
https://www.zeta-alpha.com/post/analyzing-the-homerun-year-for-llms-the-top-100-most-cited-ai-papers-in-2023-with-all-medals-for-o
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
متا با مدلهای LLaMA و Llama 2 نشان داد که مدلهای باز میتوانند با غولهای انحصاری مانند GPT-4 رقابت کنند. همچنین مایکروسافت با انتشار ۱۳ مقاله برتر، جایگاه برترین سازمان را از آن خود کرد.
https://www.zeta-alpha.com/post/analyzing-the-homerun-year-for-llms-the-top-100-most-cited-ai-papers-in-2023-with-all-medals-for-o
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
💡 Coconut:
گامی نوین در استدلال مدلهای زبانی بزرگ
🔍 تصور کنید مدلهای زبانی بزرگ (LLMs) به جای استدلال در چارچوب زبانهای طبیعی مانند انگلیسی، در یک فضای نهفته و نامحدود تفکر کنند! مقالهای تازه با معرفی پارادایمی نوین به نام Coconut، این ایده را به واقعیت نزدیک کرده است.
در این روش، بهجای تبدیل وضعیت پنهان مدل به کلمات، این حالت بهعنوان "تفکر پیوسته" مستقیماً به مدل بازمیگردد و به آن امکان میدهد در فضای پیوسته استدلال کند. Coconut توانسته در برخی وظایف استدلالی پیچیده که نیاز به برنامهریزی و بازگشتهای مکرر دارند، عملکرد بهتری از روشهای سنتی مانند زنجیره تفکر (CoT) ارائه دهد.
🌟ویژگی برجسته: این رویکرد به مدل اجازه میدهد تا چندین مسیر جایگزین برای استدلال را رمزگذاری کند و بهجای محدود شدن به یک مسیر قطعی، با جستجوی پیشرفته، مسائل را با دقت بیشتری حل کند.
🧠 چرا مهم است؟ Coconut درک ما از نحوه استدلال مدلها را متحول میکند و راه را برای پژوهشهای آینده در زمینه پردازش زبان طبیعی هموار میسازد.
Paper:https://arxiv.org/pdf/2412.06769
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
گامی نوین در استدلال مدلهای زبانی بزرگ
🔍 تصور کنید مدلهای زبانی بزرگ (LLMs) به جای استدلال در چارچوب زبانهای طبیعی مانند انگلیسی، در یک فضای نهفته و نامحدود تفکر کنند! مقالهای تازه با معرفی پارادایمی نوین به نام Coconut، این ایده را به واقعیت نزدیک کرده است.
در این روش، بهجای تبدیل وضعیت پنهان مدل به کلمات، این حالت بهعنوان "تفکر پیوسته" مستقیماً به مدل بازمیگردد و به آن امکان میدهد در فضای پیوسته استدلال کند. Coconut توانسته در برخی وظایف استدلالی پیچیده که نیاز به برنامهریزی و بازگشتهای مکرر دارند، عملکرد بهتری از روشهای سنتی مانند زنجیره تفکر (CoT) ارائه دهد.
🌟ویژگی برجسته: این رویکرد به مدل اجازه میدهد تا چندین مسیر جایگزین برای استدلال را رمزگذاری کند و بهجای محدود شدن به یک مسیر قطعی، با جستجوی پیشرفته، مسائل را با دقت بیشتری حل کند.
🧠 چرا مهم است؟ Coconut درک ما از نحوه استدلال مدلها را متحول میکند و راه را برای پژوهشهای آینده در زمینه پردازش زبان طبیعی هموار میسازد.
Paper:https://arxiv.org/pdf/2412.06769
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
💡 اتصالات میانبُر (Shortcut Connections): راهکاری برای شبکههای عصبی عمیق
📌 یکی از چالشهای اصلی در ساخت شبکههای عصبی عمیق، پدیده vanishing gradients است. با افزایش عمق شبکه، گرادیانها در لایههای اولیه به شدت کاهش مییابند و فرآیند یادگیری مختل میشود. اما با معرفی ساختاری به نام Shortcut Connections**، این مشکل تا حد زیادی حل شده است.
Shortcut Connections چیست؟
اتصالات میانبُر یا Residual Connections روشی است که در آن، خروجی یک لایه با ورودی همان لایه جمع میشود. این ساختار باعث میشود که اطلاعات بهطور مستقیم از لایههای اولیه به لایههای بعدی منتقل شوند، بدون اینکه تحت تأثیر کاهش گرادیان قرار گیرند.
مزایا:
1. حفظ گرادیانها:
با استفاده از این اتصالات، گرادیانها حتی در لایههای اولیه نسبتاً بزرگ باقی میمانند و یادگیری در شبکههای عمیق بهبود مییابد.
- مثال:
- گرادیان در لایه ۵: 1.32
- گرادیان در لایه ۱: 0.22
2. یادگیری بهتر لایههای اولیه:
اتصالات میانبُر به لایههای اولیه اجازه میدهند که در فرآیند یادگیری نقش فعالتری ایفا کنند.
3. سادهسازی جریان اطلاعات:
این ساختار مانند یک "میانبُر" عمل میکند و دادهها را بدون نیاز به تغییر در تمامی لایهها، به لایههای بعدی منتقل میکند.
روش کار:
از لحاظ ریاضی:
Output = Linear(Layer Input) + Input
این عملیات ساده، جریان گرادیانها را در طول گذرهای forward و backward شبکه بهبود داده و یادگیری را تسهیل میکند.
✨ چرا مهم است؟
در واقع Shortcut Connections یکی از مؤلفههای کلیدی در ساختارهایی مانند ResNet است که در بسیاری از مدلهای پیشرفته استفاده میشود. این ساختار نهتنها عملکرد شبکههای عصبی عمیق را بهبود میبخشد، بلکه راه را برای طراحی مدلهای پیچیدهتر و مؤثرتر هموار میسازد.
🔗 اگر به مدلهای عمیق علاقه دارید، یادگیری این مفهوم ضروری است!
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
📌 یکی از چالشهای اصلی در ساخت شبکههای عصبی عمیق، پدیده vanishing gradients است. با افزایش عمق شبکه، گرادیانها در لایههای اولیه به شدت کاهش مییابند و فرآیند یادگیری مختل میشود. اما با معرفی ساختاری به نام Shortcut Connections**، این مشکل تا حد زیادی حل شده است.
Shortcut Connections چیست؟
اتصالات میانبُر یا Residual Connections روشی است که در آن، خروجی یک لایه با ورودی همان لایه جمع میشود. این ساختار باعث میشود که اطلاعات بهطور مستقیم از لایههای اولیه به لایههای بعدی منتقل شوند، بدون اینکه تحت تأثیر کاهش گرادیان قرار گیرند.
مزایا:
1. حفظ گرادیانها:
با استفاده از این اتصالات، گرادیانها حتی در لایههای اولیه نسبتاً بزرگ باقی میمانند و یادگیری در شبکههای عمیق بهبود مییابد.
- مثال:
- گرادیان در لایه ۵: 1.32
- گرادیان در لایه ۱: 0.22
2. یادگیری بهتر لایههای اولیه:
اتصالات میانبُر به لایههای اولیه اجازه میدهند که در فرآیند یادگیری نقش فعالتری ایفا کنند.
3. سادهسازی جریان اطلاعات:
این ساختار مانند یک "میانبُر" عمل میکند و دادهها را بدون نیاز به تغییر در تمامی لایهها، به لایههای بعدی منتقل میکند.
روش کار:
از لحاظ ریاضی:
Output = Linear(Layer Input) + Input
این عملیات ساده، جریان گرادیانها را در طول گذرهای forward و backward شبکه بهبود داده و یادگیری را تسهیل میکند.
✨ چرا مهم است؟
در واقع Shortcut Connections یکی از مؤلفههای کلیدی در ساختارهایی مانند ResNet است که در بسیاری از مدلهای پیشرفته استفاده میشود. این ساختار نهتنها عملکرد شبکههای عصبی عمیق را بهبود میبخشد، بلکه راه را برای طراحی مدلهای پیچیدهتر و مؤثرتر هموار میسازد.
🔗 اگر به مدلهای عمیق علاقه دارید، یادگیری این مفهوم ضروری است!
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Introduction to Data Science – Lecture Material
🔗 Github
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🔗 Github
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Transformer.pdf
866 KB
توضیح کامل لایههای مدل Transformer
مدل Transformer از اجزای اصلی تشکیل شده که هر کدام نقش کلیدی در پردازش دادههای ورودی ایفا میکنند. در این توضیح، به لایههای اصلی مدل، از جمله Multi-Head Self-Attention، Positional Encoding، و همچنین مراحل ضرب ماتریسی و فرآیندهای آموزش و استنتاج (inference) پرداخته شده است.
Paper: Attention is all you need
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
مدل Transformer از اجزای اصلی تشکیل شده که هر کدام نقش کلیدی در پردازش دادههای ورودی ایفا میکنند. در این توضیح، به لایههای اصلی مدل، از جمله Multi-Head Self-Attention، Positional Encoding، و همچنین مراحل ضرب ماتریسی و فرآیندهای آموزش و استنتاج (inference) پرداخته شده است.
Paper: Attention is all you need
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
📚 دوره مقدماتی MIT درباره مدلهای بنیادین و هوش مصنوعی تولیدی
↳ ChatGPT
↳ Stable-Diffusion & Dall-E
↳ Neural Networks
↳ Supervised Learning
↳ Representation & Unsupervised Learning
↳ Reinforcement Learning
↳ Generative AI
↳ Self-Supervised Learning
↳ Foundation Models
↳ GANs (adversarial)
↳ Contrastive Learning
↳ Auto-encoders
↳ Denoising & Diffusion
https://www.futureofai.mit.edu/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
↳ ChatGPT
↳ Stable-Diffusion & Dall-E
↳ Neural Networks
↳ Supervised Learning
↳ Representation & Unsupervised Learning
↳ Reinforcement Learning
↳ Generative AI
↳ Self-Supervised Learning
↳ Foundation Models
↳ GANs (adversarial)
↳ Contrastive Learning
↳ Auto-encoders
↳ Denoising & Diffusion
https://www.futureofai.mit.edu/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer