Video Understanding
Facebook AI Research (FAIR) has been contributing heavily to video understanding research in recent years. At October’s ICCV 2019 the team unveiled a Python-based codebase, PySlowFast. FAIR as now open-sourced PySlowFast, along with a pretrained model library and a pledge to continue adding cutting-edge resources to the project.
The name “PySlowFast” derives from a novel duality — the model has both a slow pathway that operates at a low frame rate to capture spatial semantics, and a lightweight, fast pathway that operates at a high frame rate, captures motion at fine temporal resolution, and can learn useful temporal information for video recognition.
Code:
https://github.com/facebookresearch/SlowFast
Related Papers:
https://arxiv.org/pdf/1812.03982.pdf
https://arxiv.org/pdf/1711.07971.pdf
Facebook AI Research (FAIR) has been contributing heavily to video understanding research in recent years. At October’s ICCV 2019 the team unveiled a Python-based codebase, PySlowFast. FAIR as now open-sourced PySlowFast, along with a pretrained model library and a pledge to continue adding cutting-edge resources to the project.
The name “PySlowFast” derives from a novel duality — the model has both a slow pathway that operates at a low frame rate to capture spatial semantics, and a lightweight, fast pathway that operates at a high frame rate, captures motion at fine temporal resolution, and can learn useful temporal information for video recognition.
Code:
https://github.com/facebookresearch/SlowFast
Related Papers:
https://arxiv.org/pdf/1812.03982.pdf
https://arxiv.org/pdf/1711.07971.pdf
GitHub
GitHub - facebookresearch/SlowFast: PySlowFast: video understanding codebase from FAIR for reproducing state-of-the-art video models.
PySlowFast: video understanding codebase from FAIR for reproducing state-of-the-art video models. - facebookresearch/SlowFast
Edward
A library for probabilistic modeling, inference, and criticism.
Edward is a Python library for probabilistic modeling, inference, and criticism. It is a testbed for fast experimentation and research with probabilistic models, ranging from classical hierarchical models on small data sets to complex deep probabilistic models on large data sets. Edward fuses three fields: Bayesian statistics and machine learning, deep learning, and probabilistic programming.
It supports modeling with
Directed graphical models
Neural networks (via libraries such as tf.layers and Keras)
Implicit generative models
Bayesian nonparametrics and probabilistic programs
Website: http://edwardlib.org/
GitHub: https://github.com/blei-lab/edward
A library for probabilistic modeling, inference, and criticism.
Edward is a Python library for probabilistic modeling, inference, and criticism. It is a testbed for fast experimentation and research with probabilistic models, ranging from classical hierarchical models on small data sets to complex deep probabilistic models on large data sets. Edward fuses three fields: Bayesian statistics and machine learning, deep learning, and probabilistic programming.
It supports modeling with
Directed graphical models
Neural networks (via libraries such as tf.layers and Keras)
Implicit generative models
Bayesian nonparametrics and probabilistic programs
Website: http://edwardlib.org/
GitHub: https://github.com/blei-lab/edward
GitHub
GitHub - blei-lab/edward: A probabilistic programming language in TensorFlow. Deep generative models, variational inference.
A probabilistic programming language in TensorFlow. Deep generative models, variational inference. - GitHub - blei-lab/edward: A probabilistic programming language in TensorFlow. Deep generative mo...
"Why Should I Trust You?": Explaining the Predictions of Any Classifier
Lime
A novel explanation technique that explains the predictions of any classifier in an interpretable and faithful manner, by learning an interpretable model locally around the prediction
GitHub: https://github.com/marcotcr/lime
Lime
A novel explanation technique that explains the predictions of any classifier in an interpretable and faithful manner, by learning an interpretable model locally around the prediction
GitHub: https://github.com/marcotcr/lime
GitHub
GitHub - marcotcr/lime: Lime: Explaining the predictions of any machine learning classifier
Lime: Explaining the predictions of any machine learning classifier - marcotcr/lime
با Hyperas، هایپرپارامترهای مدل کراس رو tune کنید!
A very simple convenience wrapper around hyperopt for fast prototyping with keras models. Hyperas lets you use the power of hyperopt without having to learn the syntax of it. Instead, just define your keras model as you are used to, but use a simple template notation to define hyper-parameter ranges to tune.
Blog Post: https://towardsdatascience.com/keras-hyperparameter-tuning-in-google-colab-using-hyperas-624fa4bbf673
GitHub: https://github.com/maxpumperla/hyperas
A very simple convenience wrapper around hyperopt for fast prototyping with keras models. Hyperas lets you use the power of hyperopt without having to learn the syntax of it. Instead, just define your keras model as you are used to, but use a simple template notation to define hyper-parameter ranges to tune.
Blog Post: https://towardsdatascience.com/keras-hyperparameter-tuning-in-google-colab-using-hyperas-624fa4bbf673
GitHub: https://github.com/maxpumperla/hyperas
Medium
Keras Hyperparameter Tuning in Google Colab using Hyperas
You will learhow you can tune the hyperparameters of your existing keras models using Hyperas and run everything in a Google Colab…
Sightseer, a TensorFlow wrapper that allows anyone to access state-of-the-art computer vision and object detection models in 10 lines of code or less
https://github.com/rish-16/sight
#object_detection #computer_vision
https://github.com/rish-16/sight
#object_detection #computer_vision
#دوره_آموزشی شبکههای عصبی عمیق منتشر شد
قسمتهایی از این دوره 32 قسمتی برای ارزیابی خریداران گرامی در آپارات بارگزاری شد:
https://www.aparat.com/v/zqbc8
لینک خرید به زودی در کانال منتشر میشود.
گیتهاب کلاس و کدها:
https://github.com/Alireza-Akhavan/rnn-notebooks
قسمتهایی از این دوره 32 قسمتی برای ارزیابی خریداران گرامی در آپارات بارگزاری شد:
https://www.aparat.com/v/zqbc8
لینک خرید به زودی در کانال منتشر میشود.
گیتهاب کلاس و کدها:
https://github.com/Alireza-Akhavan/rnn-notebooks
آپارات - سرویس اشتراک ویدیو
قسمت اول - مقدمات شبکههای بازگشتی (RNN)
دوره پیشرفته یادگیری عمیق - قسمت اول - مقدمات شبکههای بازگشتی - Introduction to Recurrent Neural Networksقسمت اول کلاس به عنوان پیش نمایش قرار داده شده تا در صورت تمایل این ویدیو را از سایت class.vision خریداری نمایید. برای مشاهده سرفصل ها، اطلاعات بیشتر…
Tensorflow(@CVision)
#دوره_آموزشی شبکههای عصبی عمیق منتشر شد قسمتهایی از این دوره 32 قسمتی برای ارزیابی خریداران گرامی در آپارات بارگزاری شد: https://www.aparat.com/v/zqbc8 لینک خرید به زودی در کانال منتشر میشود. گیتهاب کلاس و کدها: https://github.com/Alireza-Akhavan/rnn…
سرفصل های این دوره:
قسمت اول – 18 دقیقه - مقدمات شبکه های بازگشتی
قسمت دوم – 21 دقیقه - یک سلول (واحد) بازگشتی ساده و شبکه بازگشتی
قسمت سوم – 32 دقیقه - پیادهسازی تخمین تابع با شبکههای بازگشتی ساده
قسمت چهارم – 4 دقیقه - طول دنباله متغیر در شبکههای بازگشتی (۱)
قسمت پنجم – 11 دقیقه - طول دنباله متغیر در شبکههای بازگشتی (۲)
قسمت شـشـم – 19 دقیقه - محو شدگی و انفجار گرادیانها در شبکههای بازگشتی
قسمت هفتم – 26 دقیقه - شبکههای GRU
قسمت هشتم – 8 دقیقه - شبکههای LSTM
قسمت نهم – 9 دقیقه - دیاگرام شبکههای LSTM
قسمت دهم – 9 دقیقه - مثالهایی از دادههای توالی و ترتیبی
قسمت یازدهم – 5 دقیقه - شبکههای بازگشتی عمیق
قسمت دوازدهم – 34 دقیقه - تخمین قیمت ارزهای دیجیتال – پیشپردازش داده
قسمت سیزدهم – 22 دقیقه - تخمین قیمت ارزهای دیجیتال – بالانس کردن دادهها و آموزش
قسمت چهاردهم – 34 دقیقه - شبکههای بازگشتی برای طبقهبندی ویدیو – مثال تشخیص جهت حرکت توپ
قسمت پانزدهم – 41 دقیقه - مثال دوم طبقهبندی ویدیو – بازشناسی عملکرد در ویدیو
قسمت شانزدهم – 32 دقیقه - درک بردار کلمات و بازنمایی آنها
قسمت هفدهم – 11 دقیقه - ویژگیهای بازنمایی کلمات و لایه Embedding
قسمت هجدهم – 27 دقیقه - مثال عملی آنالوژی با بردار کلمات
قسمت نوزدهم – 14 دقیقه - طبقهبندی متن
قسمت بـیـسـتـم – 20 دقیقه - پیادهسازی طبقهبندی متن با روش Bag-of-Embeddings
قسمت بیست و یکم – 29 دقیقه - طبقهبندی متن با شبکه بازگشتی
قسمت بیست و دوم – 57 دقیقه - مدل زبانی – تولید اشعاری شبیه به شاهنامه
قسمت بیست و سوم –16 دقیقه - جمعبندی و معرفی شبکههای بازگشتی دوطرفه
قسمت بیست و چهارم – 14 دقیقه - مدلهای توالی به توالی
قسمت بیست و پنجم – 27 دقیقه - مثال عملی Seq2Seq برای فهم رشته عملیات ریاضی
قسمت بیست و شـشـم – 15 دقیقه - مقدمات ترجمه ماشینی
قسمت بیست و هفتم – 15 دقیقه - الگوریتم جست و جوی پرتو
قسمت بیست و هشـتم – 60 دقیقه - مکانیزم توجه در ترجمه ماشینی
قسمت بیست و نهم – 30 دقیقه - پیادهسازی ترجمه ماشینی در کراس برای تبدیل تاریخ
قسمت سـیام – 15 دقیقه - روش کمک معلم
قسمت سی و یکم – 41 دقیقه - پیادهسازی ترجمه ماشینی با مکانیزم توجه و Teacher Forcing در تنسرفلو ۲
قسمت سی و دوم – 28 دقیقه - شرح تصاویر با توجه بصری
Part 1 – 18 Minutes - Introduction to Recurrent Neural Networks
Part 2 – 21 Minutes - A Simple RNN Unit & RNN Network
Part 3 – 32 Minutes - Sinewave Prediction using RNN
Part 4 – 4 Minutes - Variable RNN sequence lengths (1)
Part 5 – 11 Minutes - Variable RNN sequence lengths (2)
Part 6 – 19 Minutes - Exploding and Vanishing Gradients in RNNs
Part 7 – 26 Minutes - Gated Recurrent Unit (GRU) Networks
Part 8 – 8 Minutes - Long Short-Term Memory (LSTM) Networks
Part 9 – 9 Minutes - LSTM in Picture
Part 10 – 9 Minutes - Examples of Sequential Data
Part 11 – 5 Minutes - Deep RNNs
Part 12 – 34 Minutes - Cryptocurrency Price Prediction – Data Pre-Processing
Part 13 – 22 Minutes - Cryptocurrency Price Prediction – Handling Imbalanced Data and Model Training
Part 14 – 34 Minutes - RNN for Image Classification – Determining the Direction of the Ball
Part 15 – 41 Minutes - Video Classification and Action Recognition using RNN
Part 16 – 32 Minutes - Understanding Word Embeddings
Part 17 – 11 Minutes - Word Analogy, Embedding Layer in Keras
Part 18 – 27 Minutes - Solving Analogies by Representing Words as Vectors
Part 19 – 14 Minutes - Text Classification
Part 20 – 20 Minutes - Bag-of-Embeddings for Text Classification
Part 21 – 29 Minutes - Text Classification with an RNN
Part 22 – 57 Minutes - Text Generation with an RNN (Language Model)
Part 23 – 16 Minutes - Review – Bidirectional RNNs
Part 24 – 14 Minutes - Seq2Seq Models
Part 25 – 27 Minutes - Practical Example of Seq2Seq for Understanding the Mathematical Operations
Part 26 – 15 Minutes - Introduction to Machine Translation
Part 27 – 15 Minutes - Beam Search
Part 28 – 60 Minutes - Attention in Neural Machine Translation
Part 29 – 30 Minutes - Neural Machine Translation for Converting Date in Keras
Part 30 – 15 Minutes - Teacher Forcing
Part 31 – 41 Minutes - Neural Machine Translation with Attention and Teacher Forcingin TF2.0
Part 32 – 28 Minutes - Image Captioning with Visual Attention
قسمت اول – 18 دقیقه - مقدمات شبکه های بازگشتی
قسمت دوم – 21 دقیقه - یک سلول (واحد) بازگشتی ساده و شبکه بازگشتی
قسمت سوم – 32 دقیقه - پیادهسازی تخمین تابع با شبکههای بازگشتی ساده
قسمت چهارم – 4 دقیقه - طول دنباله متغیر در شبکههای بازگشتی (۱)
قسمت پنجم – 11 دقیقه - طول دنباله متغیر در شبکههای بازگشتی (۲)
قسمت شـشـم – 19 دقیقه - محو شدگی و انفجار گرادیانها در شبکههای بازگشتی
قسمت هفتم – 26 دقیقه - شبکههای GRU
قسمت هشتم – 8 دقیقه - شبکههای LSTM
قسمت نهم – 9 دقیقه - دیاگرام شبکههای LSTM
قسمت دهم – 9 دقیقه - مثالهایی از دادههای توالی و ترتیبی
قسمت یازدهم – 5 دقیقه - شبکههای بازگشتی عمیق
قسمت دوازدهم – 34 دقیقه - تخمین قیمت ارزهای دیجیتال – پیشپردازش داده
قسمت سیزدهم – 22 دقیقه - تخمین قیمت ارزهای دیجیتال – بالانس کردن دادهها و آموزش
قسمت چهاردهم – 34 دقیقه - شبکههای بازگشتی برای طبقهبندی ویدیو – مثال تشخیص جهت حرکت توپ
قسمت پانزدهم – 41 دقیقه - مثال دوم طبقهبندی ویدیو – بازشناسی عملکرد در ویدیو
قسمت شانزدهم – 32 دقیقه - درک بردار کلمات و بازنمایی آنها
قسمت هفدهم – 11 دقیقه - ویژگیهای بازنمایی کلمات و لایه Embedding
قسمت هجدهم – 27 دقیقه - مثال عملی آنالوژی با بردار کلمات
قسمت نوزدهم – 14 دقیقه - طبقهبندی متن
قسمت بـیـسـتـم – 20 دقیقه - پیادهسازی طبقهبندی متن با روش Bag-of-Embeddings
قسمت بیست و یکم – 29 دقیقه - طبقهبندی متن با شبکه بازگشتی
قسمت بیست و دوم – 57 دقیقه - مدل زبانی – تولید اشعاری شبیه به شاهنامه
قسمت بیست و سوم –16 دقیقه - جمعبندی و معرفی شبکههای بازگشتی دوطرفه
قسمت بیست و چهارم – 14 دقیقه - مدلهای توالی به توالی
قسمت بیست و پنجم – 27 دقیقه - مثال عملی Seq2Seq برای فهم رشته عملیات ریاضی
قسمت بیست و شـشـم – 15 دقیقه - مقدمات ترجمه ماشینی
قسمت بیست و هفتم – 15 دقیقه - الگوریتم جست و جوی پرتو
قسمت بیست و هشـتم – 60 دقیقه - مکانیزم توجه در ترجمه ماشینی
قسمت بیست و نهم – 30 دقیقه - پیادهسازی ترجمه ماشینی در کراس برای تبدیل تاریخ
قسمت سـیام – 15 دقیقه - روش کمک معلم
قسمت سی و یکم – 41 دقیقه - پیادهسازی ترجمه ماشینی با مکانیزم توجه و Teacher Forcing در تنسرفلو ۲
قسمت سی و دوم – 28 دقیقه - شرح تصاویر با توجه بصری
Part 1 – 18 Minutes - Introduction to Recurrent Neural Networks
Part 2 – 21 Minutes - A Simple RNN Unit & RNN Network
Part 3 – 32 Minutes - Sinewave Prediction using RNN
Part 4 – 4 Minutes - Variable RNN sequence lengths (1)
Part 5 – 11 Minutes - Variable RNN sequence lengths (2)
Part 6 – 19 Minutes - Exploding and Vanishing Gradients in RNNs
Part 7 – 26 Minutes - Gated Recurrent Unit (GRU) Networks
Part 8 – 8 Minutes - Long Short-Term Memory (LSTM) Networks
Part 9 – 9 Minutes - LSTM in Picture
Part 10 – 9 Minutes - Examples of Sequential Data
Part 11 – 5 Minutes - Deep RNNs
Part 12 – 34 Minutes - Cryptocurrency Price Prediction – Data Pre-Processing
Part 13 – 22 Minutes - Cryptocurrency Price Prediction – Handling Imbalanced Data and Model Training
Part 14 – 34 Minutes - RNN for Image Classification – Determining the Direction of the Ball
Part 15 – 41 Minutes - Video Classification and Action Recognition using RNN
Part 16 – 32 Minutes - Understanding Word Embeddings
Part 17 – 11 Minutes - Word Analogy, Embedding Layer in Keras
Part 18 – 27 Minutes - Solving Analogies by Representing Words as Vectors
Part 19 – 14 Minutes - Text Classification
Part 20 – 20 Minutes - Bag-of-Embeddings for Text Classification
Part 21 – 29 Minutes - Text Classification with an RNN
Part 22 – 57 Minutes - Text Generation with an RNN (Language Model)
Part 23 – 16 Minutes - Review – Bidirectional RNNs
Part 24 – 14 Minutes - Seq2Seq Models
Part 25 – 27 Minutes - Practical Example of Seq2Seq for Understanding the Mathematical Operations
Part 26 – 15 Minutes - Introduction to Machine Translation
Part 27 – 15 Minutes - Beam Search
Part 28 – 60 Minutes - Attention in Neural Machine Translation
Part 29 – 30 Minutes - Neural Machine Translation for Converting Date in Keras
Part 30 – 15 Minutes - Teacher Forcing
Part 31 – 41 Minutes - Neural Machine Translation with Attention and Teacher Forcingin TF2.0
Part 32 – 28 Minutes - Image Captioning with Visual Attention
فیلم دوره پیشرفته یادگیری عمیق با موضوع "شبکه های بازگشتی"
http://class.vision/deeplearning2/
📣کد تخفیف ۱۰ درصدی مخصوص اعضای کانال:
cvision
در این دوره 32 قسمتی با مقدمات شبکههای بازگشتی شروع کرده و در ادامه با مفاهیی نظیر vanishing gradient، stacked RNN، تفاوت شبکه های بازگشتی Stateful و Stateless، مدلهای Seq2Seq ، Teacher forcing، توجه یا attention و ... بحث شد.
همچنین مثال هایی نظیر تخمین قیمت بورس، طبقه بندی ویدئو، ترجمه ماشینی، طبقه بندی متن، image captioning و ... با فریم ورک تنسرفلو و کراس بررسی شد.
سرفصل دوره:
https://t.me/cvision/1589
پیش نمایش قسمت هایی از دوره:
https://www.aparat.com/v/zqbc8
http://class.vision/deeplearning2/
📣کد تخفیف ۱۰ درصدی مخصوص اعضای کانال:
cvision
در این دوره 32 قسمتی با مقدمات شبکههای بازگشتی شروع کرده و در ادامه با مفاهیی نظیر vanishing gradient، stacked RNN، تفاوت شبکه های بازگشتی Stateful و Stateless، مدلهای Seq2Seq ، Teacher forcing، توجه یا attention و ... بحث شد.
همچنین مثال هایی نظیر تخمین قیمت بورس، طبقه بندی ویدئو، ترجمه ماشینی، طبقه بندی متن، image captioning و ... با فریم ورک تنسرفلو و کراس بررسی شد.
سرفصل دوره:
https://t.me/cvision/1589
پیش نمایش قسمت هایی از دوره:
https://www.aparat.com/v/zqbc8
کلاسویژن
دوره آموزشی شبکههای بازگشتی عمیق و سریهای زمانی با تنسرفلو 2 - کلاسویژن
قسمت 1 - مقدمات شبکه های بازگشتی
#آموزش
Learn how you can find the best parameters with Keras Tuner
A fully-featured, scalable, and easy-to-use hyperparameter tuning library for Keras and beyond.
https://blog.tensorflow.org/2020/01/hyperparameter-tuning-with-keras-tuner.html
مطلب مرتبط:
https://t.me/cvision/1488
Learn how you can find the best parameters with Keras Tuner
A fully-featured, scalable, and easy-to-use hyperparameter tuning library for Keras and beyond.
https://blog.tensorflow.org/2020/01/hyperparameter-tuning-with-keras-tuner.html
مطلب مرتبط:
https://t.me/cvision/1488
SVM on GPUs:
https://github.com/Xtra-Computing/thundersvm
Gradient Boosting and Random Forest on GPUs:
https://github.com/Xtra-Computing/thundergbm
https://github.com/Xtra-Computing/thundersvm
Gradient Boosting and Random Forest on GPUs:
https://github.com/Xtra-Computing/thundergbm
GitHub
GitHub - Xtra-Computing/thundersvm: ThunderSVM: A Fast SVM Library on GPUs and CPUs
ThunderSVM: A Fast SVM Library on GPUs and CPUs. Contribute to Xtra-Computing/thundersvm development by creating an account on GitHub.
Tensorflow(@CVision) pinned «فیلم دوره پیشرفته یادگیری عمیق با موضوع "شبکه های بازگشتی" http://class.vision/deeplearning2/ 📣کد تخفیف ۱۰ درصدی مخصوص اعضای کانال: cvision در این دوره 32 قسمتی با مقدمات شبکههای بازگشتی شروع کرده و در ادامه با مفاهیی نظیر vanishing gradient، stacked RNN،…»
TensorFlow: Data and Deployment Specialization
https://www.coursera.org/specializations/tensorflow-data-and-deployment
https://www.coursera.org/specializations/tensorflow-data-and-deployment
Coursera
TensorFlow: Data and Deployment
Offered by DeepLearning.AI. Enroll for free.
کانال هوش مصنوعی و برنامه نویسی پایتون
https://t.me/ai_python
https://t.me/ai_python
Telegram
DLeX: AI Python
هوشمصنوعی و برنامهنویسی
ارتباط :
https://twitter.com/NaviDDariya
ارتباط :
https://twitter.com/NaviDDariya
Tensorflow(@CVision)
فیلم دوره پیشرفته یادگیری عمیق با موضوع "شبکه های بازگشتی" http://class.vision/deeplearning2/ 📣کد تخفیف ۱۰ درصدی مخصوص اعضای کانال: cvision در این دوره 32 قسمتی با مقدمات شبکههای بازگشتی شروع کرده و در ادامه با مفاهیی نظیر vanishing gradient، stacked RNN،…
#Financial_Aid
در صورتی که دوره های سایت CLASS.VISION میتونه گره گشای کار شما باشه، اما مشکلات مالی یا پرداختی دارید با تکمیل فرم زیر درخواست خود را ارسال کنید:
https://forms.gle/fopPRxk1WufZCPnp6
توجه کنید که سهمیه مشخصی در هر ماه در نظر گرفته شده و درخواست های غیر ضروری علاوه بر اینکه ما را از تهیه فیلمهای بعدی منع میکند، باعث میشود نتوانیم افراد واقعی را شناسایی کنیم.
به همین منظور سوالات را دقیق و با حوصله پاسخ بدهید
در صورتی که دوره های سایت CLASS.VISION میتونه گره گشای کار شما باشه، اما مشکلات مالی یا پرداختی دارید با تکمیل فرم زیر درخواست خود را ارسال کنید:
https://forms.gle/fopPRxk1WufZCPnp6
توجه کنید که سهمیه مشخصی در هر ماه در نظر گرفته شده و درخواست های غیر ضروری علاوه بر اینکه ما را از تهیه فیلمهای بعدی منع میکند، باعث میشود نتوانیم افراد واقعی را شناسایی کنیم.
به همین منظور سوالات را دقیق و با حوصله پاسخ بدهید
کد تخفیف 10 درصدی مخصوص اعضای کانال:
cvision
https://utech-academy.ir/product/winter-deep/
تاریخ شروع: همین هفته - پنج شنبه
cvision
https://utech-academy.ir/product/winter-deep/
تاریخ شروع: همین هفته - پنج شنبه
Forwarded from class.vision( Deep learning)
💯یادگیری Deep Learning را از همین الان شروع کنید.
کد تخفیف 10 درصدی مخصوص اعضای کانال برای تمام دوره های سایت بینایی ماشین:
cvision
✅دوره مقدمات یادگیری عمیق:
اگر حتی هیچ آشنایی ندارید، بهترین فرصته که همین الان DeepLearning را شروع کنید و مهارت خود را بالا ببرید!
http://class.vision/deeplearning-keras/
✅دوره پیشرفته - شبکه های بازگشتی:
اگر متخصص دیپ لرنینگ هستید و میخواهید دانش خود را در شبکه های بازگشتی بالا ببرید این دوره مناسب شماست.
http://class.vision/deeplearning2/
🔅پیشنمایش رایگان دوره در سایت در دسترس است
Telegram: @cvision
کد تخفیف 10 درصدی مخصوص اعضای کانال برای تمام دوره های سایت بینایی ماشین:
cvision
✅دوره مقدمات یادگیری عمیق:
اگر حتی هیچ آشنایی ندارید، بهترین فرصته که همین الان DeepLearning را شروع کنید و مهارت خود را بالا ببرید!
http://class.vision/deeplearning-keras/
✅دوره پیشرفته - شبکه های بازگشتی:
اگر متخصص دیپ لرنینگ هستید و میخواهید دانش خود را در شبکه های بازگشتی بالا ببرید این دوره مناسب شماست.
http://class.vision/deeplearning2/
🔅پیشنمایش رایگان دوره در سایت در دسترس است
Telegram: @cvision
How accurate can a ResNet-50 on ImageNet with only 250k of its original 25M weights be
🧐
? With RigL, accuracy of this 99% sparse network seems to increase with training time almost indefinitely
📈
! When does it stop?!
1x->53% 🤓
5x->61.8% 😎
10x->63.9% 🤔
40x->66.9% 😵
100x->?
https://twitter.com/utkuevci/status/1223267258832707584?s=20
https://github.com/google-research/rigl/
🧐
? With RigL, accuracy of this 99% sparse network seems to increase with training time almost indefinitely
📈
! When does it stop?!
1x->53% 🤓
5x->61.8% 😎
10x->63.9% 🤔
40x->66.9% 😵
100x->?
https://twitter.com/utkuevci/status/1223267258832707584?s=20
https://github.com/google-research/rigl/
Forwarded from رویدادهای ملی و بین المللی
کانال اطلاع رسانی رویدادهای ملی و بین المللی:
- اخبار و استخدامی ها
- همایش ها و سمینار ها
- کنفراس ها و ژورنال ها
- کارگاه ها و مسابقات
#Convent
https://telegram.me/convent
@convent
- اخبار و استخدامی ها
- همایش ها و سمینار ها
- کنفراس ها و ژورنال ها
- کارگاه ها و مسابقات
#Convent
https://telegram.me/convent
@convent