#مقاله #سورس #کد
IMDB-WIKI – 500k+ face images with age and gender labels
pic: http://bit.ly/2rZNDJx
دیتاست سن و جنسیت افراد؛ جمع آوری شده از صفحات ویکی پدیا
+
مقاله و مدل در Caffe , و وزنهای آموزش دیده شده شبکه
https://data.vision.ee.ethz.ch/cvl/rrothe/imdb-wiki/
#Gender_prediction #age #Deep_Learning #dataset #model
#CNN #convolutional_neutral_network
IMDB-WIKI – 500k+ face images with age and gender labels
pic: http://bit.ly/2rZNDJx
دیتاست سن و جنسیت افراد؛ جمع آوری شده از صفحات ویکی پدیا
+
مقاله و مدل در Caffe , و وزنهای آموزش دیده شده شبکه
https://data.vision.ee.ethz.ch/cvl/rrothe/imdb-wiki/
#Gender_prediction #age #Deep_Learning #dataset #model
#CNN #convolutional_neutral_network
#خبر #مقاله #کد
۱۰۰۰ برابر سریعتر data augmentation را موقع آموزش شبکه انجام دهید!
Population Based Augmentation (PBA)
"Population Based Augmentation (PBA), an algorithm that quickly and efficiently learns a state-of-the-art approach to augmenting data for neural network training. PBA matches the previous best result on CIFAR and SVHN but uses one thousand times less compute, enabling researchers and practitioners to effectively learn new augmentation policies using a single workstation GPU. You can use PBA broadly to improve deep learning performance on image recognition tasks."
Blog: https://bair.berkeley.edu/blog/2019/06/07/data_aug/
Paper: https://arxiv.org/pdf/1905.05393
Code: https://github.com/arcelien/pba
۱۰۰۰ برابر سریعتر data augmentation را موقع آموزش شبکه انجام دهید!
Population Based Augmentation (PBA)
"Population Based Augmentation (PBA), an algorithm that quickly and efficiently learns a state-of-the-art approach to augmenting data for neural network training. PBA matches the previous best result on CIFAR and SVHN but uses one thousand times less compute, enabling researchers and practitioners to effectively learn new augmentation policies using a single workstation GPU. You can use PBA broadly to improve deep learning performance on image recognition tasks."
Blog: https://bair.berkeley.edu/blog/2019/06/07/data_aug/
Paper: https://arxiv.org/pdf/1905.05393
Code: https://github.com/arcelien/pba
The Berkeley Artificial Intelligence Research Blog
1000x Faster Data Augmentation
The BAIR Blog
چگونه می توان عملکرد طبقه بند را زمانی که رزولوشن عکس های مجموعه آموزش و آزمون با هم تفاوت داشته باشند، بهبود داد؟ برای جواب این سوال میتوانید به این مقاله نگاهی بیاندازید.
Fixing the train-test resolution discrepancy
A simple yet effective and efficient strategy to optimize the classifier performance when the train and test resolutions differ.
مقاله: https://arxiv.org/abs/1906.06423
کد: https://github.com/facebookresearch/FixRes
#مقاله #کد
Fixing the train-test resolution discrepancy
A simple yet effective and efficient strategy to optimize the classifier performance when the train and test resolutions differ.
مقاله: https://arxiv.org/abs/1906.06423
کد: https://github.com/facebookresearch/FixRes
#مقاله #کد
arXiv.org
Fixing the train-test resolution discrepancy
Data-augmentation is key to the training of neural networks for image classification. This paper first shows that existing augmentations induce a significant discrepancy between the typical size...
#مقاله #کد #BERT #RoBERTa
RoBERTa: A Robustly Optimized BERT Pretraining Approach
همانطور که میدونید انواع انتخاب مقادیر مختلف برای هایپرپارامترها تاثیر جدی در نتیجه نهایی آموزش یک شبکه دارد.
طبق مطالعه انجام شده توسط محققین فیس بوک و دانشگاه واشنگتن و بقیه تیم پژوهشی به این نتیجه رسیده اند که مدل BERT که منتشر شد به خوبی آموزش داده نشده بود. درحالی که میتوانست با انتخاب بهینه هایپرپارامترها از تمام مدل های موجود و حتی بعد از خودش بهتر عمل کند.
"We find that BERT was significantly undertrained, and can match or exceed the performance of every model published after it."
در این مقاله میتوانید روش به کار گرفته شده برای حل این مسئله را بیشتر بررسی کنید.
https://arxiv.org/pdf/1907.11692
همینطور تمام کدها و مدل ها را هم منتشر کردند که میتوانید در این لینک ببینید.
https://github.com/pytorch/fairseq/tree/master/examples/roberta
RoBERTa: A Robustly Optimized BERT Pretraining Approach
همانطور که میدونید انواع انتخاب مقادیر مختلف برای هایپرپارامترها تاثیر جدی در نتیجه نهایی آموزش یک شبکه دارد.
طبق مطالعه انجام شده توسط محققین فیس بوک و دانشگاه واشنگتن و بقیه تیم پژوهشی به این نتیجه رسیده اند که مدل BERT که منتشر شد به خوبی آموزش داده نشده بود. درحالی که میتوانست با انتخاب بهینه هایپرپارامترها از تمام مدل های موجود و حتی بعد از خودش بهتر عمل کند.
"We find that BERT was significantly undertrained, and can match or exceed the performance of every model published after it."
در این مقاله میتوانید روش به کار گرفته شده برای حل این مسئله را بیشتر بررسی کنید.
https://arxiv.org/pdf/1907.11692
همینطور تمام کدها و مدل ها را هم منتشر کردند که میتوانید در این لینک ببینید.
https://github.com/pytorch/fairseq/tree/master/examples/roberta
GitHub
fairseq/examples/roberta at main · facebookresearch/fairseq
Facebook AI Research Sequence-to-Sequence Toolkit written in Python. - facebookresearch/fairseq
Self-Attention Generative Adversarial Networks
Han Zhang, Ian Goodfellow, Dimitris Metaxas, Augustus Odena
SAGAN allows attention-driven, long-range dependency modeling for image generation tasks.
Traditional convolutional GANs generate high-resolution details as a function of only spatially local points in lower-resolution feature maps. In SAGAN, details can be generated using cues from all feature locations. Moreover, the discriminator can check that highly detailed features in distant portions of the image are consistent with each other. Furthermore, recent work has shown that generator conditioning affects GAN performance.
Paper: https://arxiv.org/pdf/1805.08318
GitHub: https://github.com/brain-research/self-attention-gan
#GAN #SAGAN #مقاله #کد
Han Zhang, Ian Goodfellow, Dimitris Metaxas, Augustus Odena
SAGAN allows attention-driven, long-range dependency modeling for image generation tasks.
Traditional convolutional GANs generate high-resolution details as a function of only spatially local points in lower-resolution feature maps. In SAGAN, details can be generated using cues from all feature locations. Moreover, the discriminator can check that highly detailed features in distant portions of the image are consistent with each other. Furthermore, recent work has shown that generator conditioning affects GAN performance.
Paper: https://arxiv.org/pdf/1805.08318
GitHub: https://github.com/brain-research/self-attention-gan
#GAN #SAGAN #مقاله #کد
GitHub
GitHub - brain-research/self-attention-gan
Contribute to brain-research/self-attention-gan development by creating an account on GitHub.
Tensorflow(@CVision)
#آموزش #pix2pix #GAN همانطور که میدانید سایز وزودی شبکه U-Net در مدل pix2pix در مقاله آن به صورت 256x256 است. حالا اگر بخواهیم عکس هایی با سایز کوچکتر مثلا 32x32( مثلا در دیتاست Cifar10) به شبکه ورودی دهیم باید چه کنیم؟ یک راه ریسایز کردن عکس به سایز ورودی…
#کد #GAN #pix2pix #keras
سایز وزودی شبکه U-Net در مدل pix2pix در مقاله آن به صورت 256 در 256 است. حالا اگر بخواهیم عکس هایی با سایز کوچکتر مثلا 32 در 32 را به شبکه ورودی بدهیم، بهتر است معماری مدل(هم شبکه مولد و هم شبکه تمییز دهنده) را اصلاح کنیم.
در این صفحه میتوانید کد کراس مربوط به این مدل را متناسب با سایز ورودی 32 در 32 موجود در دیتاست Cifar10 و با پارامترهای بسیار کمتر ببینید:
https://github.com/vrkh1996/pix2pix-modified
نتیجه آموزش مدل روی دیتاست Cifar10 برای 3 ایپاک به صورت اینکه مدل هر عکس ورودی را بازسازی کند برابر است با میانگین قدر مطلق خطا 0.0113 روی مجموعه آزمون(یعنی مدل به طور میانگین میتواند با دقت حدود 99 درصد همان عکس های ورودی را بازسازی کند).
فیلم آموزش مربوط به این مبحث:
https://www.aparat.com/v/S9bcT
سایز وزودی شبکه U-Net در مدل pix2pix در مقاله آن به صورت 256 در 256 است. حالا اگر بخواهیم عکس هایی با سایز کوچکتر مثلا 32 در 32 را به شبکه ورودی بدهیم، بهتر است معماری مدل(هم شبکه مولد و هم شبکه تمییز دهنده) را اصلاح کنیم.
در این صفحه میتوانید کد کراس مربوط به این مدل را متناسب با سایز ورودی 32 در 32 موجود در دیتاست Cifar10 و با پارامترهای بسیار کمتر ببینید:
https://github.com/vrkh1996/pix2pix-modified
نتیجه آموزش مدل روی دیتاست Cifar10 برای 3 ایپاک به صورت اینکه مدل هر عکس ورودی را بازسازی کند برابر است با میانگین قدر مطلق خطا 0.0113 روی مجموعه آزمون(یعنی مدل به طور میانگین میتواند با دقت حدود 99 درصد همان عکس های ورودی را بازسازی کند).
فیلم آموزش مربوط به این مبحث:
https://www.aparat.com/v/S9bcT
#کد_تخفیف #موقت
به دلیل تغییرات قیمت در دوره های سایت class.vision بدون اطلاع قبلی به مدت محدود 1 هفته کد تخفیف 50 درصد فعال شد.
شما با کد
cvision50
از امروز تا پایان روز جمعه 21 آذر ماه میتوانید دو دوره ی زیر را با کد cvision50 را با 50 درصد قیمت تهیه کنید.
——-
دوستانی که پیش نیاز کار با فریم ورک Keras و تنسرفلو و شبکه های کانولوشنالی را ندارند دوره ی 12 ساعته زیر برای آن ها مناسب است.
http://keras.shop
دوستانی که با شبکه های بازگشتی- lstm - gru - rnn و یا شبکه های seq2seq و attention کار نکرده اند دوره ی زیر برای آن ها مناسب خواهد بود:
http://deeprnn.shop
به عنوان مطالعه بیشتر لیست پخش زیر برای کارکردن بهتر با فریم ورک تنسرفلو و کراس توصیه میشود:
https://www.aparat.com/playlist/342711
به دلیل تغییرات قیمت در دوره های سایت class.vision بدون اطلاع قبلی به مدت محدود 1 هفته کد تخفیف 50 درصد فعال شد.
شما با کد
cvision50
از امروز تا پایان روز جمعه 21 آذر ماه میتوانید دو دوره ی زیر را با کد cvision50 را با 50 درصد قیمت تهیه کنید.
——-
دوستانی که پیش نیاز کار با فریم ورک Keras و تنسرفلو و شبکه های کانولوشنالی را ندارند دوره ی 12 ساعته زیر برای آن ها مناسب است.
http://keras.shop
دوستانی که با شبکه های بازگشتی- lstm - gru - rnn و یا شبکه های seq2seq و attention کار نکرده اند دوره ی زیر برای آن ها مناسب خواهد بود:
http://deeprnn.shop
به عنوان مطالعه بیشتر لیست پخش زیر برای کارکردن بهتر با فریم ورک تنسرفلو و کراس توصیه میشود:
https://www.aparat.com/playlist/342711
#کد_تخفیف #yalda99
با آرزوی سلامتی و تندرستی برای همه شما همراهان 🙏❤️
به مناسبت جشن یلدا و پیرو درخواست تعدادی از دوستان، کد تخفیف
۵۰ درصدی yalda99 برای تهیه محصولات سایت class.vision فعال شد ✅
——-
دوستانی که پیش نیاز کار با فریم ورک Keras و تنسرفلو و شبکه های کانولوشنالی را ندارند دوره ی 12 ساعته زیر برای آن ها مناسب است.
http://keras.shop
دوستانی که با شبکه های بازگشتی- lstm - gru - rnn و یا شبکه های seq2seq و attention کار نکرده اند دوره ی زیر برای آن ها مناسب خواهد بود:
http://deeprnn.shop
به عنوان مطالعه بیشتر لیست پخش زیر برای کارکردن بهتر با فریم ورک تنسرفلو و کراس توصیه میشود:
https://www.aparat.com/playlist/342711
با آرزوی سلامتی و تندرستی برای همه شما همراهان 🙏❤️
به مناسبت جشن یلدا و پیرو درخواست تعدادی از دوستان، کد تخفیف
۵۰ درصدی yalda99 برای تهیه محصولات سایت class.vision فعال شد ✅
——-
دوستانی که پیش نیاز کار با فریم ورک Keras و تنسرفلو و شبکه های کانولوشنالی را ندارند دوره ی 12 ساعته زیر برای آن ها مناسب است.
http://keras.shop
دوستانی که با شبکه های بازگشتی- lstm - gru - rnn و یا شبکه های seq2seq و attention کار نکرده اند دوره ی زیر برای آن ها مناسب خواهد بود:
http://deeprnn.shop
به عنوان مطالعه بیشتر لیست پخش زیر برای کارکردن بهتر با فریم ورک تنسرفلو و کراس توصیه میشود:
https://www.aparat.com/playlist/342711
Tensorflow(@CVision)
دوره ی آنلاین 15 ساعته شبکه های مولد عمیق http://class.vision/product/generative-autoencoder-gan-tf2/ کد تخفیف 30 درصدی ثبت نام زودهنگام تا انتهای دی ماه مخصوص 10 نفر اول: earlyregister
دوستان سوالات رایجی که مطرح میکنید در این لینک پاسخ داده شده است.
🔴این دوره پیش نیاز دارد که در سایت ذکر شده، اما اگر پیش نیاز را مسلط نیستید، میتوانید در فرصت باقیمانده با #کد_تخفیف 50 درصدی
🔴این فیلم ها هیچ همپوشانی با فیلم های سایت ندارد.
🔴کدها با فریم ورک تنسرفلو 2 و کراس و اکثرا توضیحات با داکیومنت های رسمی دو سایت Keras و Tensorflow است، از جمله کدهای :
GAN overriding Model.train_step
https://keras.io/examples/generative/dcgan_overriding_train_step
Pix2Pix
https://www.tensorflow.org/tutorials/generative/pix2pix
CycleGAN
https://www.tensorflow.org/tutorials/generative/cyclegan
Deep Dream
https://keras.io/examples/generative/deep_dream/
Neural style transfer
https://keras.io/examples/generative/neural_style_transfer/
🔴دوره آنلاین و تعاملی است و به سوالات شما در طول تدریس پاسخ داده میشود.
🔴سینتکس های مربوط به تنسرفلو 2 نظیر gradient tape قبل مفاهیم اصلی generativeها توضیح داده خواهد شد.
🔴این دوره پیش نیاز دارد که در سایت ذکر شده، اما اگر پیش نیاز را مسلط نیستید، میتوانید در فرصت باقیمانده با #کد_تخفیف 50 درصدی
gan
که به مدت محدود برای داوطلبان این دوره در نظر گرفته شده، دوره ی آفلاین مقدماتی مباحث پیش نیاز را بیاموزید: http://keras.shop🔴این فیلم ها هیچ همپوشانی با فیلم های سایت ندارد.
🔴کدها با فریم ورک تنسرفلو 2 و کراس و اکثرا توضیحات با داکیومنت های رسمی دو سایت Keras و Tensorflow است، از جمله کدهای :
GAN overriding Model.train_step
https://keras.io/examples/generative/dcgan_overriding_train_step
Pix2Pix
https://www.tensorflow.org/tutorials/generative/pix2pix
CycleGAN
https://www.tensorflow.org/tutorials/generative/cyclegan
Deep Dream
https://keras.io/examples/generative/deep_dream/
Neural style transfer
https://keras.io/examples/generative/neural_style_transfer/
🔴دوره آنلاین و تعاملی است و به سوالات شما در طول تدریس پاسخ داده میشود.
🔴سینتکس های مربوط به تنسرفلو 2 نظیر gradient tape قبل مفاهیم اصلی generativeها توضیح داده خواهد شد.