Tensorflow(@CVision)
13.1K subscribers
1.12K photos
195 videos
67 files
2.11K links
اخبار حوزه یادگیری عمیق و هوش مصنوعی
مقالات و یافته های جدید یادگیری عمیق
بینایی ماشین و پردازش تصویر

TensorFlow, Keras, Deep Learning, Computer Vision

سایت دوره
http://class.vision

👨‍💻👩‍💻پشتیبان دوره ها:
@classvision_support
Download Telegram
#dataset #مجموعه_داده

Flickr-Faces-HQ (FFHQ) is out now. "... 70,000 high-quality PNG images at 1024×1024 resolution and contains considerable variation in terms of age, ethnicity and image background." The dataset used for the Style-GAN paper.

https://github.com/NVlabs/ffhq-dataset

#face #gan
#سورس_کد #مقاله
کد پیاده سازی تنسرفلو مقاله اخیر Nvidia منتشر شد!

این افراد واقعی نیستند - آنها توسط شبکه های GAN ساخته شده است که اجازه می دهد تا بر جنبه های مختلف تصویر کنترل داشته باشید.

🔗Code:
StyleGAN — Official TensorFlow Implementation
https://github.com/NVlabs/stylegan

🔗paper:
A Style-Based Generator Architecture for Generative Adversarial Networks
http://stylegan.xyz/paper

#tensorflow
#gan #stylegan #nvidia
#سورس_کد
پیش بینی قیمت بورس با GAN

https://towardsdatascience.com/aifortrading-2edd6fac689d


A complete process for predicting stock price movements. For that purpose a Generative Adversarial Network (GAN) with LSTM, a type of Recurrent Neural Network, as generator, and a Convolutional Neural Network, CNN, as a discriminator are used.

🙏Thanks to: @vahidreza01
#lstm #gan
This media is not supported in your browser
VIEW IN TELEGRAM
#مقاله #سورس_کد

SC-FEGAN : Face Editing Generative Adversarial Network with User's Sketch and Color


Editing photos of faces using basic sketches, and letting a GAN do the rest. Lets you add/change: earrings, glasses, hair style, dimples, & more.

Paper:
https://arxiv.org/pdf/1902.06838.pdf
Code (#tensorflow):
https://github.com/JoYoungjoo/SC-FEGAN

#gan #SC_FEGAN #face
#مقاله
فریب شبکه های object detection در تشخیص افراد.
Fooling automated surveillance cameras: adversarial patches to attack person detection. https://arxiv.org/abs/1904.08653

🙏Thanks to: @vahidreza01
#adversarial #gan
#مقاله
Object Discovery with a Copy-Pasting GAN
https://arxiv.org/pdf/1905.11369.pdf


#GAN
#آموزش #pix2pix #GAN

همانطور که میدانید سایز وزودی شبکه U-Net در مدل pix2pix در مقاله آن به صورت 256x256 است. حالا اگر بخواهیم عکس هایی با سایز کوچکتر مثلا 32x32( مثلا در دیتاست Cifar10) به شبکه ورودی دهیم باید چه کنیم؟
یک راه ریسایز کردن عکس به سایز ورودی شبکه در هنگام فید کردن دیتا به شبکه است که این روش بسیار از لحاظ محاسباتی هزینه بر است.
راه دوم اصلاح معماری شبکه متناسب با سایز ورودی است و خب این راه به دلیل بزرگ بودن فضای مسئله و tricky بودن آموزش GANها کمی زمان بر است و ممکن است به بهترین جواب نرسیم.

جواب یکی از نویسندگان مقاله pix2pix به نحوه و منطق اصلاح معماری شبکه متناسب با سایز 32x32 :

Jun Yan Zhu:
"For the generator, you can remove the first two downsampling layers and their corresponding upsampling layers from defineG_unet_128. For the discriminator, remove one or two downsampling layers."

https://github.com/phillipi/pix2pix/issues/175


فیلم آموزش مربوط به این مبحث:
https://www.aparat.com/v/S9bcT
#خبر

اظهارات اخیر Andrew Ng فردی تاثیر گذار در حوزه یادگیری ماشینی، و یادگیری عمیق در مورد نرم افزار deep nude که اخیرا ارائه شده، و سوء استفاده ای از روش pix2pix است.

روش pix2pix یک روش بر مبنای #GAN است که برای #Image_to_Image_Translation استفاده میشود. در این روش تصویر ۱ توسط شبکه عصبی عمیق به تصویر متناظر ۲ تبدیل می گردد، که در این نرم افزار تصویر افراد ورودی شبکه، و تصویر بدون لباس فرد را خروجی میدهد.

https://twitter.com/AndrewYNg/status/1144668413140144128?s=19

جادی هم در این رابطه یک پست با عنوان
بالاخره «دوربین لخت کن» ساخته شد، و ما درکش نمی کنیم
نوشته که میتونید بخونیدش...


https://jadi.net/2019/06/deep-nude/
___
مطلب مرتبط:

#آموزش
آموزش شبکه ی مولد تخاصمی (GAN) برای تبدیل تصویر با روش pix2pix

https://www.aparat.com/v/S9bcT?c

اسلاید:

http://fall97.class.vision/slides/17.pdf

کد (نوت بوک پایتون تنسرفلو - کراس) :

http://nbviewer.jupyter.org/github/alireza-akhavan/class.vision/blob/master/57-gan-pix2pix_tensorflow_eager.ipynb


کلاس نوت فارسی pix2pix

http://blog.class.vision/1397/10/pixtopix/

#GAN #pix2pix #cyclegan #keras #tensorflow
#Image_to_Image_Translation
#deep_nude
Self-Attention Generative Adversarial Networks
Han Zhang, Ian Goodfellow, Dimitris Metaxas, Augustus Odena

SAGAN allows attention-driven, long-range dependency modeling for image generation tasks.

Traditional convolutional GANs generate high-resolution details as a function of only spatially local points in lower-resolution feature maps. In SAGAN, details can be generated using cues from all feature locations. Moreover, the discriminator can check that highly detailed features in distant portions of the image are consistent with each other. Furthermore, recent work has shown that generator conditioning affects GAN performance.

Paper: https://arxiv.org/pdf/1805.08318
GitHub: https://github.com/brain-research/self-attention-gan

#GAN #SAGAN #مقاله #کد
Tensorflow(@CVision)
#آموزش #pix2pix #GAN همانطور که میدانید سایز وزودی شبکه U-Net در مدل pix2pix در مقاله آن به صورت 256x256 است. حالا اگر بخواهیم عکس هایی با سایز کوچکتر مثلا 32x32( مثلا در دیتاست Cifar10) به شبکه ورودی دهیم باید چه کنیم؟ یک راه ریسایز کردن عکس به سایز ورودی…
#کد #GAN #pix2pix #keras

سایز وزودی شبکه U-Net در مدل pix2pix در مقاله آن به صورت 256 در 256 است. حالا اگر بخواهیم عکس هایی با سایز کوچکتر مثلا 32 در 32 را به شبکه ورودی بدهیم، بهتر است معماری مدل(هم شبکه مولد و هم شبکه تمییز دهنده) را اصلاح کنیم.

در این صفحه میتوانید کد کراس مربوط به این مدل را متناسب با سایز ورودی 32 در 32 موجود در دیتاست Cifar10 و با پارامترهای بسیار کمتر ببینید:

https://github.com/vrkh1996/pix2pix-modified

نتیجه آموزش مدل روی دیتاست Cifar10 برای 3 ایپاک به صورت اینکه مدل هر عکس ورودی را بازسازی کند برابر است با میانگین قدر مطلق خطا 0.0113 روی مجموعه آزمون(یعنی مدل به طور میانگین میتواند با دقت حدود 99 درصد همان عکس های ورودی را بازسازی کند).

فیلم آموزش مربوط به این مبحث:
https://www.aparat.com/v/S9bcT
This media is not supported in your browser
VIEW IN TELEGRAM
#مقاله #سورس_کد

MixNMatch: Multifactor Disentanglement and Encoding for Conditional Image Generation

Paper:
https://arxiv.org/abs/1911.11758

Github:
https://github.com/Yuheng-Li/MixNMatch

#GAN