#مقاله
فریب شبکه های object detection در تشخیص افراد.
Fooling automated surveillance cameras: adversarial patches to attack person detection. https://arxiv.org/abs/1904.08653
🙏Thanks to: @vahidreza01
#adversarial #gan
فریب شبکه های object detection در تشخیص افراد.
Fooling automated surveillance cameras: adversarial patches to attack person detection. https://arxiv.org/abs/1904.08653
🙏Thanks to: @vahidreza01
#adversarial #gan
#آموزش #pix2pix #GAN
همانطور که میدانید سایز وزودی شبکه U-Net در مدل pix2pix در مقاله آن به صورت 256x256 است. حالا اگر بخواهیم عکس هایی با سایز کوچکتر مثلا 32x32( مثلا در دیتاست Cifar10) به شبکه ورودی دهیم باید چه کنیم؟
یک راه ریسایز کردن عکس به سایز ورودی شبکه در هنگام فید کردن دیتا به شبکه است که این روش بسیار از لحاظ محاسباتی هزینه بر است.
راه دوم اصلاح معماری شبکه متناسب با سایز ورودی است و خب این راه به دلیل بزرگ بودن فضای مسئله و tricky بودن آموزش GANها کمی زمان بر است و ممکن است به بهترین جواب نرسیم.
جواب یکی از نویسندگان مقاله pix2pix به نحوه و منطق اصلاح معماری شبکه متناسب با سایز 32x32 :
Jun Yan Zhu:
"For the generator, you can remove the first two downsampling layers and their corresponding upsampling layers from defineG_unet_128. For the discriminator, remove one or two downsampling layers."
https://github.com/phillipi/pix2pix/issues/175
فیلم آموزش مربوط به این مبحث:
https://www.aparat.com/v/S9bcT
همانطور که میدانید سایز وزودی شبکه U-Net در مدل pix2pix در مقاله آن به صورت 256x256 است. حالا اگر بخواهیم عکس هایی با سایز کوچکتر مثلا 32x32( مثلا در دیتاست Cifar10) به شبکه ورودی دهیم باید چه کنیم؟
یک راه ریسایز کردن عکس به سایز ورودی شبکه در هنگام فید کردن دیتا به شبکه است که این روش بسیار از لحاظ محاسباتی هزینه بر است.
راه دوم اصلاح معماری شبکه متناسب با سایز ورودی است و خب این راه به دلیل بزرگ بودن فضای مسئله و tricky بودن آموزش GANها کمی زمان بر است و ممکن است به بهترین جواب نرسیم.
جواب یکی از نویسندگان مقاله pix2pix به نحوه و منطق اصلاح معماری شبکه متناسب با سایز 32x32 :
Jun Yan Zhu:
"For the generator, you can remove the first two downsampling layers and their corresponding upsampling layers from defineG_unet_128. For the discriminator, remove one or two downsampling layers."
https://github.com/phillipi/pix2pix/issues/175
فیلم آموزش مربوط به این مبحث:
https://www.aparat.com/v/S9bcT
GitHub
Input size 32x32 · Issue #175 · phillipi/pix2pix
Hi, I want to use pix2pix architecture with the Cifar10 dataset and the problem is the input size. I do not want to resize the images because it is computationally expensive and it takes a lot of t...
#خبر
اظهارات اخیر Andrew Ng فردی تاثیر گذار در حوزه یادگیری ماشینی، و یادگیری عمیق در مورد نرم افزار deep nude که اخیرا ارائه شده، و سوء استفاده ای از روش pix2pix است.
روش pix2pix یک روش بر مبنای #GAN است که برای #Image_to_Image_Translation استفاده میشود. در این روش تصویر ۱ توسط شبکه عصبی عمیق به تصویر متناظر ۲ تبدیل می گردد، که در این نرم افزار تصویر افراد ورودی شبکه، و تصویر بدون لباس فرد را خروجی میدهد.
https://twitter.com/AndrewYNg/status/1144668413140144128?s=19
جادی هم در این رابطه یک پست با عنوان
بالاخره «دوربین لخت کن» ساخته شد، و ما درکش نمی کنیم
نوشته که میتونید بخونیدش...
https://jadi.net/2019/06/deep-nude/
___
مطلب مرتبط:
#آموزش
آموزش شبکه ی مولد تخاصمی (GAN) برای تبدیل تصویر با روش pix2pix
https://www.aparat.com/v/S9bcT?c
اسلاید:
http://fall97.class.vision/slides/17.pdf
کد (نوت بوک پایتون تنسرفلو - کراس) :
http://nbviewer.jupyter.org/github/alireza-akhavan/class.vision/blob/master/57-gan-pix2pix_tensorflow_eager.ipynb
کلاس نوت فارسی pix2pix
http://blog.class.vision/1397/10/pixtopix/
#GAN #pix2pix #cyclegan #keras #tensorflow
#Image_to_Image_Translation
#deep_nude
اظهارات اخیر Andrew Ng فردی تاثیر گذار در حوزه یادگیری ماشینی، و یادگیری عمیق در مورد نرم افزار deep nude که اخیرا ارائه شده، و سوء استفاده ای از روش pix2pix است.
روش pix2pix یک روش بر مبنای #GAN است که برای #Image_to_Image_Translation استفاده میشود. در این روش تصویر ۱ توسط شبکه عصبی عمیق به تصویر متناظر ۲ تبدیل می گردد، که در این نرم افزار تصویر افراد ورودی شبکه، و تصویر بدون لباس فرد را خروجی میدهد.
https://twitter.com/AndrewYNg/status/1144668413140144128?s=19
جادی هم در این رابطه یک پست با عنوان
بالاخره «دوربین لخت کن» ساخته شد، و ما درکش نمی کنیم
نوشته که میتونید بخونیدش...
https://jadi.net/2019/06/deep-nude/
___
مطلب مرتبط:
#آموزش
آموزش شبکه ی مولد تخاصمی (GAN) برای تبدیل تصویر با روش pix2pix
https://www.aparat.com/v/S9bcT?c
اسلاید:
http://fall97.class.vision/slides/17.pdf
کد (نوت بوک پایتون تنسرفلو - کراس) :
http://nbviewer.jupyter.org/github/alireza-akhavan/class.vision/blob/master/57-gan-pix2pix_tensorflow_eager.ipynb
کلاس نوت فارسی pix2pix
http://blog.class.vision/1397/10/pixtopix/
#GAN #pix2pix #cyclegan #keras #tensorflow
#Image_to_Image_Translation
#deep_nude
Twitter
Andrew Ng
I’m glad DeepNude is dead. As a person and as a father, I thought this was one of the most disgusting applications of AI. To the AI Community: You have superpowers, and what you build matters. Please use your powers on worthy projects that move the world…
Self-Attention Generative Adversarial Networks
Han Zhang, Ian Goodfellow, Dimitris Metaxas, Augustus Odena
SAGAN allows attention-driven, long-range dependency modeling for image generation tasks.
Traditional convolutional GANs generate high-resolution details as a function of only spatially local points in lower-resolution feature maps. In SAGAN, details can be generated using cues from all feature locations. Moreover, the discriminator can check that highly detailed features in distant portions of the image are consistent with each other. Furthermore, recent work has shown that generator conditioning affects GAN performance.
Paper: https://arxiv.org/pdf/1805.08318
GitHub: https://github.com/brain-research/self-attention-gan
#GAN #SAGAN #مقاله #کد
Han Zhang, Ian Goodfellow, Dimitris Metaxas, Augustus Odena
SAGAN allows attention-driven, long-range dependency modeling for image generation tasks.
Traditional convolutional GANs generate high-resolution details as a function of only spatially local points in lower-resolution feature maps. In SAGAN, details can be generated using cues from all feature locations. Moreover, the discriminator can check that highly detailed features in distant portions of the image are consistent with each other. Furthermore, recent work has shown that generator conditioning affects GAN performance.
Paper: https://arxiv.org/pdf/1805.08318
GitHub: https://github.com/brain-research/self-attention-gan
#GAN #SAGAN #مقاله #کد
GitHub
GitHub - brain-research/self-attention-gan
Contribute to brain-research/self-attention-gan development by creating an account on GitHub.
Tensorflow(@CVision)
#آموزش #pix2pix #GAN همانطور که میدانید سایز وزودی شبکه U-Net در مدل pix2pix در مقاله آن به صورت 256x256 است. حالا اگر بخواهیم عکس هایی با سایز کوچکتر مثلا 32x32( مثلا در دیتاست Cifar10) به شبکه ورودی دهیم باید چه کنیم؟ یک راه ریسایز کردن عکس به سایز ورودی…
#کد #GAN #pix2pix #keras
سایز وزودی شبکه U-Net در مدل pix2pix در مقاله آن به صورت 256 در 256 است. حالا اگر بخواهیم عکس هایی با سایز کوچکتر مثلا 32 در 32 را به شبکه ورودی بدهیم، بهتر است معماری مدل(هم شبکه مولد و هم شبکه تمییز دهنده) را اصلاح کنیم.
در این صفحه میتوانید کد کراس مربوط به این مدل را متناسب با سایز ورودی 32 در 32 موجود در دیتاست Cifar10 و با پارامترهای بسیار کمتر ببینید:
https://github.com/vrkh1996/pix2pix-modified
نتیجه آموزش مدل روی دیتاست Cifar10 برای 3 ایپاک به صورت اینکه مدل هر عکس ورودی را بازسازی کند برابر است با میانگین قدر مطلق خطا 0.0113 روی مجموعه آزمون(یعنی مدل به طور میانگین میتواند با دقت حدود 99 درصد همان عکس های ورودی را بازسازی کند).
فیلم آموزش مربوط به این مبحث:
https://www.aparat.com/v/S9bcT
سایز وزودی شبکه U-Net در مدل pix2pix در مقاله آن به صورت 256 در 256 است. حالا اگر بخواهیم عکس هایی با سایز کوچکتر مثلا 32 در 32 را به شبکه ورودی بدهیم، بهتر است معماری مدل(هم شبکه مولد و هم شبکه تمییز دهنده) را اصلاح کنیم.
در این صفحه میتوانید کد کراس مربوط به این مدل را متناسب با سایز ورودی 32 در 32 موجود در دیتاست Cifar10 و با پارامترهای بسیار کمتر ببینید:
https://github.com/vrkh1996/pix2pix-modified
نتیجه آموزش مدل روی دیتاست Cifar10 برای 3 ایپاک به صورت اینکه مدل هر عکس ورودی را بازسازی کند برابر است با میانگین قدر مطلق خطا 0.0113 روی مجموعه آزمون(یعنی مدل به طور میانگین میتواند با دقت حدود 99 درصد همان عکس های ورودی را بازسازی کند).
فیلم آموزش مربوط به این مبحث:
https://www.aparat.com/v/S9bcT
Forwarded from کلاس ویژن: یادگیری عمیق و بینایی کامپیوتر
#آموزش
آموزش شبکه ی مولد تخاصمی (GAN) برای تبدیل تصویر با روش های pix2pix و CycleGAN و پیاده سازی
https://www.aparat.com/v/S9bcT?c
جلسه آخر مباحث ویژه 2 با موضوع "یادگیری ژرف پیشرفته" مقطع کارشناسی دانشگاه تربیت دبیر شهید رجایی
دوشنبه، ۳ دی ۱۳۹۷
اسلاید:
http://fall97.class.vision/slides/17.pdf
کد (نوت بوک پایتون تنسرفلو - کراس) :
http://nbviewer.jupyter.org/github/alireza-akhavan/class.vision/blob/master/57-gan-pix2pix_tensorflow_eager.ipynb
#GAN #pix2pix #cyclegan #keras #tensorflow
#Image_to_Image_Translation
آموزش شبکه ی مولد تخاصمی (GAN) برای تبدیل تصویر با روش های pix2pix و CycleGAN و پیاده سازی
https://www.aparat.com/v/S9bcT?c
جلسه آخر مباحث ویژه 2 با موضوع "یادگیری ژرف پیشرفته" مقطع کارشناسی دانشگاه تربیت دبیر شهید رجایی
دوشنبه، ۳ دی ۱۳۹۷
اسلاید:
http://fall97.class.vision/slides/17.pdf
کد (نوت بوک پایتون تنسرفلو - کراس) :
http://nbviewer.jupyter.org/github/alireza-akhavan/class.vision/blob/master/57-gan-pix2pix_tensorflow_eager.ipynb
#GAN #pix2pix #cyclegan #keras #tensorflow
#Image_to_Image_Translation
آپارات - سرویس اشتراک ویدیو
مباحث ویژه 2 - جلسه 23 - آخرین جلسه(pix2pix و CycleGAN)
در این جلسه در ادامه مبحث GAN پیرامون Image-to-Image Translation و روش های pix2pix و CycleGAN بحث شد و همچنین یک پیاده سازی کامل ا pix2pix را در تنسرفلو با کراس دیدیم.
اسلاید:
http://fall97.class.vision/slides/17.pdf
کد:
http://nbviewer.jupyter.org/github/alireza…
اسلاید:
http://fall97.class.vision/slides/17.pdf
کد:
http://nbviewer.jupyter.org/github/alireza…
This media is not supported in your browser
VIEW IN TELEGRAM
#مقاله #سورس_کد
MixNMatch: Multifactor Disentanglement and Encoding for Conditional Image Generation
Paper:
https://arxiv.org/abs/1911.11758
Github:
https://github.com/Yuheng-Li/MixNMatch
#GAN
MixNMatch: Multifactor Disentanglement and Encoding for Conditional Image Generation
Paper:
https://arxiv.org/abs/1911.11758
Github:
https://github.com/Yuheng-Li/MixNMatch
#GAN
DeepPrivacy: A Generative Adversarial Network for Face Anonymization
Abstract:
We propose a novel architecture which is able to automatically anonymize faces in images while retaining the original data distribution. We ensure total anonymization of all faces in an image by generating images exclusively on privacy-safe information. Our model is based on a conditional generative adversarial network, generating images considering the original pose and image background. The conditional information enables us to generate highly realistic faces with a seamless transition between the generated face and the existing background. Furthermore, we introduce a diverse dataset of human faces, including unconventional poses, occluded faces, and a vast variability in backgrounds. Finally, we present experimental results reflecting the capability of our model to anonymize images while preserving the data distribution, making the data suitable for further training of deep learning models. As far as we know, no other solution has been proposed that guarantees the anonymization of faces while generating realistic images.
Paper: https://arxiv.org/abs/1909.04538
Code: https://github.com/hukkelas/DeepPrivacy
#GAN #Face
Abstract:
We propose a novel architecture which is able to automatically anonymize faces in images while retaining the original data distribution. We ensure total anonymization of all faces in an image by generating images exclusively on privacy-safe information. Our model is based on a conditional generative adversarial network, generating images considering the original pose and image background. The conditional information enables us to generate highly realistic faces with a seamless transition between the generated face and the existing background. Furthermore, we introduce a diverse dataset of human faces, including unconventional poses, occluded faces, and a vast variability in backgrounds. Finally, we present experimental results reflecting the capability of our model to anonymize images while preserving the data distribution, making the data suitable for further training of deep learning models. As far as we know, no other solution has been proposed that guarantees the anonymization of faces while generating realistic images.
Paper: https://arxiv.org/abs/1909.04538
Code: https://github.com/hukkelas/DeepPrivacy
#GAN #Face
GitHub
GitHub - hukkelas/DeepPrivacy: DeepPrivacy: A Generative Adversarial Network for Face Anonymization
DeepPrivacy: A Generative Adversarial Network for Face Anonymization - hukkelas/DeepPrivacy
AutoML + GAN = AutoGAN
AutoGAN: Neural Architecture Search for Generative Adversarial Networks
همانطور که میدانید آموزش GANها ترفندهای زیادی دارد و رسیدن به بهترین هایپرپرامترها کاری بسیار سخت و نیازمند جستجوی زیاد در فضای مسئله میباشد. این مقاله که در ICCV 2019 پذیرفته شده رویکردی را ارائه داده که میتواند تقریبا یکی از بهترین حالتها را برای هایپرپارامترهای GAN به صورت خودکار پیدا کند.
در این رویکرد فضای جستجویی برای شبکه مولد (Generator) تعریف شده و به وسیله یک شبکه بازگشتی (RNN) این جستجو هدایت میشود.
Paper: https://arxiv.org/abs/1908.03835
Code: https://github.com/TAMU-VITA/AutoGAN
#GAN
AutoGAN: Neural Architecture Search for Generative Adversarial Networks
همانطور که میدانید آموزش GANها ترفندهای زیادی دارد و رسیدن به بهترین هایپرپرامترها کاری بسیار سخت و نیازمند جستجوی زیاد در فضای مسئله میباشد. این مقاله که در ICCV 2019 پذیرفته شده رویکردی را ارائه داده که میتواند تقریبا یکی از بهترین حالتها را برای هایپرپارامترهای GAN به صورت خودکار پیدا کند.
در این رویکرد فضای جستجویی برای شبکه مولد (Generator) تعریف شده و به وسیله یک شبکه بازگشتی (RNN) این جستجو هدایت میشود.
Paper: https://arxiv.org/abs/1908.03835
Code: https://github.com/TAMU-VITA/AutoGAN
#GAN
GitHub
GitHub - VITA-Group/AutoGAN: [ICCV 2019] "AutoGAN: Neural Architecture Search for Generative Adversarial Networks" by Xinyu Gong…
[ICCV 2019] "AutoGAN: Neural Architecture Search for Generative Adversarial Networks" by Xinyu Gong, Shiyu Chang, Yifan Jiang and Zhangyang Wang - GitHub - VITA-Group/AutoGAN: [IC...
Forwarded from رویدادهای هوش مصنوعی
#رویداد #آنلاین #رایگان #GAN
GANs for Good
چهارشنبه ۹ مهرماه
این رویداد آنلاین که با حضور بزرگان یادگیری عمیق برگزار می شود رایگان است. همین حالا ثبت نام کنید:
https://www.eventbrite.com/e/gans-for-good-tickets-121256079197?aff=speaker1
➖➖➖➖➖➖➖➖➖
این کانال با هدف آگاه سازی از رویدادهای مرتبط با هوش مصنوعی نظیر همایش، کنفرانس، ورکشاپ، کلاس و ... تشکیل شده است.
@eventai
GANs for Good
چهارشنبه ۹ مهرماه
این رویداد آنلاین که با حضور بزرگان یادگیری عمیق برگزار می شود رایگان است. همین حالا ثبت نام کنید:
https://www.eventbrite.com/e/gans-for-good-tickets-121256079197?aff=speaker1
➖➖➖➖➖➖➖➖➖
این کانال با هدف آگاه سازی از رویدادهای مرتبط با هوش مصنوعی نظیر همایش، کنفرانس، ورکشاپ، کلاس و ... تشکیل شده است.
@eventai
بازسازی چهره امروزی چهرههای تاریخی با کمک هوش مصنوعی
چپ/از بالا به پایین:
صلاحالدین ایوبی
عیسی مسیح
ملکه نفرتیتی
داوینچی
راست/ از بالا به پایین:
ژوکوند
شکسپیر
کلوپاترا
داوود اثر میکل آنژ
#GAN
🙏Thanks to: @akhbar_montakhab
چپ/از بالا به پایین:
صلاحالدین ایوبی
عیسی مسیح
ملکه نفرتیتی
داوینچی
راست/ از بالا به پایین:
ژوکوند
شکسپیر
کلوپاترا
داوود اثر میکل آنژ
#GAN
🙏Thanks to: @akhbar_montakhab
Tensorflow(@CVision)
آخرین فرصت ثبت نام این هفته سه شنبه 5 ام بهمن است. #رویداد_آنلاین زمان تشکیل کلاس: 7 الی 22 بهمن به مدت 18 ساعت. مدرس: علیرضا اخوان پور http://class.vision/product/gan-winter400/
#GAN
بزرگوارانی که این دوره را ثبت نام کردند، اما هنوز به گروه اد نشدند، لطفا به پشتیبانی دوره پیام بدهند:
@cvision_support
بزرگوارانی که این دوره را ثبت نام کردند، اما هنوز به گروه اد نشدند، لطفا به پشتیبانی دوره پیام بدهند:
@cvision_support
This media is not supported in your browser
VIEW IN TELEGRAM
Self-Distilled StyleGAN: Towards Generation from Internet Photos
#gan
#StyleGAN
https://self-distilled-stylegan.github.io/
#gan
#StyleGAN
https://self-distilled-stylegan.github.io/
StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-Image Synthesis
Video | Project page | Github | Paper
#GAN #StyleGAN
Video | Project page | Github | Paper
#GAN #StyleGAN
YouTube
StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-Image Synthesis
Project page: https://sites.google.com/view/stylegan-t/
This media is not supported in your browser
VIEW IN TELEGRAM
Drag Your GAN: Interactive Point-based Manipulation on the Generative Image Manifold
https://huggingface.co/papers/2305.10973
#gan
https://huggingface.co/papers/2305.10973
#gan