Tensorflow(@CVision)
13.9K subscribers
1.17K photos
239 videos
68 files
2.23K links
اخبار حوزه یادگیری عمیق و هوش مصنوعی
مقالات و یافته های جدید یادگیری عمیق
بینایی ماشین و پردازش تصویر

TensorFlow, Keras, Deep Learning, Computer Vision

سایت دوره
http://class.vision

👨‍💻👩‍💻پشتیبان دوره ها:
@classvision_support
Download Telegram
#آموزش #ویدیو
از سری ویدیوها API سطح بالای تنسرفلو،
آماده سازی و لود داده برای آموزش یک مدل

Learn about TensorFlow’s High Level APIs in this new series from Karmel Allison. In the first episode she covers how you can prepare your data for #ML training!

https://www.youtube.com/watch?v=oFFbKogYdfc&list=PLQY2H8rRoyvwLbzbnKJ59NkZvQAW9wLbx

#tensorflow
#منبع #کورس #ویدیو

یه کورس نسبتا کامل دیپ لرنینگ از دانشگاه Paris-saclay
Deep Learning course: lecture slides and lab notebooks
This course is being taught at as part of Master Datascience Paris Saclay.

https://m2dsupsdlclass.github.io/lectures-labs/

🙏Thanks to: @vahidreza01
#آموزش #منبع #کورس #ویدیو
اسلایدها و ویدیوهای کورس بینایی ماشین و یادگیری عمیق و شبکه های کانولوشنالی دانشگاه MIT

Intro to DeepLearning lecture on Deep Computer Vision and Convolutional Neural Networks

MIT course schedule and slides:
http://introtodeeplearning.com

Lecture Video:
https://www.youtube.com/watch?v=H-HVZJ7kGI0&list=PLtBw6njQRU-rwp5__7C0oIVt26ZgjG9NI&t=0s&index=15

#MIT #slides
#کورس #منبع #آموزش #ویدیو

ویدیوها و اسلایدهای کورس جدید یادگیری بدون ناظر عمیق دانشگاه برکلی.
اسلایدها و ویدیوها هفتگی اضافه میشود.

CS294-158 Deep Unsupervised Learning Spring 2019
https://sites.google.com/view/berkeley-cs294-158-sp19/home

Tentative Schedule / Syllabus
Week 1 (1/30)

Lecture 1a: Logistics

Lecture 1b: Motivation

Lecture 1c: Likelihood-based Models Part I: Autoregressive Models
Week 2 (2/6)

Lecture 2a: Likelihood-based Models Part I: Autoregressive Models (ctd)

Lecture 2b: Lossless Compression

Lecture 2c: Likelihood-based Models Part II: Flow Models
Week 3 (2/13)

Lecture 3a: Likelihood-based Models Part II: Flow Models (ctd)

Lecture 3b: Latent Variable Models - part 1
Week 4 (2/20)

Lecture 4a: Latent Variable Models - part 2

Lecture 4b: Bits-Back Coding
Week 5 (2/27)

Lecture 5: Implicit Models / Generative Adversarial Networks
Week 6 (3/6)

Lecture 6: Non-Generative Representation Learning
Week 7 (3/13)

Lecture 7a: Non-Generative Representation Learning (ctd)

Lecture 7b: Semi-supervised Learning
Week 8 (3/20)

Lecture 8: Representation Learning + Other Problems
Spring Break Week (3/27)

you are on your own :)
Week 9 (4/3)

Lecture 9a: Unsupervised Distribution Alignment

Lecture 9b: Guest Lecture: Ilya Sutskever
Week 10 (4/10)

Lecture 10a: Unsupervised Distribution Alignment (ctd)

Lecture 10b: Guest Lecture: Durk Kingma
Week 11 (4/17)

Lecture 11: Language Models (Alec Radford)
Week 12 (4/24)

Lecture 12a: Unsupervised RL

Lecture 12b: Guest Lecture Alyosha Efros
Week 13 (5/1)

Lecture 13a: TBD

Lecture 13b: Guest Lecture Aaron van den Oord
Week 14 (5/8)

RRR week: no lecture
Week 15 (5/15)

Final Project Presentations
#آموزش #ویدیو #سورس_کد

اسلایدها:
https://www.slideshare.net/Alirezaakhavanpour/deep-face-recognition-oneshot-learning
تشخیص چهره- بخش اول- علیرضا اخوان پور-1

•one-shot learning: Face Verification & Recognition
•Siamese network
•facenet triplet loss
https://www.aparat.com/v/xdC7r
تشخیص چهره - علیرضا اخوان پور - بخش دوم
• one-shot learning: Face Verification & Recognition
• Discriminative Feature
• Center loss
https://www.aparat.com/v/qmo3u

کدهای این ارائه
در گیت هاب هوش پارت و همچنین آدرس گیت هاب زیر موجود است:

https://github.com/Alireza-Akhavan/deep-face-recognition

🙏Thanks to: @partdpai
#face #face_recognition #verification
#مقاله #سورس_کد #ویدیو
#morphnet

MorphNet: Towards Faster and Smaller Neural Networks
در واقع میتوان این مقاله را نوعی روش بهینه سازی شبکه فرض کرد.

در این روش با تعریف Regularization روی منابعی مثل تعداد FLOPها در زمان inference شبکه یا حجم نهایی مدل شبکه های موجود با افت حداقلی درصد یا در خیلی از موارد بدون افت دقت شبکه ی بهینه تر خروجی خواهید گرفت.
مثلا ممکنه در شبکه ی resnet این روش تصمیم بگیره فقط skip-connection باقی بماند و بلاک resnet آن قسمت کلا حذف شود (این تصویر گویا است). یا در معماری Inception خیلی از موازی ها را پاک کند.


* The method was first introduced in #CVPR 2018,
* A overview of the approach as well as new device-specific latency regularizers were prestend in #GTC 2019



🔗Blog post:
https://ai.googleblog.com/2019/04/morphnet-towards-faster-and-smaller.html

🔗MorphNet paper :
https://arxiv.org/pdf/1711.06798.pdf

🔗Source code(#tensorflow ):
https://github.com/google-research/morph-net

🔗slides:
https://github.com/google-research/morph-net/blob/master/g3doc/MorphNet_GTC2019.pdf

🔗Recording and #Video:
https://youtu.be/UvTXhTvJ_wM
https://on-demand.gputechconf.com/gtc/2019/video/_/S9645/