تمارین سری 5 با عنوان "تاخیر تمرین 5" برای دو روز دیگر باز شد.
کدهای ارسالی نیمی از نمره را دریافت خواهند کرد.
کدهای ارسالی نیمی از نمره را دریافت خواهند کرد.
سلام
یکی از دوستان لطفا به نمایندگی بقیه فیلم های سال 2016 و سال 2017 کورس CS231n استنفورد با موضوع شبکه های کانولوشنالی برای بینایی ماشین
CS231n: Convolutional Neural Networks for Visual Recognition
http://cs231n.stanford.edu/
را از بنده بگیره. البته این کورس امسال 2018 هم در حال اجراست و احتمالا ویدیوهاش منتشر بشه.
برخی از ویدیوهای این کورس کاملا مرتبط با کلاس بوده و دیدن ویدیوهایی که خدمتتان اعلام میکنم شدیدا توصیه میگردد.
یکی از دوستان لطفا به نمایندگی بقیه فیلم های سال 2016 و سال 2017 کورس CS231n استنفورد با موضوع شبکه های کانولوشنالی برای بینایی ماشین
CS231n: Convolutional Neural Networks for Visual Recognition
http://cs231n.stanford.edu/
را از بنده بگیره. البته این کورس امسال 2018 هم در حال اجراست و احتمالا ویدیوهاش منتشر بشه.
برخی از ویدیوهای این کورس کاملا مرتبط با کلاس بوده و دیدن ویدیوهایی که خدمتتان اعلام میکنم شدیدا توصیه میگردد.
کورس نوت دانشگاه استنفورد پیرامون شبکه های کانولوشنالی
در سال 2018
http://cs231n.github.io/convolutional-networks/
در سال 2018
http://cs231n.github.io/convolutional-networks/
cs231n.github.io
CS231n Deep Learning for Computer Vision
Course materials and notes for Stanford class CS231n: Deep Learning for Computer Vision.
سلام
تا کنون با شبکه های کانولوشنالی آشنا شدیم و در کراس چند شبکه پیاده سازی کردیم. همان طور که برای افزایش مهارت برنامه نویسی و کسب تجربه خواندن کدهای خوب دیگران خیلی توصیه میشه،
برای طراحی خوب یک شبکه عصبی عمیق خوب است که شبکه هایی که در چالش های جهانی خیلی خوب عمل کردند را بررسی کنیم.
فردا شبکه هایی که در سالهای اخیر مطرح شدند و به کارایی های خیلی خوب رسیدند مورد بررسی قرار خواهد گرفت.
در این راستا برای مرور شبکه های کانولوشنالی و پیش مطالعه بخشی از مبحث فردا که بررسی شبکه های معروف و موفق شبکه های کانولوشنالی است ویدیوی زیر از Andrej Karpathy را توصیه میکنم.
لینک یویتیوب:
https://www.youtube.com/watch?v=LxfUGhug-iQ
لینک موقت در سایت درس:
http://class.vision/temp/CS231n%20Winter%202016%20-%20Lecture%207%20-%20Convolutional%20Neural%20Networks-LxfUGhug-iQ.mkv
تا کنون با شبکه های کانولوشنالی آشنا شدیم و در کراس چند شبکه پیاده سازی کردیم. همان طور که برای افزایش مهارت برنامه نویسی و کسب تجربه خواندن کدهای خوب دیگران خیلی توصیه میشه،
برای طراحی خوب یک شبکه عصبی عمیق خوب است که شبکه هایی که در چالش های جهانی خیلی خوب عمل کردند را بررسی کنیم.
فردا شبکه هایی که در سالهای اخیر مطرح شدند و به کارایی های خیلی خوب رسیدند مورد بررسی قرار خواهد گرفت.
در این راستا برای مرور شبکه های کانولوشنالی و پیش مطالعه بخشی از مبحث فردا که بررسی شبکه های معروف و موفق شبکه های کانولوشنالی است ویدیوی زیر از Andrej Karpathy را توصیه میکنم.
لینک یویتیوب:
https://www.youtube.com/watch?v=LxfUGhug-iQ
لینک موقت در سایت درس:
http://class.vision/temp/CS231n%20Winter%202016%20-%20Lecture%207%20-%20Convolutional%20Neural%20Networks-LxfUGhug-iQ.mkv
YouTube
CS231n Winter 2016: Lecture 7: Convolutional Neural Networks
Stanford Winter Quarter 2016 class: CS231n: Convolutional Neural Networks for Visual Recognition. Lecture 7.
Get in touch on Twitter @cs231n, or on Reddit /r/cs231n.
Get in touch on Twitter @cs231n, or on Reddit /r/cs231n.
Forwarded from Deleted Account
Media is too big
VIEW IN TELEGRAM
بصری سازی لایه های مختلف یک شبکه عصبی کانولوشنالی
http://Class.Vision/
http://Class.Vision/
کلاس ویژن: یادگیری عمیق و بینایی کامپیوتر
#فرصت_آخر #تمرین مهلت نهایی تحویل سری 1و2و3و4و5 تمارین برای کسانی که تا الان جا مانده اند سه شنبه ی هفته ی بعد است. سایت برای این افراد باز نخواهد شد و باید کدهای خود را حضورا تحویل داده و توضیح کدها را مسلط باشند. با تشکر
این فرصت برای جبران تقلبهای گرفته شده هم برقرار است
Forwarded from Atefe Valipour
برای تمرین سری شیش قسمت ج که ران کردن کد تو گوگل کولبه یه راهی که من امتحانش کردم اینه که اول یه نوت بوک جدید باز کنین بعد طبق دستورات این لینک پارت به پارت کدا رو وارد کنین و درایو و بهش بشناسونین
https://stackoverflow.com/questions/48967757/cant-read-a-file-in-google-colaboratory?utm_medium=organic&utm_source=google_rich_qa&utm_campaign=google_rich_qa
بعد از دستور زیر استفاده کنین که خودش میره دیتاستو دانلود میکنه و توی فایل سیستم لوکال گوگل کولب قرارش میده
!wget http://dataset.class.vision/catVsdog.zip
بعد با دستور
!unzip catVsdog
فایل آنزیپ میشه و دیگه میشه مثل محیط ویندوز بهش دسترسی داشت
https://stackoverflow.com/questions/48967757/cant-read-a-file-in-google-colaboratory?utm_medium=organic&utm_source=google_rich_qa&utm_campaign=google_rich_qa
بعد از دستور زیر استفاده کنین که خودش میره دیتاستو دانلود میکنه و توی فایل سیستم لوکال گوگل کولب قرارش میده
!wget http://dataset.class.vision/catVsdog.zip
بعد با دستور
!unzip catVsdog
فایل آنزیپ میشه و دیگه میشه مثل محیط ویندوز بهش دسترسی داشت
Stack Overflow
Can't read a file in google colaboratory
Can't read a file in google colaboratory .
I have .ipynb file and .csv files in the same directory but when I try to run:
train = pd.read_csv("train.csv")
I get:
FileNotFoundError: File b'train...
I have .ipynb file and .csv files in the same directory but when I try to run:
train = pd.read_csv("train.csv")
I get:
FileNotFoundError: File b'train...
کلاس ویژن: یادگیری عمیق و بینایی کامپیوتر
#پروژه همان طور که اطلاع دارید، آخرین جلسه کلاس ها تحویل پروژه خواهد بود، لطفا موضوع خود را در حداقل یک پاراگراف و گروه تا 3 نفره ی خودتون را تا دو هفته ی آینده اطلاع دهید. پروژه ی نهایی 4 نمره داشته و نیاز به مستندات و گزارش کار و ارائه حضوری خواهد داشت.
مهلت دو هفته به پایان رسید.
لطفا نهایت تا یکشنبه 16 اردیبهشت گروه نهایی خود به همراه توضیح یک پاراگرافه از #پروژه خود ارسال نمایید.
لطفا نهایت تا یکشنبه 16 اردیبهشت گروه نهایی خود به همراه توضیح یک پاراگرافه از #پروژه خود ارسال نمایید.
Forwarded from Tensorflow(@CVision) (Alireza Akhavan)
🌺🌺🌺🌺
میلاد با سعادت امام زمان مبارک باد
🌺🌺🌺🌺
صبحی گره از زمانه وا خواهد شد
راز شب تار بر ملا خواهد شد
در راه، عزیزیست که با آمدنش
هر قطبنما،قبلهنما خواهد شد
(میلاد عرفان پور)
میلاد با سعادت امام زمان مبارک باد
🌺🌺🌺🌺
صبحی گره از زمانه وا خواهد شد
راز شب تار بر ملا خواهد شد
در راه، عزیزیست که با آمدنش
هر قطبنما،قبلهنما خواهد شد
(میلاد عرفان پور)
#تمرین
سلام
برای تمرین بخش بازشناسی و تطبیق چهره قرار است هر فرد روی 10 نفر مجزا از بازیگران کار کند، در این راستا سامانه زیر راه اندازی شده، برای استفاده از این سامانه باید در سایت درس لاگین باشید.
لطفا هر شخص 10 نام بازیگر، از لیست زیر انتخاب کند
اگر بازیگر مورد علاقتون در لیست نیست حتما اعلام کنید لیست به روز شود،
در گام بعدی مراحل جمع آوری دیتاست برای تمرین بازشناسی چهره بازیگران ایرانی اعلام میشود،
برای مثال ممکن است از طریق همین سامانه 100 جست و جوی اول گوگل چهره هایی که انتخاب کردید را بتوانید در فایل زیپ دانلود کنید.
گام بعدی پیش پردازش دیتاست و حذف اشتباهات مجموعه داده توسط شما خواهد بود.
iran-celeb.ir
سلام
برای تمرین بخش بازشناسی و تطبیق چهره قرار است هر فرد روی 10 نفر مجزا از بازیگران کار کند، در این راستا سامانه زیر راه اندازی شده، برای استفاده از این سامانه باید در سایت درس لاگین باشید.
لطفا هر شخص 10 نام بازیگر، از لیست زیر انتخاب کند
اگر بازیگر مورد علاقتون در لیست نیست حتما اعلام کنید لیست به روز شود،
در گام بعدی مراحل جمع آوری دیتاست برای تمرین بازشناسی چهره بازیگران ایرانی اعلام میشود،
برای مثال ممکن است از طریق همین سامانه 100 جست و جوی اول گوگل چهره هایی که انتخاب کردید را بتوانید در فایل زیپ دانلود کنید.
گام بعدی پیش پردازش دیتاست و حذف اشتباهات مجموعه داده توسط شما خواهد بود.
iran-celeb.ir
Forwarded from Tensorflow(@CVision) (Alireza Akhavan)
#مقاله جدید Google Deepmind :
Understanding deep learning through neuron deletion
Pic: https://bit.ly/2pHgwbK
یکی از راه هایی که دانشمندان هم در نوروساینس برای شناخت سیستم استفاده میکنند بررسی نورون های قابل تفسیر یا selective به یک شی یا چیز خاص است.
این نوع مطالعه در یادگیری عمیق و شبکه های عصبی نیز رایج است و برای اینکه دید جعبه سیاه و گنگ نسبت به یک شبکه عمیق آموزش دیده شده را کم کنیم مهم است که شبکه را بهتر بشناسیم. همان طور که اشاره شد یکی از روشها بررسی این است که هر نورون چه قدر در عملکرد شبکه تاثیر دارد.
در این تحقیق نشان داده شده که:
۱- نورون هایی که برای ما قابل تفسیرند(مثل نورونی که به چهره گربه حساس هستند) به هیچ عنوان از نورونهایی که برای ما قابل تفسیر نیستند مهمتر نیستند و حذف هر کدام از نورونهای قابل تفسیر و غیر قابل تفسیر تاثیر یکسانی روی افت کارایی عملکرد شبکه دارد.
۲- شبکه هایی که دیتا را حفظ نکرند و راحت روی دیتایی که در فرآیند آموزش ندیده اند میتوانند عمومیت بخشی کنند به حذف تک تک نورونها کمتر حساس هستند تا شبکه هایی که دیتای آموزشی را حفظ کرده اند.
https://deepmind.com/blog/understanding-deep-learning-through-neuron-deletion/
#neuroscience #deep_learning
#deepmind #selective
Understanding deep learning through neuron deletion
Pic: https://bit.ly/2pHgwbK
یکی از راه هایی که دانشمندان هم در نوروساینس برای شناخت سیستم استفاده میکنند بررسی نورون های قابل تفسیر یا selective به یک شی یا چیز خاص است.
این نوع مطالعه در یادگیری عمیق و شبکه های عصبی نیز رایج است و برای اینکه دید جعبه سیاه و گنگ نسبت به یک شبکه عمیق آموزش دیده شده را کم کنیم مهم است که شبکه را بهتر بشناسیم. همان طور که اشاره شد یکی از روشها بررسی این است که هر نورون چه قدر در عملکرد شبکه تاثیر دارد.
در این تحقیق نشان داده شده که:
۱- نورون هایی که برای ما قابل تفسیرند(مثل نورونی که به چهره گربه حساس هستند) به هیچ عنوان از نورونهایی که برای ما قابل تفسیر نیستند مهمتر نیستند و حذف هر کدام از نورونهای قابل تفسیر و غیر قابل تفسیر تاثیر یکسانی روی افت کارایی عملکرد شبکه دارد.
۲- شبکه هایی که دیتا را حفظ نکرند و راحت روی دیتایی که در فرآیند آموزش ندیده اند میتوانند عمومیت بخشی کنند به حذف تک تک نورونها کمتر حساس هستند تا شبکه هایی که دیتای آموزشی را حفظ کرده اند.
https://deepmind.com/blog/understanding-deep-learning-through-neuron-deletion/
#neuroscience #deep_learning
#deepmind #selective
کلاس ویژن: یادگیری عمیق و بینایی کامپیوتر
#مقاله جدید Google Deepmind : Understanding deep learning through neuron deletion Pic: https://bit.ly/2pHgwbK یکی از راه هایی که دانشمندان هم در نوروساینس برای شناخت سیستم استفاده میکنند بررسی نورون های قابل تفسیر یا selective به یک شی یا چیز خاص است. این…
این مقاله قبلا در کانال فرستاده شده بود،
کار چند هفته پیش گوگل دیپ مایند است ، و با بصری سازی نورونها که در جلسه گذشته داریم مرتبط است.
کار چند هفته پیش گوگل دیپ مایند است ، و با بصری سازی نورونها که در جلسه گذشته داریم مرتبط است.
برای دوستانی که علاقه دارند مقاله بخونند در گام نخست مقاله الکسنت
https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf
به جز بخش های
3.3 Local Response Normalization
3.5 Overall Architecture
و در گام دوم مقاله
VGG
https://arxiv.org/pdf/1409.1556.pdf
توصیه میشود.
مقاله نخست چون حاوی ایده های
data augmentation
dropout
relu
است شدیدا توصیه میشه.
به هر حال هیچ ضرورت و اجباری برای این درس نیست.
https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf
به جز بخش های
3.3 Local Response Normalization
3.5 Overall Architecture
و در گام دوم مقاله
VGG
https://arxiv.org/pdf/1409.1556.pdf
توصیه میشود.
مقاله نخست چون حاوی ایده های
data augmentation
dropout
relu
است شدیدا توصیه میشه.
به هر حال هیچ ضرورت و اجباری برای این درس نیست.
کلاس ویژن: یادگیری عمیق و بینایی کامپیوتر pinned «#تمرین سلام برای تمرین بخش بازشناسی و تطبیق چهره قرار است هر فرد روی 10 نفر مجزا از بازیگران کار کند، در این راستا سامانه زیر راه اندازی شده، برای استفاده از این سامانه باید در سایت درس لاگین باشید. لطفا هر شخص 10 نام بازیگر، از لیست زیر انتخاب کند اگر بازیگر…»
Forwarded from Tensorflow(@CVision) (Alireza Akhavan)
#خبر
فیس بوک با میلیاردها تصویر آپلود شده در اینستاگرام یک شبکه کانولوشنالی را آموزش داد!
فیس بوک اخیرا با استفاده از 3.5 میلیارد تصویر اینستاگرام، در 17000 هشتگ مختلف یک شبکه عصبی کانولوشنالی را آموزش داده است.
این شبکه بر روی داده های تست چالش ImageNet به دقت 85.4 دست یافته است، که بهترین مدل قبل از این به دقت 83.1 دست یافته بود!
نکته قابل تامل نویزی بودن هشتگهای اینستاگرام در مقابل مجموعه داده ی بادقت برچسب زده شده ی آموزشی imagenet است.
به عقیده فیس بوک:
"As training data sets get larger, the need for weakly supervised — and, in the longer term, unsupervised — learning will become increasingly vital," said Facebook. "Understanding how to offset the disadvantages of noisier, less curated labels is critical to building and using larger-scale training sets."
https://www.engadget.com/2018/05/02/facebook-trained-image-recognition-ai-instagram-pics/
https://www.wired.com/story/your-instagram-dogs-and-cats-are-training-facebooks-ai/
#classification #image_recognition
#convolutional_neutral_network #cnn
#deep_learning #facebook #imagenet
فیس بوک با میلیاردها تصویر آپلود شده در اینستاگرام یک شبکه کانولوشنالی را آموزش داد!
فیس بوک اخیرا با استفاده از 3.5 میلیارد تصویر اینستاگرام، در 17000 هشتگ مختلف یک شبکه عصبی کانولوشنالی را آموزش داده است.
این شبکه بر روی داده های تست چالش ImageNet به دقت 85.4 دست یافته است، که بهترین مدل قبل از این به دقت 83.1 دست یافته بود!
نکته قابل تامل نویزی بودن هشتگهای اینستاگرام در مقابل مجموعه داده ی بادقت برچسب زده شده ی آموزشی imagenet است.
به عقیده فیس بوک:
"As training data sets get larger, the need for weakly supervised — and, in the longer term, unsupervised — learning will become increasingly vital," said Facebook. "Understanding how to offset the disadvantages of noisier, less curated labels is critical to building and using larger-scale training sets."
https://www.engadget.com/2018/05/02/facebook-trained-image-recognition-ai-instagram-pics/
https://www.wired.com/story/your-instagram-dogs-and-cats-are-training-facebooks-ai/
#classification #image_recognition
#convolutional_neutral_network #cnn
#deep_learning #facebook #imagenet
Engadget
Facebook trained image recognition AI with billions of Instagram pics
The method could allow deep learning models to be trained with less human supervision.
کلاس ویژن: یادگیری عمیق و بینایی کامپیوتر
#خبر فیس بوک با میلیاردها تصویر آپلود شده در اینستاگرام یک شبکه کانولوشنالی را آموزش داد! فیس بوک اخیرا با استفاده از 3.5 میلیارد تصویر اینستاگرام، در 17000 هشتگ مختلف یک شبکه عصبی کانولوشنالی را آموزش داده است. این شبکه بر روی داده های تست چالش ImageNet…
اعدادی که برای مدل های AlexNet,VGG,ResNet و Inception در اسلایدهای جلسه 16 دیدید مربوط به Top-5 Error بود.
این 85.4 معیار Accuracy است. یا میشه دقت top-1
این 85.4 معیار Accuracy است. یا میشه دقت top-1
Forwarded from Tensorflow(@CVision)
Vision Reconstruction.mp4
27.1 MB