کلاس ویژن: یادگیری عمیق و بینایی کامپیوتر
1.62K subscribers
115 photos
12 videos
18 files
191 links
کلاس ویژن، مرجع آموزهای تخصصی دیپ لرنینگ و بینایی کامپیوتر

سایت دوره
http://class.vision

👨‍💻👩‍ پشتیبانی:
@classvision_support

AI, TensorFlow, Keras, Deep Learning, Computer Vision, GNN, GCN, RNN, LSTM,GRU, GAN, ...

کانال آموزشی:
@cvision
Download Telegram
Forwarded from Tensorflow(@CVision)
هوش مصنوعی گوگل، با استفاده از یادگیری عمیق، بهتر از هر آدم خبره ای لب خوانی میکند:
Google’s DeepMind AI can lip-read TV shows better than a pro:
pic: https://d1o50x50snmhul.cloudfront.net/wp-content/uploads/2016/11/21090036/l4.gif

برای اینکار شبکه با 118,000 عبارت در 5000 ساعت برنامه ی ویدیویی که غالبا شامل اخبار بوده آموزش دیده است

اطلاعات بیشتر:
🔗https://www.newscientist.com/article/2113299-googles-deepmind-ai-can-lip-read-tv-shows-better-than-a-pro

مقاله مرتبط:
https://arxiv.org/pdf/1611.05358v1.pdf
سلام،
ان شاء الله کلاس سه شنبه به جای ساعت اصلی خود درس،
در ساعت 13 الی 14:30 برگزار خواهد شد.
گیت‌هاب با نوت‌بوک

21-a Gentle Introduction to Keras - Simple neural network(mlp)

با موضوع کتابخانه keras و تعریف و آشنایی یک شبکه عصبی ساده به روز شد.
کلاس شماره 101 تشکیل خواهد شد.
Forwarded from Tensorflow(@CVision)
چرا استفاده از تابع فعالسازی Relu به جای sigmoid در شبکه های عمیق رایج است؟ چه مزایایی دارد؟
pic: http://jmbeaujour.com/pics/posts_pics/udacity-DL/reLu_function.png
مزایا:
- تنها 50 درصد مواقع این تابع فعال می‌شود و در نتیجه از لحاظ پردازشی صرفه جویی میشود.
- جلوی انفجار گرادیان یا محو شدن آن را میگیرد. (عجب ترجمه ای!)

- با یافته های بیولوژیکی توسط نوروساینتیست ها مطابقت بیشتری دارد (علوم شناختی)

#ReLU provides some important benefits that might not be obvious at first glance:

✔️during the initialization process of a Neural Network model, weights are distributed at random for each unit. ReLU will only activate approximately 50% of the time, which actually saves some processing
power.

✔️The ReLU structure also solves the 'Vanishing Gradient' and 'Exploding Gradient' problems,both of which are well-known issues with the training process.


✔️ as a marginal benefit, this type of activation achieves 'Biological Plausibility', because it's directly relatable to the common biological model of a neuron.
Forwarded from Tensorflow(@CVision)
#Relu
[109] Nair, V. and G. E. Hinton. 2010. “Rectified Linear Units Improve Restricted Boltzmann Machines,” Proc. 27th Int. Conf. Mach. Learn., no. 3, pp. 807–814.
کلاس ویژن: یادگیری عمیق و بینایی کامپیوتر
#Relu [109] Nair, V. and G. E. Hinton. 2010. “Rectified Linear Units Improve Restricted Boltzmann Machines,” Proc. 27th Int. Conf. Mach. Learn., no. 3, pp. 807–814.
مقاله هینتون با معرفی تابع فعالیت relu در سال 2010 یکی از دلایل اصلی تحول فیلد و ارائه اولین مدل عمیق با کارایی بسیار بالاتر مدلهای کلاسیک در سال 2012 شد.

به نظرتون تابع اشباع شونده یا saturating منظورش چیه و چرا بده؟!

فکر کنید و در کلاس فردا مطرح کنید...
فیلمهای آموزشی مرتبط با کلاس
حجم همه شون الان13 گیگه ، بعد از اکسترکت شدن 15 گیگ میشه تقریبا
کلاس ویژن: یادگیری عمیق و بینایی کامپیوتر
فیلمهای آموزشی مرتبط با کلاس حجم همه شون الان13 گیگه ، بعد از اکسترکت شدن 15 گیگ میشه تقریبا
سلام،
آقای رحیمیان لطف کردند یکسری کورس مرتبط با بینایی ماشین،
پایتون و یادگیری عمیق و پردازش تصویر دانلود کزدند،
دوستان میتونند فلش بیارند از ایشون بگیرند.
اسلایدهای امروز روی سایت قرار گرفت
http://class.vision/
Forwarded from Tensorflow(@CVision) (Alireza Akhavan)
AnacondaInstallation.txt
895 B
دستورات مورد نیاز استفاده شده در ویدیو برای نصب در ویندوز(1)
Forwarded from Tensorflow(@CVision) (Alireza Akhavan)
TestInstallation.txt
648 B
دستورات مورد نیاز استفاده شده در ویدئو برای نصب در ویندوز(2)
لطفا تا فردا (پنج شنبه) ساعت 15 در گروه datacamp کلاس که لینکش خدمتتان ارائه شده عضو شوید.
بخشی از نمره شما به فعالیتهایی که در این سایت مشخص میشود اختصاص پیدا خواهد کرد.
لطفا در اسرع وقت در سایت
https://www.datacamp.com/
عضو شده و همان ایمیلی که عضو شده اید را
برای خانم ولی پور (@Atefee_Vlp) در تلگرام ارسال کنید تا دعوت نامه گروه برای شما ارسال شود.
پس از دریافت دعوت نامه تمامی کورس های سایت DataCamp در طول ترم برایتان رایگان خواهد شد و میتوانید گواهی پایان دوره آن ها را نیز اخذ کنید.
Forwarded from Zoomit | زومیت
گوگل فناوری ثبت تصاویر پرتره خود رو به‌صورت متن باز ارائه کرد؛ جداسازی سوژه‌های پیش‌زمینه تصویر از پس‌زمینه از حالا در اختیار توسعه‌دهندگان خواهد بود

I توضیحات بیشتر I
http://goo.gl/AKfNAv

@myzoomit
Forwarded from خبرفوری
درآمد حاصل از هوش مصنوعي تا سال ٢٠٢٥ ( ارقام به ميليون دلار)

🔹آيا براي استفاده از اين بازار عظيم آماده‌ايم يا بار ديگر فرصت را از دست خواهيم داد؟
@AkhbareFori