Forwarded from Shenasa-ai.ir
#استخدام برنامه نویس Full Stack در شرکت دانش بنیان داده پویان آلما (شناسا)
✔️مسلط به PHP و OOP
✔️مسلط یه یکی از فریم ورک های مطرح PHP نظیر Zend، Symfony و ...
✔️مسلط به یکی از دیتابیس های رابطه ای MySQL یا PgSQL
✔️آشنا به GIT
✔️آشنا به زبان های برنامه نویسی Client Side
✔️حداقل 2 سال تجربه کاری
🌟ویژگی های فردی
- خلاق، با انگیزه، مسئولیت پذیر و منظم
- دارای روحیه و اخلاق کار تیمی
در تیم امکان پیشرفت برای تمام اعضا فراهم است و هرکس مسئولیت بخشی از مجموعه را عهده دارد.
اگر به دنبال جایی برای رشد و پیشرفت در کنار تمام روابط صمیمی و دوستانه هستید، ما منتظرتان هستیم.
ایمیل: info[@]almaatech.ir
✔️مسلط به PHP و OOP
✔️مسلط یه یکی از فریم ورک های مطرح PHP نظیر Zend، Symfony و ...
✔️مسلط به یکی از دیتابیس های رابطه ای MySQL یا PgSQL
✔️آشنا به GIT
✔️آشنا به زبان های برنامه نویسی Client Side
✔️حداقل 2 سال تجربه کاری
🌟ویژگی های فردی
- خلاق، با انگیزه، مسئولیت پذیر و منظم
- دارای روحیه و اخلاق کار تیمی
در تیم امکان پیشرفت برای تمام اعضا فراهم است و هرکس مسئولیت بخشی از مجموعه را عهده دارد.
اگر به دنبال جایی برای رشد و پیشرفت در کنار تمام روابط صمیمی و دوستانه هستید، ما منتظرتان هستیم.
ایمیل: info[@]almaatech.ir
دوستان عزیز، به دلیل بالا نگه داشتن کیفیت تعاملی کلاس، کلاس GAN افزایش ظرفیت پیدا نمیکند. لطفا در این رابطه از پشتیبانی دوره سوال نپرسید، اما به زودی دوره ی جدیدی برای ثبت نام باز میگردد که در روزهای آتی اطلاع رسانی خواهد شد.
Tensorflow(@CVision)
#وبینار #یادگیری_عمیق #کلاس دوره ی آنلاین شبکه های مولد عمیق 🔖زمان برگزاری: 19 تا 28 بهمن 🕐مدت دوره: 15 ساعت ✔️سطح دوره: پیشرفته - عملی ✔️نوع فریم ورک: کراس و TF2 http://class.vision/product/generative-autoencoder-gan-tf2/ 🔊🔔کد مخصوص 10 درصدی اعضای کانال:…
با توجه به استقبال خوب دوستان، دوره ی جدید GAN از تاریخ 9 الی 19 اسفند ماه با سرفصل های کاملتر و سه مدرس به زودی تا قبل از هفته ی آینده اطلاع رسانی خواهد شد.
سرفصل های درنظر گرفته شده برای دوره ی جدید:
مباحث اصلی به شرح زیر است:
functional API در کراس
Gradient tape
Model sub-classing
Autoencoder
Convolutional Variational Autoencoder
U-net و سگمنت تصاویر
GAN
DCGAN
Pix2Pix
Cycle-GAN
ProGAN
StyleGAN
Neural style transfer
Deep Dream
Adversarial attack & FGSM
اطلاعات به زودی در کانال منتشر خواهد شد.
تسهیلاتی برای شرکت مجدد افراد دوره ی اول در دوره ی دوم یا دسترسی به فیلم ها قرار داده خواهد شد.
سرفصل های درنظر گرفته شده برای دوره ی جدید:
مباحث اصلی به شرح زیر است:
functional API در کراس
Gradient tape
Model sub-classing
Autoencoder
Convolutional Variational Autoencoder
U-net و سگمنت تصاویر
GAN
DCGAN
Pix2Pix
Cycle-GAN
ProGAN
StyleGAN
Neural style transfer
Deep Dream
Adversarial attack & FGSM
اطلاعات به زودی در کانال منتشر خواهد شد.
تسهیلاتی برای شرکت مجدد افراد دوره ی اول در دوره ی دوم یا دسترسی به فیلم ها قرار داده خواهد شد.
#وبینار #یادگیری_عمیق #کلاس
دومین دوره ی آنلاین شبکه های مولد در تنسرفلو2 و کراس
🔖زمان برگزاری: 9 تا 19 اسفندماه 99
🕐مدت دوره: 20 ساعت
✔️سطح دوره: پیشرفته - عملی
✔️نوع فریم ورک: کراس و TF2
http://class.vision/product/deep-generative-tf2/
پشتیبانی اختصاصی این دوره در تلگرام: @cvision_support
دومین دوره ی آنلاین شبکه های مولد در تنسرفلو2 و کراس
🔖زمان برگزاری: 9 تا 19 اسفندماه 99
🕐مدت دوره: 20 ساعت
✔️سطح دوره: پیشرفته - عملی
✔️نوع فریم ورک: کراس و TF2
http://class.vision/product/deep-generative-tf2/
پشتیبانی اختصاصی این دوره در تلگرام: @cvision_support
Tensorflow(@CVision)
#وبینار #یادگیری_عمیق #کلاس دومین دوره ی آنلاین شبکه های مولد در تنسرفلو2 و کراس 🔖زمان برگزاری: 9 تا 19 اسفندماه 99 🕐مدت دوره: 20 ساعت ✔️سطح دوره: پیشرفته - عملی ✔️نوع فریم ورک: کراس و TF2 http://class.vision/product/deep-generative-tf2/ پشتیبانی اختصاصی…
http://class.vision/product/deep-generative-tf2/
این دوره (اسفندماه) به دلیل اعمال محدودیت تعداد شرکت کننده در دوره ی قبلی (بهمن ماه) بوده. کسانی که دوره ی قبل را ثبت نام کردند نیازی به ثبت نام در این
دوره ندارند، و آن دوره پیش نیاز این دوره نیست.
این دوره مباحث بیشتری نسبت به دوره نخست (بهمن ماه) دارد که به رایگان در اختیار شرکت کنندگان بهمن ماه گذاشته خواهد شد.
این دوره (اسفندماه) به دلیل اعمال محدودیت تعداد شرکت کننده در دوره ی قبلی (بهمن ماه) بوده. کسانی که دوره ی قبل را ثبت نام کردند نیازی به ثبت نام در این
دوره ندارند، و آن دوره پیش نیاز این دوره نیست.
این دوره مباحث بیشتری نسبت به دوره نخست (بهمن ماه) دارد که به رایگان در اختیار شرکت کنندگان بهمن ماه گذاشته خواهد شد.
Custom object detection in the browser using TensorFlow.js
https://blog.tensorflow.org/2021/01/custom-object-detection-in-browser.html
https://blog.tensorflow.org/2021/01/custom-object-detection-in-browser.html
blog.tensorflow.org
Custom object detection in the browser using TensorFlow.js
Train a custom MobileNetV2 using the TensorFlow 2 Object Detection API and Google Colab for object detection, convert the model to TensorFlow.js
#وبینار #یادگیری_عمیق #کلاس
دومین دوره ی آنلاین شبکه های مولد در تنسرفلو2 و کراس
🔖زمان برگزاری: 9 تا 19 اسفندماه 99
🕐مدت دوره: 20 ساعت
✔️سطح دوره: پیشرفته - عملی
✔️نوع فریم ورک: کراس و TF2
http://class.vision/product/deep-generative-tf2/
پشتیبانی اختصاصی این دوره در تلگرام: @cvision_support
📢کد تخفیف 10 درصدی مخصوص اعضای کانال:
cvision
دومین دوره ی آنلاین شبکه های مولد در تنسرفلو2 و کراس
🔖زمان برگزاری: 9 تا 19 اسفندماه 99
🕐مدت دوره: 20 ساعت
✔️سطح دوره: پیشرفته - عملی
✔️نوع فریم ورک: کراس و TF2
http://class.vision/product/deep-generative-tf2/
پشتیبانی اختصاصی این دوره در تلگرام: @cvision_support
📢کد تخفیف 10 درصدی مخصوص اعضای کانال:
cvision
Tensorflow(@CVision)
#وبینار #یادگیری_عمیق #کلاس دومین دوره ی آنلاین شبکه های مولد در تنسرفلو2 و کراس 🔖زمان برگزاری: 9 تا 19 اسفندماه 99 🕐مدت دوره: 20 ساعت ✔️سطح دوره: پیشرفته - عملی ✔️نوع فریم ورک: کراس و TF2 http://class.vision/product/deep-generative-tf2/ پشتیبانی اختصاصی…
برای ثبت نام زودهنگام، 10 کد تخفیف جدید 25 درصدی در نظر گرفته شد:
early25
early25
دموی دوره ی تخصصی rnn ها در آپارات قرار گرفت:
https://www.aparat.com/v/teHmF
به مناسبت میلاد با سعادت حضرت فاطمه و روز مادر کد تخفیف 40 درصدی mother تا انتهای هفته فعال شد.
mother
هم اکنون از یکی از دو لینک زیر این دوره ی آفلاین را تهیه بفرمایید:
http:/deeprnn.shop
http://class.vision/deeplearning2/
#rnn #tensorflow #lstm #gru #keras
https://www.aparat.com/v/teHmF
به مناسبت میلاد با سعادت حضرت فاطمه و روز مادر کد تخفیف 40 درصدی mother تا انتهای هفته فعال شد.
mother
هم اکنون از یکی از دو لینک زیر این دوره ی آفلاین را تهیه بفرمایید:
http:/deeprnn.shop
http://class.vision/deeplearning2/
#rnn #tensorflow #lstm #gru #keras
آپارات - سرویس اشتراک ویدیو
مصاحبه با شرکت کنندگان دوره دیپ لرنینگ
دوره تخصصی بکه های بازگشتی (rnnها) در صندوق شکوفایی و نوآوری ریاست جمهوری تهران برگزار شده و فیلم آفلاین این دوره در سایت http://class.vision/deeplearning2/
Tensorflow(@CVision) pinned «دموی دوره ی تخصصی rnn ها در آپارات قرار گرفت: https://www.aparat.com/v/teHmF به مناسبت میلاد با سعادت حضرت فاطمه و روز مادر کد تخفیف 40 درصدی mother تا انتهای هفته فعال شد. mother هم اکنون از یکی از دو لینک زیر این دوره ی آفلاین را تهیه بفرمایید: http:/deeprnn.shop…»
Forwarded from تهران دیتا-دانشگاه تهران
آغاز ثبت نام کد ۸ دوره جامع علم داده دانشگاه تهران
هشتمین کد جامع ترین دوره علم داده کشور با بیش از ۳۵۰ ساعت آموزش تخصصی هم اکنون در حال ثبتنام برای علاقهمندان می باشد. این دوره کاملا مطابق با نیازسنجیها و منطبق بر بازار کار داخلی و بینالمللی طرحریزی گردیده است.
شرکتکنندگان در پایان دوره توانایی این را خواهند داشت تا علاوه بر تحلیل کسبوکار، به توصیف و پیشبینیهای دادهمحور با استفاده از فنون و روشهای نوین بپردازند.
🔰 برخی از مزایای دوره:
🔸 اعطای مدرک معتبر دوزبانه از دانشگاه تهران
🔸 بهرهگیری از اساتید برجسته آکادمیک و صنعت در حوزه علم داده
🔸 آموزش تخصصی بیش از ۱۰ ابزار تخصصی علمداده
🔸 پروژه محوری
🔸 ارائه پروژهپایانی توسط دانشپذیران به همراه تحلیل اساتید
🔸 امکان پرداخت نقد و اقساط
🔸برگزاری به صورت آنلاین
✅ ثبت نام و اطلاعات بیشتر:
https://utperm.com/course/ds-code8/
⁉️ پشتیبانی آنلاین:
@bperm_admin
📞 شماره تماس:
02182084160
09377516759
⛔️ ظرفیت محدود
🆔 @BPERM_UT
📚 Instagram: https://bit.ly/3gfYl5f
هشتمین کد جامع ترین دوره علم داده کشور با بیش از ۳۵۰ ساعت آموزش تخصصی هم اکنون در حال ثبتنام برای علاقهمندان می باشد. این دوره کاملا مطابق با نیازسنجیها و منطبق بر بازار کار داخلی و بینالمللی طرحریزی گردیده است.
شرکتکنندگان در پایان دوره توانایی این را خواهند داشت تا علاوه بر تحلیل کسبوکار، به توصیف و پیشبینیهای دادهمحور با استفاده از فنون و روشهای نوین بپردازند.
🔰 برخی از مزایای دوره:
🔸 اعطای مدرک معتبر دوزبانه از دانشگاه تهران
🔸 بهرهگیری از اساتید برجسته آکادمیک و صنعت در حوزه علم داده
🔸 آموزش تخصصی بیش از ۱۰ ابزار تخصصی علمداده
🔸 پروژه محوری
🔸 ارائه پروژهپایانی توسط دانشپذیران به همراه تحلیل اساتید
🔸 امکان پرداخت نقد و اقساط
🔸برگزاری به صورت آنلاین
✅ ثبت نام و اطلاعات بیشتر:
https://utperm.com/course/ds-code8/
⁉️ پشتیبانی آنلاین:
@bperm_admin
📞 شماره تماس:
02182084160
09377516759
⛔️ ظرفیت محدود
🆔 @BPERM_UT
📚 Instagram: https://bit.ly/3gfYl5f
High-Performance Large-Scale Image Recognition Without Normalization
Paper: https://arxiv.org/abs/2102.06171
Code: https://github.com/deepmind/deepmind-research/tree/master/nfnets
Paper: https://arxiv.org/abs/2102.06171
Code: https://github.com/deepmind/deepmind-research/tree/master/nfnets
Forwarded from تهران دیتا-دانشگاه تهران
دوره یادگیری عمیق
اسفند ماه ۱۳۹۹ - به مدت ۲۴ ساعت
استاد درس: مهندس علیرضا اخوان
از سری درس های دوره ۳۵۰ ساعته جامع علم داده دانشگاه تهران
توضیحات تکمیلی و ثبت نام:
https://utperm.com/course/ds-code8/
⁉️ پشتیبانی آنلاین تلگرام:
👤 @bperm_admin
📞 شماره تماس:
▫️ 02182084160
▫️ 09377516759
🆔 @BPERM_UT
📚 Instagram: https://bit.ly/3gfYl5f
اسفند ماه ۱۳۹۹ - به مدت ۲۴ ساعت
استاد درس: مهندس علیرضا اخوان
از سری درس های دوره ۳۵۰ ساعته جامع علم داده دانشگاه تهران
توضیحات تکمیلی و ثبت نام:
https://utperm.com/course/ds-code8/
⁉️ پشتیبانی آنلاین تلگرام:
👤 @bperm_admin
📞 شماره تماس:
▫️ 02182084160
▫️ 09377516759
🆔 @BPERM_UT
📚 Instagram: https://bit.ly/3gfYl5f
یک روش train شبکه های عمیق که باعث میشود با استفاده از بعضی از GPU ها سرعت اجرای بیشتر داشته باشیم و از memory کم تری استفاده شود. این روش هم زمان از نرخ دقت float32 و float16 بهره می برد.
Mixed precision is the use of both 16-bit and 32-bit floating-point types in a model during training to make it run faster and use less memory. By keeping certain parts of the model in the 32-bit types for numeric stability, the model will have a lower step time and train equally as well in terms of the evaluation metrics such as accuracy.
https://www.tensorflow.org/guide/mixed_precision
🙏 Thanks to : @Saeed_khanehgir
Mixed precision is the use of both 16-bit and 32-bit floating-point types in a model during training to make it run faster and use less memory. By keeping certain parts of the model in the 32-bit types for numeric stability, the model will have a lower step time and train equally as well in terms of the evaluation metrics such as accuracy.
https://www.tensorflow.org/guide/mixed_precision
🙏 Thanks to : @Saeed_khanehgir
TensorFlow
Mixed precision | TensorFlow Core
TransGAN: Two Transformers Can Make One Strong GAN
Submitted on 14 Feb 2021
The recent explosive interest on transformers has suggested their potential to become powerful "universal" models for computer vision tasks, such as classification, detection, and segmentation. However, how further transformers can go - are they ready to take some more notoriously difficult vision tasks, e.g., generative adversarial networks (GANs)? Driven by that curiosity, we conduct the first pilot study in building a GAN completely free of convolutions, using only pure transformer-based architectures. Our vanilla GAN architecture, dubbed TransGAN, consists of a memory-friendly transformer-based generator that progressively increases feature resolution while decreasing embedding dimension, and a patch-level discriminator that is also transformer-based. We then demonstrate TransGAN to notably benefit from data augmentations (more than standard GANs), a multi-task co-training strategy for the generator, and a locally initialized self-attention that emphasizes the neighborhood smoothness of natural images. Equipped with those findings, TransGAN can effectively scale up with bigger models and high-resolution image datasets. Specifically, our best architecture achieves highly competitive performance compared to current state-of-the-art GANs based on convolutional backbones. Specifically, TransGAN sets new state-of-the-art IS score of 10.10 and FID score of 25.32 on STL-10. It also reaches competitive 8.64 IS score and 11.89 FID score on Cifar-10, and 12.23 FID score on CelebA 64×64, respectively. We also conclude with a discussion of the current limitations and future potential of TransGAN.
Paper: https://arxiv.org/abs/2102.07074
Code: https://github.com/VITA-Group/TransGAN
Submitted on 14 Feb 2021
The recent explosive interest on transformers has suggested their potential to become powerful "universal" models for computer vision tasks, such as classification, detection, and segmentation. However, how further transformers can go - are they ready to take some more notoriously difficult vision tasks, e.g., generative adversarial networks (GANs)? Driven by that curiosity, we conduct the first pilot study in building a GAN completely free of convolutions, using only pure transformer-based architectures. Our vanilla GAN architecture, dubbed TransGAN, consists of a memory-friendly transformer-based generator that progressively increases feature resolution while decreasing embedding dimension, and a patch-level discriminator that is also transformer-based. We then demonstrate TransGAN to notably benefit from data augmentations (more than standard GANs), a multi-task co-training strategy for the generator, and a locally initialized self-attention that emphasizes the neighborhood smoothness of natural images. Equipped with those findings, TransGAN can effectively scale up with bigger models and high-resolution image datasets. Specifically, our best architecture achieves highly competitive performance compared to current state-of-the-art GANs based on convolutional backbones. Specifically, TransGAN sets new state-of-the-art IS score of 10.10 and FID score of 25.32 on STL-10. It also reaches competitive 8.64 IS score and 11.89 FID score on Cifar-10, and 12.23 FID score on CelebA 64×64, respectively. We also conclude with a discussion of the current limitations and future potential of TransGAN.
Paper: https://arxiv.org/abs/2102.07074
Code: https://github.com/VITA-Group/TransGAN
GitHub
GitHub - VITA-Group/TransGAN: [NeurIPS‘2021] "TransGAN: Two Pure Transformers Can Make One Strong GAN, and That Can Scale Up",…
[NeurIPS‘2021] "TransGAN: Two Pure Transformers Can Make One Strong GAN, and That Can Scale Up", Yifan Jiang, Shiyu Chang, Zhangyang Wang - VITA-Group/TransGAN
دموی دوره ی تخصصی rnn ها که سایر نوت بوک های این بحث هم توضیح داده شده در آپارات قرار داره:
https://www.aparat.com/v/teHmF
مباحث شامل مباحث زیر است
قسمت اول – ۱۸ دقیقه – مقدمات شبکه های بازگشتی
قسمت دوم – ۲۱ دقیقه – یک سلول (واحد) بازگشتی ساده و شبکه بازگشتی
قسمت سوم – ۳۲ دقیقه – پیادهسازی تخمین تابع با شبکههای بازگشتی ساده
قسمت چهارم – ۴ دقیقه – طول دنباله متغیر در شبکههای بازگشتی (۱)
قسمت پنجم – ۱۱ دقیقه – طول دنباله متغیر در شبکههای بازگشتی (۲)
قسمت شـشـم – ۱۹ دقیقه – محو شدگی و انفجار گرادیانها در شبکههای بازگشتی
قسمت هفتم – ۲۶ دقیقه – شبکههای GRU
قسمت هشتم – ۸ دقیقه – شبکههای LSTM
قسمت نهم – ۹ دقیقه – دیاگرام شبکههای LSTM
قسمت دهم – ۹ دقیقه – مثالهایی از دادههای توالی و ترتیبی
قسمت یازدهم – ۵ دقیقه – شبکههای بازگشتی عمیق
قسمت دوازدهم – ۳۴ دقیقه – تخمین قیمت ارزهای دیجیتال – پیشپردازش داده
قسمت سیزدهم – ۲۲ دقیقه – تخمین قیمت ارزهای دیجیتال – بالانس کردن دادهها و آموزش
قسمت چهاردهم – ۳۴ دقیقه – شبکههای بازگشتی برای طبقهبندی ویدیو – مثال تشخیص جهت حرکت توپ
قسمت پانزدهم – ۴۱ دقیقه – مثال دوم طبقهبندی ویدیو – بازشناسی عملکرد در ویدیو
قسمت شانزدهم – ۳۲ دقیقه – درک بردار کلمات و بازنمایی آنها
قسمت هفدهم – ۱۱ دقیقه – ویژگیهای بازنمایی کلمات و لایه Embedding
قسمت هجدهم – ۲۷ دقیقه – مثال عملی آنالوژی با بردار کلمات
قسمت نوزدهم – ۱۴ دقیقه – طبقهبندی متن
قسمت بـیـسـتـم – ۲۰ دقیقه – پیادهسازی طبقهبندی متن با روش Bag-of-Embeddings
قسمت بیست و یکم – ۲۹ دقیقه – طبقهبندی متن با شبکه بازگشتی
قسمت بیست و دوم – ۵۷ دقیقه – مدل زبانی – تولید اشعاری شبیه به شاهنامه
قسمت بیست و سوم –۱۶ دقیقه – جمعبندی و معرفی شبکههای بازگشتی دوطرفه
قسمت بیست و چهارم – ۱۴ دقیقه – مدلهای توالی به توالی
قسمت بیست و پنجم – ۲۷ دقیقه – مثال عملی Seq2Seq برای فهم رشته عملیات ریاضی
قسمت بیست و شـشـم – ۱۵ دقیقه – مقدمات ترجمه ماشینی
قسمت بیست و هفتم – ۱۵ دقیقه – الگوریتم جست و جوی پرتو
قسمت بیست و هشـتم – ۶۰ دقیقه – مکانیزم توجه در ترجمه ماشینی
قسمت بیست و نهم – ۳۰ دقیقه – پیادهسازی ترجمه ماشینی در کراس برای تبدیل تاریخ
قسمت سـیام – ۱۵ دقیقه – روش کمک معلم
قسمت سی و یکم – ۴۱ دقیقه – پیادهسازی ترجمه ماشینی با مکانیزم توجه و Teacher Forcing در تنسرفلو ۲
قسمت سی و دوم – ۲۸ دقیقه – شرح تصاویر با توجه بصری
📢کد تخفیف 10 درصدی اعضای کانال: cvision
http://class.vision/deeplearning2/
یا
http://deeprnn.shop/
https://www.aparat.com/v/teHmF
مباحث شامل مباحث زیر است
قسمت اول – ۱۸ دقیقه – مقدمات شبکه های بازگشتی
قسمت دوم – ۲۱ دقیقه – یک سلول (واحد) بازگشتی ساده و شبکه بازگشتی
قسمت سوم – ۳۲ دقیقه – پیادهسازی تخمین تابع با شبکههای بازگشتی ساده
قسمت چهارم – ۴ دقیقه – طول دنباله متغیر در شبکههای بازگشتی (۱)
قسمت پنجم – ۱۱ دقیقه – طول دنباله متغیر در شبکههای بازگشتی (۲)
قسمت شـشـم – ۱۹ دقیقه – محو شدگی و انفجار گرادیانها در شبکههای بازگشتی
قسمت هفتم – ۲۶ دقیقه – شبکههای GRU
قسمت هشتم – ۸ دقیقه – شبکههای LSTM
قسمت نهم – ۹ دقیقه – دیاگرام شبکههای LSTM
قسمت دهم – ۹ دقیقه – مثالهایی از دادههای توالی و ترتیبی
قسمت یازدهم – ۵ دقیقه – شبکههای بازگشتی عمیق
قسمت دوازدهم – ۳۴ دقیقه – تخمین قیمت ارزهای دیجیتال – پیشپردازش داده
قسمت سیزدهم – ۲۲ دقیقه – تخمین قیمت ارزهای دیجیتال – بالانس کردن دادهها و آموزش
قسمت چهاردهم – ۳۴ دقیقه – شبکههای بازگشتی برای طبقهبندی ویدیو – مثال تشخیص جهت حرکت توپ
قسمت پانزدهم – ۴۱ دقیقه – مثال دوم طبقهبندی ویدیو – بازشناسی عملکرد در ویدیو
قسمت شانزدهم – ۳۲ دقیقه – درک بردار کلمات و بازنمایی آنها
قسمت هفدهم – ۱۱ دقیقه – ویژگیهای بازنمایی کلمات و لایه Embedding
قسمت هجدهم – ۲۷ دقیقه – مثال عملی آنالوژی با بردار کلمات
قسمت نوزدهم – ۱۴ دقیقه – طبقهبندی متن
قسمت بـیـسـتـم – ۲۰ دقیقه – پیادهسازی طبقهبندی متن با روش Bag-of-Embeddings
قسمت بیست و یکم – ۲۹ دقیقه – طبقهبندی متن با شبکه بازگشتی
قسمت بیست و دوم – ۵۷ دقیقه – مدل زبانی – تولید اشعاری شبیه به شاهنامه
قسمت بیست و سوم –۱۶ دقیقه – جمعبندی و معرفی شبکههای بازگشتی دوطرفه
قسمت بیست و چهارم – ۱۴ دقیقه – مدلهای توالی به توالی
قسمت بیست و پنجم – ۲۷ دقیقه – مثال عملی Seq2Seq برای فهم رشته عملیات ریاضی
قسمت بیست و شـشـم – ۱۵ دقیقه – مقدمات ترجمه ماشینی
قسمت بیست و هفتم – ۱۵ دقیقه – الگوریتم جست و جوی پرتو
قسمت بیست و هشـتم – ۶۰ دقیقه – مکانیزم توجه در ترجمه ماشینی
قسمت بیست و نهم – ۳۰ دقیقه – پیادهسازی ترجمه ماشینی در کراس برای تبدیل تاریخ
قسمت سـیام – ۱۵ دقیقه – روش کمک معلم
قسمت سی و یکم – ۴۱ دقیقه – پیادهسازی ترجمه ماشینی با مکانیزم توجه و Teacher Forcing در تنسرفلو ۲
قسمت سی و دوم – ۲۸ دقیقه – شرح تصاویر با توجه بصری
📢کد تخفیف 10 درصدی اعضای کانال: cvision
http://class.vision/deeplearning2/
یا
http://deeprnn.shop/
آپارات - سرویس اشتراک ویدیو
مصاحبه با شرکت کنندگان دوره دیپ لرنینگ
دوره تخصصی بکه های بازگشتی (rnnها) در صندوق شکوفایی و نوآوری ریاست جمهوری تهران برگزار شده و فیلم آفلاین این دوره در سایت http://class.vision/deeplearning2/
Tensorflow(@CVision)
#وبینار #یادگیری_عمیق #کلاس دومین دوره ی آنلاین شبکه های مولد در تنسرفلو2 و کراس 🔖زمان برگزاری: 9 تا 19 اسفندماه 99 🕐مدت دوره: 20 ساعت ✔️سطح دوره: پیشرفته - عملی ✔️نوع فریم ورک: کراس و TF2 http://class.vision/product/deep-generative-tf2/ پشتیبانی اختصاصی…
#آخرین_مهلت ثبت نام
اولین جلسه ی دوره ی آنلاین GAN نهم اسفند است و ثبت نام تا پنج شنبه 7 اسفند خواهد بود.
http://class.vision/product/deep-generative-tf2/
اولین جلسه ی دوره ی آنلاین GAN نهم اسفند است و ثبت نام تا پنج شنبه 7 اسفند خواهد بود.
http://class.vision/product/deep-generative-tf2/
Tensorflow(@CVision)
دموی دوره ی تخصصی rnn ها که سایر نوت بوک های این بحث هم توضیح داده شده در آپارات قرار داره: https://www.aparat.com/v/teHmF مباحث شامل مباحث زیر است قسمت اول – ۱۸ دقیقه – مقدمات شبکه های بازگشتی قسمت دوم – ۲۱ دقیقه – یک سلول (واحد) بازگشتی ساده و شبکه بازگشتی…