DLeX: AI Python
24.1K subscribers
4.61K photos
1.21K videos
763 files
3.8K links
هوش‌مصنوعی و برنامه‌نویسی

ارتباط :
https://twitter.com/NaviDDariya
Download Telegram
Forwarded from Tensorflow(@CVision) (Alireza Akhavan)
#آموزش #ویدیو #سورس_کد

تشخیص چهره- بخش اول- علیرضا اخوان پور-1

•one-shot learning: Face Verification & Recognition
•Siamese network
•facenet triplet loss
https://t.me/cvision/1080

تشخیص چهره - علیرضا اخوان پور - بخش دوم
• one-shot learning: Face Verification & Recognition
• Discriminative Feature
• Center loss
https://t.me/cvision/1103
کدهای این ارائه
https://t.me/cvision/1080
در گیت هاب هوش پارت و همچنین آدرس گیت هاب زیر موجود است:

https://github.com/Alireza-Akhavan/deep-face-recognition

🙏Thanks to: @partdpai
#face #face_recognition #verification
Forwarded from شهاب
This media is not supported in your browser
VIEW IN TELEGRAM
🎞 تکنیک بازسازی تصاویر توسط هوش مصنوعی با نتایج واقعی

🔸محققان انویدیا به رهبری گیلین لیو، تکنیک یادگیری عمیق جدیدی در شاخه هنر معرفی کردند که توانایی ویرایش و بازسازی تصاویر آسیب دیده را داراست. تصاویری که در آن ها حفره ایجاد شده یا پیکسل هایی را از دست داده اند.
این روش همچنین می تواند برای ویرایش تصاویر به وسیله حذف محتوا و پرکردن جای خالی آن ها بکار گرفته شود.
این شیوه که پروسه ای به نام “بازسازی تصاویر” را اجرا می کند، می تواند در نرم افزار های ویرایش تصویر پیاده سازی شود تا محتوای نا خواسته را حذف کرده و آن را با محتوا جایگزین واقعی و باورپذیر که توسط رایانه تولید شده جایگزین کند.

🔻برای دریافت اطلاعت بیشتر و استفاده از این تکنیک به لینک زیر مراجعه کنید :

⬇️⁩⁦⬇️⁩⁦⬇️⁩⁦⬇️⁩⁦⬇️
https://shahaab-co.ir/mag/news/new-ai-imaging-technique-reconstructs-photos-with-realistic-results/

#تازه_ها
#ویدیو
#هوش_مصنوعی
#مجله_شهاب
Forwarded from شهاب
This media is not supported in your browser
VIEW IN TELEGRAM
🎞 یادگیری عمیق به زبان ساده : یک مشکل قدیمی – قسمت پنجم

🔸اگر شبکه های عصبی عمیق بسیار قدرتمند هستند، چرا آن ها بیشتر مورد استفاده قرار نمی گیرند؟ علت آن این است که به دلیل موضوعی که به عنوان محو شدگی گرادیان شناخته می شود، آموزش آن ها بسیار مشکل است.

برای آموزش شبکه عصبی بر روی مجموعه بزرگی از داده های دارای برچسب ، باید پیوسته تفاوت بین خروجی پیش بینی شده شبکه و خروجی واقعی را محاسبه کنید. این تفاوت هزینه نامیده می شود و فرآیند آموزش یک شبکه به عنوان پس انتشار یا Back Propagation شناخته می شود. در طول پس انتشار، وزن ها و بایاس ها کمی تغییر می کنند تا کمترین هزینه ممکن حاصل شود. یکی از جنبه های مهم این فرآیند گرادیان است، یک مقدار که نشان می دهد چقدر هزینه با توجه به تغییر در وزن یا بایاس تغییر می کند.

🔻برای دریافت اطلاعت بیشتر درباره ی شبکه های عصبی و مشاهده قسمت های دیگر این مجموعه به لینک زیر مراجعه کنید :

⬇️⁩⁦⬇️⁩⁦⬇️⁩⁦⬇️⁩⁦⬇️
https://shahaab-co.ir/mag/edu/deep-learning/deep-learning-simplified-an-old-problem-ep-5/

#آموزش
#ویدیو
#یادگیری_عمیق
#مجله_شهاب
Forwarded from شهاب
Media is too big
VIEW IN TELEGRAM
🎞 یادگیری عمیق به زبان ساده : ماشین بولتزمن محدود شده (RBM) – قسمت ششم

🔸دستیابی به چه موفقیت هایی بود که به شبکه های عمیق اجازه داد تا با مشکل محو شدگی گرادیان مقابله کنند؟ پاسخ دارای دو بخش است که بخش اول شامل ماشین بولتزمن محدود شده (RBM) است ، الگوریتمی که می تواند با بازسازی ورودی ، به طور خودکار الگوهای ذاتی در داده ها را تشخیص دهد.

جف هینتون از دانشگاه تورنتو ، پیشگام و غول این رشته ، توانست یک روش برای آموزش شبکه های عمیق بسازد. کار او منجر به ایجاد ماشین بولتزمن محدود شده یا RBM شد.


🔻برای دریافت اطلاعت بیشتر درباره ی شبکه های عصبی و مشاهده قسمت های دیگر این مجموعه به لینک زیر مراجعه کنید :

⬇️⁩⁦⬇️⁩⁦⬇️⁩⁦⬇️⁩⁦⬇️
https://shahaab-co.ir/mag/edu/deep-learning/deep-learning-simplified-restricted-boltzmann-machines-ep-6/

#آموزش
#ویدیو
#یادگیری_عمیق
#مجله_شهاب
Forwarded from Tensorflow(@CVision) (Alireza Akhavan)
#ویدیو #آموزشی جدید #چهره

کد تخفیف 30 درصدی ویژه عید نوروز تنها تا 20 فرودین

فیلم آموزشی دوره تخصصی بازشناسی چهره در Tensorrflow/Keras


nowruz1400

✌️این دوره در اسفند ماه ضبط و در فرودین 1400 منتشر شده است.

#face_recognition #face #amsoftmax #sphereface #arcface #tripletloss #face
دسترسی به اطلاعات دیده‌بان بازار با استفاده از پایتون.
توی این ویدیو از اینکه چجوری درخواست‌ها تحت وب رو جستجو کنیم و اینکه چجوری داده‌های کثیف رو با همکاری پایتون و یک نرم‌افزار صفحه‌گسترده دلخواه تمیز کنیم صحبت می‌شه.
مستقل از بورس برای دریافت اطلاعات لحظه‌ای و تمیز کردنش اطلاعات خوبی به شما میده.

#پایتون #ویدیو #بورس
https://youtu.be/_pdSuzZM-kA
یکی از انتقادهایی که به پایتون میشه سرعت پایین اون در مقایسه با زبان‌های کامپایلری است.
توی این ویدیو با ابزاری آشنا می‌شیم که با همون سادگی پایتون سرعت اجرای کدها رو تا چندبرابر افزایش داد.
در این مثال ۱۴۲ برابر.
#ویدیو
#پایتون
#numba
https://youtu.be/x3eL3tTd6Fw
DLeX: AI Python
آموزش مقدماتی numpy و آشنایی با ابزارهای ابتدایی آن برای استفاده در پروژه‌های علمی https://youtu.be/WG3wLdsuygs
یکی از مهم‌ترین بخش‌های علوم‌داده تصویرسازی داده‌ها و انتقال پیغام پشت داده‌ها به سایر افراد است.
در این ویدئو مبانی استفاده از #matplotlib با api مشابه متلب و همینطور apiشی‌گرا معرفی می‌شود.

#ویدیو
#پایتون

https://youtu.be/91K_2p2ERv0
کتابخانه scikit learn یکی از کتابخانه‌های معروف در زمینه یادگیری ماشین هست که با یک رابط کاربری ساده امکان دسترسی به مدل‌های مختلف یادگیری ماشین را به شما می‌ده. در این ویدیو ۶ کاربرد اصلی این کتابخانه رو معرفی می‌کنیم و بعد از آن در یک مثال واقعی خوش‌‌خیم یا بدخیم بودن غده‌های سرطانی را با این کتابخانه پیش‌بینی می‌کنیم.
https://youtu.be/qY-BT5_i-5U
#پایتون
#ویدیو
#ماشین‌لرنینگ
توی این قسمت از تحلیل داده فوتبالی سعی می‌کنم با استفاده از اطلاعاتی که از شوت‌های بازیکنان داریم، از یک مدل یادگیری ماشین کمک‌ می‌گیریم تا بتونیم احتمال گل‌شدن توپ رو دقیقا در لحظه شوت پیش‌بینی کنیم.
برای اینکار
- اول داده‌های خام رو بررسی می‌کنیم و ویژگی‌های اثرگذار را پیدا می‌کنیم
- بعد از اون ویژگی‌های جدیدی که ممکنه به پیش‌بینی بهتر کمک کنه رو از ویژگی‌های قبلی می‌سازیم.
- از بین مدل‌های مختلف سعی می‌کنیم مدلی که بهترین پیش‌بینی را برای داده‌‌ها داره انتخاب می‌کنیم.
#ویدیو #پایتون #ماشین‌لرنینگ
https://youtu.be/tp-nStjw5w8
قسمت سوم آموزش FastApi#
ساخت یک کلاس برای تحلیل سهم‌ها از سایت tsetmc
و اتصال آن به api که در قسمت قبل درست کردیم.
با اینکار می‌تونیم یک سرویس آنلاین برای تحلیل سهام درست کنیم که با هر درخواست به صورت آنی سهم را تحلیل می‌کنه و خروجی را به صورت json در اختیار ما قرار میده.
#ویدیو
#آموزش
#تحلیل سهام.

https://www.youtube.com/watch?v=HfgBcDF_w_Q

@ai_python
@learn_with_mehdi
یکی از ابزارهای شناخته‌شده در دنیای نرم‌افزار، داکر هست. سرویسی که هدف اصلی اون جدا کردن محیط اجرای سرویس‌ها از سیستم‌عامل اصلی است. از مزیت‌های جانبی داکر امکان ساخت و دسترسی سرویس‌های مستقل برای کارهای روزمره است. مثلا دیتابیس برای نگه‌داری موقت یا دائمی اطلاعات یک پروژه شخصی، یا حتی اجرای یک سیستم جامع پایتون برای دیتاساینس یا یادگیری ماشین.(مثل ایمیج‌های معروف ژوپیتر.)
در این ویدیو یک بررسی کوتاه برای آشنایی کلی با این ابزار برای اجرای سرویس‌های مورد نیاز شخصی بدون ورود به جزئیات فنی پیچیده می‌کنیم.
#آموزش
#داکر
#ویدیو
https://youtu.be/5LwSaz5EOAQ