دستاوردهای یادگیری عمیق(InTec)
9.53K subscribers
364 photos
40 videos
44 files
676 links
هوش مصنوعی، یادگیری ماشین و یادگیری عمیق
موضوع اصلی کانال

این یک بلاگ شخصی با طرز تفکر شخصی هست.

Core Python : @PyHints

تلاشی هم در یادگیری Rust دارم که درحال داکیومنت شدن هم هست؛ اگر شماهم به این زبان علاقمند هستید join یادتون نره

Rust: @PyRust
Download Telegram
شاید اگر بگن استرینگ ها (کلمات، جملات و ...) رو توی یک corpus خیلی بزرگ مقایسه کنید اولین چیزی که به فکر میرسه و کد زده می‌شه

somestring1 == somestring2

باشه؛ اما مشکل اینجاس که برای corpus های خیلی خیلی بزرگ اینکار بسیار زمانبر هست و بدتر ازون اینکه اگر بخواید vec هم در بیارید ازش می‌تونه بسیار وقت گیر باشه و به حافظه بسیار بسیار بیشتری نیاز داشته باشه (که باعث بشه نتونید روی سیستم یا سرور فعلی اجرا کنید کد رو، البته بسیاری از ابزارهای موجود از تکنیکی که خواهم گفت استفاده می‌کنند)

ی راهکار دیفالت در پایتون برای این مسئله هست که بطور خودکار، برای اسم
functions, variables, classes
و خلاصه هرچیزی که درطول اجرای برنامه واجبه استفاده می‌شه؛ از این تکنیک در
Python Core

برای اپتیمایز کردن استفاده می‌شه، پکیج sys در پایتون هم دارای متدی هست به نام
intern()
که بعنوان ورودی یک string رو میگیره و خروجی اون یک آدرس حافظه هست (تمامی متغییر‌هایی که توی پایتون تعریف می‌کنیم آدرس حافظه هست)

به این ترتیب، اگر کل corpus رو با این روش آدرس دهی کنید، می‌تونید خیلی راحت و البته به مراتب سریعتر بین stringها مقایسه کنید.
somestring1 is somestring2


sys.intern() python documentation
“Artificial Neural Networks are Reconstructing Human Thoughts in Realtime”


Blog Post Link
👍1
تشخیص فاصله اشیا در عکس (دیتاست + کد)
این کار برای رباتیک و کنترل اتوماتیک مفید خواهد بود (مخصوصاً با توجه به قیمت بسیار بالای برخی از انواع سنسورها و تجهیزات)

توجه داشته باشید، که تولیدات سری Jetson توانایی اجرای همزمان چندین مدل رو نیز دارند.

Link

@pytens
جمعی از دوستان متخصص تصمیم گرفتن تجربیات و تخصص خودشون رو در زمینه وب و پایتون (بطور تخصصی Django ) به اشتراک بگذارند

اگر به این موضوع علاقه دارید می‌تونید کانال

@DjangoEX

رو دنبال کنید 🌹🌹
OctConv
چیه و چرا باید جایگزین Conv های معمول توی کدهامون بشه ؟!
- جواب ساده : مصرف کمتر حافظه و پردازنده البته بهمراه دقت بالاتر

Paper Summary
به کمک SQLflow می‌تونید انواع مختلف سیستم‌های پایگاه داده sql رو مستقیم به
Tensorflow, XGBoost, Scikitlearn , ...
وصل کنید.

GitHub Link
دستاوردهای یادگیری عمیق(InTec)
Turing Natural Language Generation (T-NLG) مدلی با ۱۷ میلیارد پارامتر که معیارها و دقت‌های جدیدی ثبت کرده لینک زیر توضیحات و البته دمویی ازین مدل رو خواهید دید. Link
تو این بلاگ پست درمورد تکنولوژ‌ی‌هایی که اجازه داده ماکروسافت به T-NLG برسه توضیح داده، در حالی که همه‌ی حواس‌ها به خود مدل و دقت و ... اون هست، خوندن راجب این ۲تکنولوژی بسیار مفید خواهد بود.

Post Link
a) ResBlockV1
e) ResBlockV2
خروجی دو شبکه و کد کاملاً یکسان، تنها تفاوت استفاده از ResBlockV2 بجای ResBlockV1 هست، که با توجه به بزرگ بودن شبکه، و کوچیک بودن دیتای فعلی بسیار دقت بهتری رو نشون داده

بنظرم ResNetV2 جزو دستاوردهایی هست که بهش ظلم شده، چون وقتی راجبش صحبت می‌شه اکثراً به شبکه Inception-ResnetV2 فکر می‌کنن.
تقریباً عادت کردیم، هر چندوقت یکبار گوگل کارهای فوق‌العاده در زمینه دیپ‌لرنینگ انجام بده و معیارها رو جابجا کنه و شاید تا مدتی راجبش چیزی هم نشنویم

Meena (Google Conversational Agent)

می‌تونه راجب هر موضوعی با شما بحث کنه، پیشنهاد میکنم این مقاله رو از دست ندید‌.

Google Ai Blog
دستاوردهای یادگیری عمیق(InTec)
پیاده سازی OctConv در کراس (تنسورفلو) https://github.com/koshian2/OctConv-TFKeras
ازونجایی که این پیاده‌سازی روی OctConv بسیار تمیز و دقیق بود، برای کمک به دوستان علاقه‌مند تصمیم گرفتم نسخه
OctConv2DTranspose
رو هم بهش اضافه کنم (برخی میگن deconv) ، ازین به بعد می‌تونید ازین لایه برای سگمنتیشن هم استفاده کنید (جزئیات خیلی ریز رو هم جدا می‌کنه که می‌تونید توی کد نمونه در گیت‌هاب چک کنید)

پیاده‌سازی توسط صاحب پروژه هم تایید شده و در گیت‌هاب اصلی ایشون یا

https://github.com/pykeras/OctConv-Keras

گیت‌هاب بنده قابل مشاهده هست

(اگر مفید بود کلیک روی star, مفید خواهد بود)