#keras #data_augmentation #generator #memory
در هوش مصنوعی تنها پیاده کردن مدل یادگیری مد نظر نیست. شما باید بتوانید منابع سخت افزاری که در دسترس دارید را به خوبی و بصورت بهینه کنترل کنید.
البته کتابخانه ها مختلف اکثر این کار ها را به صورت خودکار انجام میدهند و تنها کاری که شما باید بکنید آشنایی با دستورات مختلف هر کتابخانه ست.
@silicon_brain
در هوش مصنوعی تنها پیاده کردن مدل یادگیری مد نظر نیست. شما باید بتوانید منابع سخت افزاری که در دسترس دارید را به خوبی و بصورت بهینه کنترل کنید.
البته کتابخانه ها مختلف اکثر این کار ها را به صورت خودکار انجام میدهند و تنها کاری که شما باید بکنید آشنایی با دستورات مختلف هر کتابخانه ست.
@silicon_brain
صحبت از Data Augmentation شد. شما چقدر با این موضوع آشنا هستید ؟
Anonymous Poll
58%
آشنا نیستم
20%
آشنا هستم ولی پیاده نکردم
20%
آشنا هستم و پیاده کردم
2%
آشنا هستم و پیاده کردم اما نمیدونم به چه دردی میخوره!
#معرفی_دیتاست
#تحلیل_احساسات
#انگلیسی_2020
PerSenT (Bastan et al.)
این دیتاست احساسات نویسنده را نسبت به موجودیت اصلی در یک مقاله خبری را جمع کرده است. این مجموعه داده دارای 5.3 هزار سند و 38 هزار پاراگراف با 3.2 هزار موجودیت یونیک است.
سایت | مقاله
(هدف از این سری پستها تشویق علاقهمندان به تولید دیتاست فارسی هست)
@silicon_brain
#تحلیل_احساسات
#انگلیسی_2020
PerSenT (Bastan et al.)
این دیتاست احساسات نویسنده را نسبت به موجودیت اصلی در یک مقاله خبری را جمع کرده است. این مجموعه داده دارای 5.3 هزار سند و 38 هزار پاراگراف با 3.2 هزار موجودیت یونیک است.
سایت | مقاله
(هدف از این سری پستها تشویق علاقهمندان به تولید دیتاست فارسی هست)
@silicon_brain
نکته مهم. #ANN #CNN #deeplearning
در هنگام استفاده از شبکه های عصبی چون عملیات feature extraction بر عهده شبکه میباشد باید بسیار در انجام پیش پردازش داده های خود دقت کنیم.
نباید تغییرات زیادی بر روی داده های دیتاست خود انجام دهیم و داده ها باید خام باشند.
مثلاً در استفاده از شبکه عصبی پیچشی cnn در دیتاست تصویر فوق شاید فکر کنیم اگر لبه های تصاویر را بجای خود تصاویر به شبکه عصبی بدهیم کار cnn را راحتتر کرده ایم و دقت بالاتری خواهیم گرفت. در حالیکه سخت در اشتباهیم و اصالت داده ها تغییر کرده است و با احتمال زیادی دقت بدست آمده کاهش خواهد یافت.
پس هر مقدار داده ها خام تر و بدون پیش پردازش باشند بهتر است.
البته شاید در موارد خاص و محدودی پیش پردازش نیاز باشد.
لازم به ذکر است پیش پردازش هایی مانند one hot encoding مانعی ندارد.
@silicon_brain
در هنگام استفاده از شبکه های عصبی چون عملیات feature extraction بر عهده شبکه میباشد باید بسیار در انجام پیش پردازش داده های خود دقت کنیم.
نباید تغییرات زیادی بر روی داده های دیتاست خود انجام دهیم و داده ها باید خام باشند.
مثلاً در استفاده از شبکه عصبی پیچشی cnn در دیتاست تصویر فوق شاید فکر کنیم اگر لبه های تصاویر را بجای خود تصاویر به شبکه عصبی بدهیم کار cnn را راحتتر کرده ایم و دقت بالاتری خواهیم گرفت. در حالیکه سخت در اشتباهیم و اصالت داده ها تغییر کرده است و با احتمال زیادی دقت بدست آمده کاهش خواهد یافت.
پس هر مقدار داده ها خام تر و بدون پیش پردازش باشند بهتر است.
البته شاید در موارد خاص و محدودی پیش پردازش نیاز باشد.
لازم به ذکر است پیش پردازش هایی مانند one hot encoding مانعی ندارد.
@silicon_brain
نظر شما در مورد استفاده از الگوریتم k-means برای دسته بندی داده هایی با 1000 بعد چیست ؟ (در مورد پاسخ صحیح بحث خواهیم کرد)
Anonymous Poll
20%
به خوبی دسته بندی خواهد کرد
37%
دسته بندی ضعیفی خواهد داشت
23%
این الگوریتم قابلیت پیاده سازی 1000 بعد را ندارد
20%
گوریتم k-means چی هست اصلا؟!
پاسخ سوال بالا :
همانطور که میدانیم معیار اصلی کار کردن الگوریتم k-means فاصله میباشد و در هر تکرار این الگوریتم نقاط نسبت به فاصله ای که از میانگین داد ها دارند دسته بندی میشوند.
(در این لینک به صورت کامل نحوه عملکرد الگوریتم توضیح داده شده)
زمانی که دیتای مورد نظر ما ابعاد خیلی بالایی دارند مثل 1000 بعد دارد، فاصله ی اقلیدسی بین نقاط مفهوم خود را از دست میدهد در نتیجه الگوریتم k-means هم کارایی نخواهد داشت.
البته افرادی به جای فاصله اقلیدسی فاصله ی Cosine را پیشنهاد کردند که در بعضی مواقع موثر بوده است.
@silicon_brain
همانطور که میدانیم معیار اصلی کار کردن الگوریتم k-means فاصله میباشد و در هر تکرار این الگوریتم نقاط نسبت به فاصله ای که از میانگین داد ها دارند دسته بندی میشوند.
(در این لینک به صورت کامل نحوه عملکرد الگوریتم توضیح داده شده)
زمانی که دیتای مورد نظر ما ابعاد خیلی بالایی دارند مثل 1000 بعد دارد، فاصله ی اقلیدسی بین نقاط مفهوم خود را از دست میدهد در نتیجه الگوریتم k-means هم کارایی نخواهد داشت.
البته افرادی به جای فاصله اقلیدسی فاصله ی Cosine را پیشنهاد کردند که در بعضی مواقع موثر بوده است.
@silicon_brain
YouTube
StatQuest: K-means clustering
K-means clustering is used in all kinds of situations and it's crazy simple. The R code is on the StatQuest GitHub: https://github.com/StatQuest/k_means_clustering_demo/blob/master/k_means_clustering_demo.R
For a complete index of all the StatQuest videos…
For a complete index of all the StatQuest videos…
#keras #verbose
احتمالا زمان fit کردن مدل یادگیری آرگومان verbose را دیده باشید.
آشنایی با آرگومان های ساده و جزئی در خروجی کار تاثیر گذار میتواند باشد.
@silicon_brain
احتمالا زمان fit کردن مدل یادگیری آرگومان verbose را دیده باشید.
آشنایی با آرگومان های ساده و جزئی در خروجی کار تاثیر گذار میتواند باشد.
@silicon_brain
#one_shot learning!
حتما هممون در موقعیتهایی مجبور شدیم توسط یک مسئول یا افسر، چهرهمون رو با عکس کارت شناسایی مطابقت داده شود.
سیستم بینایی انسان بسیار تکامل یافته است و فورا با دقت بالا میتواند تشخیص دهد. این فرآیند در هوش مصنوعی یادگیری #one_shot نامیده میشود. یعنی قرار است با دو تصویری که قبلا هوش مصنوعی ندیده تعیین کند آیا یکی هست یا نه!
هنگامی که یک مدل ی برای یادگیری یک_شات ساخته میشود، دو تصویر میگیرد و مقداری را بر میگرداند که شباهت بین دو تصویر را نشان می دهد. اگر تصاویر حاوی object یکسانی (یا همان چهره یکسان) باشند، شبکه عصبی مقداری را بازمی گرداند که کوچکتر از آستانه خاص (مثلاً صفر) است و اگر همان شی نباشد، بالاتر از آستانه بازگردانده میشود.
(برای جزئیات بیشتر پاورقی مجازیمون یا همون کامنتس رو بخونید)
@silicon_brain
حتما هممون در موقعیتهایی مجبور شدیم توسط یک مسئول یا افسر، چهرهمون رو با عکس کارت شناسایی مطابقت داده شود.
سیستم بینایی انسان بسیار تکامل یافته است و فورا با دقت بالا میتواند تشخیص دهد. این فرآیند در هوش مصنوعی یادگیری #one_shot نامیده میشود. یعنی قرار است با دو تصویری که قبلا هوش مصنوعی ندیده تعیین کند آیا یکی هست یا نه!
هنگامی که یک مدل ی برای یادگیری یک_شات ساخته میشود، دو تصویر میگیرد و مقداری را بر میگرداند که شباهت بین دو تصویر را نشان می دهد. اگر تصاویر حاوی object یکسانی (یا همان چهره یکسان) باشند، شبکه عصبی مقداری را بازمی گرداند که کوچکتر از آستانه خاص (مثلاً صفر) است و اگر همان شی نباشد، بالاتر از آستانه بازگردانده میشود.
(برای جزئیات بیشتر پاورقی مجازیمون یا همون کامنتس رو بخونید)
@silicon_brain
This media is not supported in your browser
VIEW IN TELEGRAM
#AirCanvas
آیا تا کنون به این فکر کرده اید که فقط با حرکت دادن انگشتان خود در هوا شکل مورد نظر خود را رسم کنید؟
با استفاده از air canvas این رویا تحقق خواهد یافت. در این ویدیو کوتاه یک نمونه ابتدایی از air canvas را مشاهده میکنید که با استفاده از تکنیک های بینایی کامپیوتر openCV پیاده سازی شده است.
-به نظر شما air canvas چه کاربردهایی میتواند داشته باشد؟
@silicon_brain
آیا تا کنون به این فکر کرده اید که فقط با حرکت دادن انگشتان خود در هوا شکل مورد نظر خود را رسم کنید؟
با استفاده از air canvas این رویا تحقق خواهد یافت. در این ویدیو کوتاه یک نمونه ابتدایی از air canvas را مشاهده میکنید که با استفاده از تکنیک های بینایی کامپیوتر openCV پیاده سازی شده است.
-به نظر شما air canvas چه کاربردهایی میتواند داشته باشد؟
@silicon_brain
احتمالا برای شما هم پیش اومده که هنگام ساخت تصاویر و استوری شبکه های اجتماعی بر اساس زبان فارسی، ابزار مناسبی در بستر موبایل پیدا نکردید.
اپلیکیشن داینامو توسط یکی از اعضای گروه سیلیکون برین ساخته شده که ابزار مناسبی برای ساختن تصاویر و استوری های فارسی است.
این اپلیکیشن فونت های فارسی مختلف و ابزار ویرایش متن و تصویر برای شما ارائه میدهد.
در بروز رسانی های آینده این اپلیکیشن مجهز به پردازش متن و تصویر هوشمند خواهد شد.
دانلود از مایکت
دانلود از بازار
دانلود از کانال تلگرام
@silicon_brain
اپلیکیشن داینامو توسط یکی از اعضای گروه سیلیکون برین ساخته شده که ابزار مناسبی برای ساختن تصاویر و استوری های فارسی است.
این اپلیکیشن فونت های فارسی مختلف و ابزار ویرایش متن و تصویر برای شما ارائه میدهد.
در بروز رسانی های آینده این اپلیکیشن مجهز به پردازش متن و تصویر هوشمند خواهد شد.
دانلود از مایکت
دانلود از بازار
دانلود از کانال تلگرام
@silicon_brain
#معرفی_دیتاست
#سوال_به_SPARQL
#انگلیسی_2020
MK-SQuIT (Spiegel et al.)
دیتاست شامل 110 هزار جفت پرسش انگلیسی و SPARQL در چهار دامنه WikiData است.
✅ابزاری مفید برای برای دسترسی به اطلاعات پایگاه داده میتواند باشد.
✅مناسب برای سیستمهای پرسش و پاسخ و ترجمه ماشینی
مقاله | دیتاست
(هدف از این سری پستها آشنایی با انواع دادهها و فیلدها و بومیسازی آن است)
@silicon_brain
#سوال_به_SPARQL
#انگلیسی_2020
MK-SQuIT (Spiegel et al.)
دیتاست شامل 110 هزار جفت پرسش انگلیسی و SPARQL در چهار دامنه WikiData است.
✅ابزاری مفید برای برای دسترسی به اطلاعات پایگاه داده میتواند باشد.
✅مناسب برای سیستمهای پرسش و پاسخ و ترجمه ماشینی
مقاله | دیتاست
(هدف از این سری پستها آشنایی با انواع دادهها و فیلدها و بومیسازی آن است)
@silicon_brain
#som #selforganizingmap #Kohonen
شبکه عصبی کوهونن (Kohonen) یا
Self-Organizing Map (SOM)
نوع خاصی از شبکه عصبی است که از نظر شیوه عملکرد، ساختار و کاربرد، با انواع شبکه عصبی دیگر متفاوت است.
ایده اصلی این روش از تقسیم عملکردی ناحیه قشری مغز، الهام گرفته شده است و کاربرد اصلی آن در حل مسائل «یادگیری بدون نظارت» است.
روش SOM زمانی استفاده می شود که داده ها ویژگی های زیادی داشته باشند. این روش داده ها را به خروجی کم بعدی،(معمولا دو بعدی) تبدیل می کند. خروجی نمایشی (که در شکل سطح دو بعدی نمایش داده شده) را Map مینامند.
ادامه مطلب را در کامنت این پست بخوانید.
@silicon_brain
شبکه عصبی کوهونن (Kohonen) یا
Self-Organizing Map (SOM)
نوع خاصی از شبکه عصبی است که از نظر شیوه عملکرد، ساختار و کاربرد، با انواع شبکه عصبی دیگر متفاوت است.
ایده اصلی این روش از تقسیم عملکردی ناحیه قشری مغز، الهام گرفته شده است و کاربرد اصلی آن در حل مسائل «یادگیری بدون نظارت» است.
روش SOM زمانی استفاده می شود که داده ها ویژگی های زیادی داشته باشند. این روش داده ها را به خروجی کم بعدی،(معمولا دو بعدی) تبدیل می کند. خروجی نمایشی (که در شکل سطح دو بعدی نمایش داده شده) را Map مینامند.
ادامه مطلب را در کامنت این پست بخوانید.
@silicon_brain
#unet #cnn #convolutional
شبکه ی U-Net یک شبکه عصبی کانولوشن است که برای تقسیم بندی تصاویر پزشکی توسط گروه علوم کامپیوتر دانشگاه فرایبورگ آلمان ساخته شده است.
این شبکه مبتنی بر شبکه کاملا کانولوشن میباشد که ساختار آن اصلاح شده و گسترش یافته تا بتواند با تصاویر آموزشی کمتری کار کند و تقسیم بندی دقیق تری نسبت به انواع دیگر شبکه های کانولوشنی داشته باشد.
یک تغییر مهم در U-Net وجود تعداد زیادی کانال برای استخراج ویژگی تصاویر در قسمت نمونه برداری (upsampling) است که به شبکه امکان می دهد اطلاعات را به لایه های با وضوح بالاتر منتقل کند و معماری U شکل را میسازد.
@silicon_brain
شبکه ی U-Net یک شبکه عصبی کانولوشن است که برای تقسیم بندی تصاویر پزشکی توسط گروه علوم کامپیوتر دانشگاه فرایبورگ آلمان ساخته شده است.
این شبکه مبتنی بر شبکه کاملا کانولوشن میباشد که ساختار آن اصلاح شده و گسترش یافته تا بتواند با تصاویر آموزشی کمتری کار کند و تقسیم بندی دقیق تری نسبت به انواع دیگر شبکه های کانولوشنی داشته باشد.
یک تغییر مهم در U-Net وجود تعداد زیادی کانال برای استخراج ویژگی تصاویر در قسمت نمونه برداری (upsampling) است که به شبکه امکان می دهد اطلاعات را به لایه های با وضوح بالاتر منتقل کند و معماری U شکل را میسازد.
@silicon_brain
👌1
Silicon Brain | جامعه هوش مصنوعی
همانطور که در متن بالا مشاهده میکنید مقدار accuracy یا به تعبیری دقت پیش بینی ما 0.999 شده، یعنی خیلی خیلی دقت بالا این درحالیست که ما فقط 1 مورد مثبت داریم در حالی که نزدیک به 1000 عدد مورد منفی داریم. 1-اینکه تناسب بین داده های ما درست نیست کاملا مشهود…
#measure #fmeasure #fscore
طبق توضیحاتی که در پست ریپلای شده ارائه شده است بعضی مواقع معیار های ارزیابی مدل یادگیری مانند Accuracy ، Precision و Recall ممکن است به درستی کار نکند و از معیاری به نام F-score استفاده شود.
در واقع F-score یک نوع میانگین بین پارامتر Precision (دقت) و پارامتر Recall (یادآوری) است. Precision دقت سیستم در میان دادهای پیشبینی شدهاست. Recall تعداد داده های پیشبینی شده، به تعداد کل دادههای مورد انتظار برای پیشبینی است.
تعریف کلی این معیار با پارامتر β را در شکل مشاهده میکنید، بصورت پیش فرض β=1 است که به F1 معروف است.
به غیر از F1 استفاده از F0.5 و F2 نیز مرسوم است.
زمانی از F2 استفاده میشود که قصد داشته باشیم وزن و تاثیر Recall دو برابر Precision باشد.
زمانی از F0.5 استفاده میشود که قصد داشته باشیم وزن و تاثیر Precision دو برابر Recall باشد.
@silicon_brain
طبق توضیحاتی که در پست ریپلای شده ارائه شده است بعضی مواقع معیار های ارزیابی مدل یادگیری مانند Accuracy ، Precision و Recall ممکن است به درستی کار نکند و از معیاری به نام F-score استفاده شود.
در واقع F-score یک نوع میانگین بین پارامتر Precision (دقت) و پارامتر Recall (یادآوری) است. Precision دقت سیستم در میان دادهای پیشبینی شدهاست. Recall تعداد داده های پیشبینی شده، به تعداد کل دادههای مورد انتظار برای پیشبینی است.
تعریف کلی این معیار با پارامتر β را در شکل مشاهده میکنید، بصورت پیش فرض β=1 است که به F1 معروف است.
به غیر از F1 استفاده از F0.5 و F2 نیز مرسوم است.
زمانی از F2 استفاده میشود که قصد داشته باشیم وزن و تاثیر Recall دو برابر Precision باشد.
زمانی از F0.5 استفاده میشود که قصد داشته باشیم وزن و تاثیر Precision دو برابر Recall باشد.
@silicon_brain
⚡1
#معرفی_ابزار
Trankit
ابزار جدید و مفید برای کارهای حوزه پردازش زبان طبیعی چندزبانه شامل تجزیه وابستگی، تشخیص موجودیتهای اسمی، برچسب زنی ادات سخن و...
@silicon_brain
Trankit
ابزار جدید و مفید برای کارهای حوزه پردازش زبان طبیعی چندزبانه شامل تجزیه وابستگی، تشخیص موجودیتهای اسمی، برچسب زنی ادات سخن و...
@silicon_brain
قابل توجه رپرهای انگلیسی!
Spectrum
اسپکتروم مدلی است که با استفاده از یادگیری عمیق، متن ترانه های رپ را تولید میکند. نسخهی دمو و Colab !
@silicon_brain
Spectrum
اسپکتروم مدلی است که با استفاده از یادگیری عمیق، متن ترانه های رپ را تولید میکند. نسخهی دمو و Colab !
@silicon_brain
کاربردی برای محققان هوش مصنوعی
یک افزونه کروم برای کسانی که میخواهند ویدیوی مقاله رو هم در صورت امکان ببینند:
با لینک زیر میتونید نصب کنید عالیه
گیتهاب
@silicon_brain
یک افزونه کروم برای کسانی که میخواهند ویدیوی مقاله رو هم در صورت امکان ببینند:
با لینک زیر میتونید نصب کنید عالیه
گیتهاب
@silicon_brain
#architecture #alexnet #deep_learning
معماری AlexNet اولین معماری عمیق است که توسط یکی از پیشگامان یادگیری عمیق، یعنی «جفری هینتون» (Geoffrey Hinton) و همکارانش معرفی شده است. AlexNet یک معماری ساده اما قدرتمند است که راه را به سوی تحقیقات بزرگی باز کرد که بدون آنها یادگیری عمیق آن چیزی که الان هست، نبود. در تصویر عملکرد این معماری را میبینید.
وقتی AlexNet را مشاهده میکنیم به نظر یک معماری ساده با لایههای پیچیده است که روی هم سوار شدهاند و کاملا به لایههای بالایی وصل هستند. این یک معماری بسیار ساده است که اولین بار مفهوم آن در دهه 80 میلادی به وجود آمد. چیزی که این مدل را متفاوت میکند، سرعت انجام وظیفه و استفاده از «GPU» برای یادگیری است. در دهه 80 میلادی، برای یادگیری یک شبکه عصبی از «CPU» استفاده میکردند ولی AlexNet با استفاده از «GPU» سرعت این یادگیری را 10 برابر کرد.
@silicon_brain
معماری AlexNet اولین معماری عمیق است که توسط یکی از پیشگامان یادگیری عمیق، یعنی «جفری هینتون» (Geoffrey Hinton) و همکارانش معرفی شده است. AlexNet یک معماری ساده اما قدرتمند است که راه را به سوی تحقیقات بزرگی باز کرد که بدون آنها یادگیری عمیق آن چیزی که الان هست، نبود. در تصویر عملکرد این معماری را میبینید.
وقتی AlexNet را مشاهده میکنیم به نظر یک معماری ساده با لایههای پیچیده است که روی هم سوار شدهاند و کاملا به لایههای بالایی وصل هستند. این یک معماری بسیار ساده است که اولین بار مفهوم آن در دهه 80 میلادی به وجود آمد. چیزی که این مدل را متفاوت میکند، سرعت انجام وظیفه و استفاده از «GPU» برای یادگیری است. در دهه 80 میلادی، برای یادگیری یک شبکه عصبی از «CPU» استفاده میکردند ولی AlexNet با استفاده از «GPU» سرعت این یادگیری را 10 برابر کرد.
@silicon_brain
پشتیبانی کتابخانه SparkNLP از زبان فارسی با استفاده از مدل pre-trained
این کتابخانه توانایی تشخیص
part of speech, entity recognition, lemmatization, stop word, ...
را دارد.
این کتابخانه برای زبان های پایتون، جاوا و اسکالا در دسترس است.
@silicon_brain
این کتابخانه توانایی تشخیص
part of speech, entity recognition, lemmatization, stop word, ...
را دارد.
این کتابخانه برای زبان های پایتون، جاوا و اسکالا در دسترس است.
@silicon_brain
تشخیص دستور پخت غذا از روی تصویر!
این پروژه با همکاری محققهای دانشگاه MIT انجام شده. برای این کار بیش از 1 میلیون دستور پخت و 13 میلیون تصویر غذا جمعآوری شده که دیتاست پروژه قابل دانلود میباشد.
تصویر بالا، چند نمونه تصویر تشخیص دستور پخت از روی تصویر غذا هست. شبکه پیشنهادی هم ترکیبی از CNN و شبکه بازگشتی است.
گیت هاب | مقاله
@silicon_brain
این پروژه با همکاری محققهای دانشگاه MIT انجام شده. برای این کار بیش از 1 میلیون دستور پخت و 13 میلیون تصویر غذا جمعآوری شده که دیتاست پروژه قابل دانلود میباشد.
تصویر بالا، چند نمونه تصویر تشخیص دستور پخت از روی تصویر غذا هست. شبکه پیشنهادی هم ترکیبی از CNN و شبکه بازگشتی است.
گیت هاب | مقاله
@silicon_brain