Silicon Brain | جامعه هوش مصنوعی
7.04K subscribers
1.03K photos
117 videos
60 files
499 links
مغز سیلیکونی|جامعه هوش مصنوعی و یادگیری ماشین

گروه بحث و تبادل نظر:
https://t.me/+SWbgmMZt0XU0MGY0

مطالب و بحث های بیشتر در اینستاگرام:
https://www.instagram.com/silicon_brain/

ارتباط با ادمین:
@silicon_brain_admin
Download Telegram
از تقسیم بندی #وظایف_بینایی ماشین چه میدانید؟
@silicon_brain
#keras #data_augmentation #generator #memory
در هوش مصنوعی تنها پیاده کردن مدل یادگیری مد نظر نیست. شما باید بتوانید منابع سخت افزاری که در دسترس دارید را به خوبی و بصورت بهینه کنترل کنید.
البته کتابخانه ها مختلف اکثر این کار ها را به صورت خودکار انجام میدهند و تنها کاری که شما باید بکنید آشنایی با دستورات مختلف هر کتابخانه ست.
@silicon_brain
#معرفی_دیتاست
#تحلیل_احساسات
#انگلیسی_2020

PerSenT (Bastan et al.)

این دیتاست احساسات نویسنده را نسبت به موجودیت اصلی در یک مقاله خبری را جمع کرده است. این مجموعه داده دارای 5.3 هزار سند و 38 هزار پاراگراف با 3.2 هزار موجودیت یونیک است.

سایت | مقاله

(هدف از این سری پست‌ها تشویق علاقه‌مندان به تولید دیتاست فارسی هست)
@silicon_brain
نکته مهم. #ANN #CNN #deeplearning
در هنگام استفاده از شبکه های عصبی چون عملیات feature extraction بر عهده شبکه میباشد باید بسیار در انجام پیش پردازش داده های خود دقت کنیم.
نباید تغییرات زیادی بر روی داده های دیتاست خود انجام دهیم و داده ها باید خام باشند.
مثلاً در استفاده از شبکه عصبی پیچشی cnn در دیتاست تصویر فوق شاید فکر کنیم اگر لبه های تصاویر را بجای خود تصاویر به شبکه عصبی بدهیم کار cnn را راحتتر کرده ایم و دقت بالاتری خواهیم گرفت. در حالیکه سخت در اشتباهیم و اصالت داده ها تغییر کرده است و با احتمال زیادی دقت بدست آمده کاهش خواهد یافت.
پس هر مقدار داده ها خام تر و بدون پیش پردازش باشند بهتر است.
البته شاید در موارد خاص و محدودی پیش پردازش نیاز باشد.
لازم به ذکر است پیش پردازش هایی مانند one hot encoding مانعی ندارد.
@silicon_brain
نظر شما در مورد استفاده از الگوریتم k-means برای دسته بندی داده هایی با 1000 بعد چیست ؟ (در مورد پاسخ صحیح بحث خواهیم کرد)
Anonymous Poll
20%
به خوبی دسته بندی خواهد کرد
37%
دسته بندی ضعیفی خواهد داشت
23%
این الگوریتم قابلیت پیاده سازی 1000 بعد را ندارد
20%
گوریتم k-means چی هست اصلا؟!
پاسخ سوال بالا :
همانطور که میدانیم معیار اصلی کار کردن الگوریتم k-means فاصله میباشد و در هر تکرار این الگوریتم نقاط نسبت به فاصله ای که از میانگین داد ها دارند دسته بندی میشوند.
(در این لینک به صورت کامل نحوه عملکرد الگوریتم توضیح داده شده)
زمانی که دیتای مورد نظر ما ابعاد خیلی بالایی دارند مثل 1000 بعد دارد، فاصله ی اقلیدسی بین نقاط مفهوم خود را از دست میدهد در نتیجه الگوریتم k-means هم کارایی نخواهد داشت.
البته افرادی به جای فاصله اقلیدسی فاصله ی Cosine را پیشنهاد کردند که در بعضی مواقع موثر بوده است.
@silicon_brain
#keras #verbose
احتمالا زمان fit کردن مدل یادگیری آرگومان verbose را دیده باشید.
آشنایی با آرگومان های ساده و جزئی در خروجی کار تاثیر گذار میتواند باشد.
@silicon_brain
#one_shot learning!
حتما هممون در موقعیت‌هایی مجبور شدیم توسط یک مسئول یا افسر، چهره‌مون رو با عکس کارت شناسایی مطابقت داده شود.
سیستم بینایی انسان بسیار تکامل یافته است و فورا با دقت بالا می‌تواند تشخیص دهد. این فرآیند در هوش مصنوعی یادگیری #one_shot نامیده می‌شود. یعنی قرار است با دو تصویری که قبلا هوش مصنوعی ندیده تعیین کند آیا یکی هست یا نه!

هنگامی که یک مدل ی برای یادگیری یک_شات ساخته می‌شود، دو تصویر می‌گیرد و مقداری را بر می‌گرداند که شباهت بین دو تصویر را نشان می دهد. اگر تصاویر حاوی object یکسانی (یا همان چهره یکسان) باشند، شبکه عصبی مقداری را بازمی گرداند که کوچکتر از آستانه خاص (مثلاً صفر) است و اگر همان شی نباشد، بالاتر از آستانه بازگردانده می‌شود.

(برای جزئیات بیشتر پاورقی مجازیمون یا همون کامنتس رو بخونید)
@silicon_brain
This media is not supported in your browser
VIEW IN TELEGRAM
#AirCanvas
آیا تا کنون به این فکر کرده اید که فقط با حرکت دادن انگشتان خود در هوا شکل مورد نظر خود را رسم کنید؟
با استفاده از air canvas این رویا تحقق خواهد یافت. در این ویدیو کوتاه یک نمونه ابتدایی از air canvas را مشاهده میکنید که با استفاده از تکنیک های بینایی کامپیوتر openCV پیاده سازی شده است.


-به نظر شما air canvas چه کاربردهایی میتواند داشته باشد؟


@silicon_brain
احتمالا برای شما هم پیش اومده که هنگام ساخت تصاویر و استوری شبکه های اجتماعی بر اساس زبان فارسی، ابزار مناسبی در بستر موبایل پیدا نکردید.
اپلیکیشن داینامو توسط یکی از اعضای گروه سیلیکون برین ساخته شده که ابزار مناسبی برای ساختن تصاویر و استوری های فارسی است.
این اپلیکیشن فونت های فارسی مختلف و ابزار ویرایش متن و تصویر برای شما ارائه میدهد.
در بروز رسانی های آینده این اپلیکیشن مجهز به پردازش متن و تصویر هوشمند خواهد شد.
دانلود از مایکت
دانلود از بازار
دانلود از کانال تلگرام

@silicon_brain
#معرفی_دیتاست
#سوال_به_SPARQL
#انگلیسی_2020

MK-SQuIT (Spiegel et al.)

دیتاست شامل 110 هزار جفت پرسش انگلیسی و SPARQL در چهار دامنه WikiData است.

ابزاری مفید برای برای دسترسی به اطلاعات پایگاه داده می‌تواند باشد.
مناسب برای سیستم‌های پرسش و پاسخ و ترجمه ماشینی

مقاله | دیتاست
(هدف از این سری پست‌ها آشنایی با انواع داده‌ها و فیلدها و بومی‌سازی آن است)
@silicon_brain
#som #selforganizingmap #Kohonen

شبکه عصبی کوهونن (Kohonen) یا
Self-Organizing Map (SOM)
نوع خاصی از شبکه عصبی است که از نظر شیوه عملکرد، ساختار و کاربرد، با انواع شبکه عصبی دیگر متفاوت است.
ایده اصلی این روش از تقسیم عملکردی ناحیه قشری مغز، الهام گرفته شده است و کاربرد اصلی آن در حل مسائل «یادگیری بدون نظارت» است.
روش SOM زمانی استفاده می شود که داده ها ویژگی های زیادی داشته باشند. این روش داده ها را به خروجی کم بعدی،(معمولا دو بعدی) تبدیل می کند. خروجی نمایشی (که در شکل سطح دو بعدی نمایش داده شده) را Map مینامند.
ادامه مطلب را در کامنت این پست بخوانید.
@silicon_brain
#unet #cnn #convolutional

شبکه ی ‏U-Net یک شبکه عصبی کانولوشن است که برای تقسیم بندی تصاویر پزشکی توسط گروه علوم کامپیوتر دانشگاه فرایبورگ آلمان ساخته شده است.
این شبکه مبتنی بر شبکه کاملا کانولوشن میباشد که ساختار آن اصلاح شده و گسترش یافته تا بتواند با تصاویر آموزشی کمتری کار کند و تقسیم بندی دقیق تری نسبت به انواع دیگر شبکه های کانولوشنی داشته باشد.
یک تغییر مهم در U-Net وجود تعداد زیادی کانال برای استخراج ویژگی تصاویر در قسمت نمونه برداری (upsampling) است که به شبکه امکان می دهد اطلاعات را به لایه های با وضوح بالاتر منتقل کند و معماری U شکل را میسازد.
@silicon_brain
👌1
Silicon Brain | جامعه هوش مصنوعی
همانطور که در متن بالا مشاهده میکنید مقدار accuracy یا به تعبیری دقت پیش بینی ما 0.999 شده، یعنی خیلی خیلی دقت بالا این درحالیست که ما فقط 1 مورد مثبت داریم در حالی که نزدیک به 1000 عدد مورد منفی داریم. 1-اینکه تناسب بین داده های ما درست نیست کاملا مشهود…
#measure #fmeasure #fscore
طبق توضیحاتی که در پست ریپلای شده ارائه شده است بعضی مواقع معیار های ارزیابی مدل یادگیری مانند Accuracy ، Precision و Recall ممکن است به درستی کار نکند و از معیاری به نام F-score استفاده شود.
در واقع F-score یک نوع میانگین بین پارامتر Precision (دقت) و پارامتر Recall (یادآوری) است. Precision دقت سیستم در میان دادهای پیش‌بینی شده‌است. Recall تعداد داده‌ های پیش‌بینی شده، به تعداد کل داده‌های مورد انتظار برای پیش‌بینی است.
تعریف کلی این معیار با پارامتر β را در شکل مشاهده میکنید، بصورت پیش فرض β=1 است که به F1 معروف است.
به غیر از F1 استفاده از F0.5 و F2 نیز مرسوم است.
زمانی از F2 استفاده میشود که قصد داشته باشیم وزن و تاثیر Recall دو برابر Precision باشد.
زمانی از F0.5 استفاده میشود که قصد داشته باشیم وزن و تاثیر Precision دو برابر Recall باشد.
@silicon_brain
1
#معرفی_ابزار

Trankit

ابزار جدید و مفید برای کارهای حوزه پردازش زبان طبیعی چندزبانه شامل تجزیه وابستگی، تشخیص موجودیت‌های اسمی، برچسب زنی ادات سخن و...


@silicon_brain
قابل توجه رپرهای انگلیسی!
Spectrum
اسپکتروم مدلی است که با استفاده از یادگیری عمیق، متن ترانه های رپ را تولید می‌کند. نسخه‌ی دمو و Colab !

@silicon_brain
کاربردی برای محققان هوش مصنوعی

یک افزونه کروم برای کسانی که میخواهند ویدیوی مقاله رو هم در صورت امکان ببینند:
با لینک زیر میتونید نصب کنید عالیه

گیت‌هاب
@silicon_brain
#architecture #alexnet #deep_learning

معماری AlexNet اولین معماری عمیق است که توسط یکی از پیشگامان یادگیری عمیق، یعنی «جفری هینتون» (Geoffrey Hinton) و همکارانش معرفی شده است. AlexNet یک معماری ساده اما قدرتمند است که راه را به سوی تحقیقات بزرگی باز کرد که بدون آن‌ها یادگیری عمیق آن چیزی که الان هست، نبود. در تصویر عملکرد این معماری را می‌بینید.
وقتی AlexNet را مشاهده میکنیم به نظر یک معماری ساده با لایه‌های پیچیده است که روی هم سوار شده‌اند و کاملا به لایه‌های بالایی وصل هستند. این یک معماری بسیار ساده است که اولین بار مفهوم آن در دهه‌ 80 میلادی به وجود آمد. چیزی که این مدل را متفاوت می‌کند، سرعت انجام وظیفه و استفاده از «GPU» برای یادگیری است. در دهه‌ 80 میلادی، برای یادگیری یک شبکه‌ عصبی از «CPU» استفاده می‌کردند ولی AlexNet با استفاده از «GPU» سرعت این یادگیری را 10 برابر کرد.
@silicon_brain
پشتیبانی کتابخانه SparkNLP از زبان فارسی با استفاده از مدل pre-trained
این کتابخانه توانایی تشخیص
part of speech, entity recognition, lemmatization, stop word, ...
را دارد.
این کتابخانه برای زبان های پایتون، جاوا و اسکالا در دسترس است.
@silicon_brain
تشخیص دستور پخت غذا از روی تصویر!

این پروژه با همکاری محقق‌های دانشگاه MIT انجام شده. برای این کار بیش از 1 میلیون دستور پخت و 13 میلیون تصویر غذا جمع‌آوری شده که دیتاست پروژه قابل دانلود میباشد.

تصویر بالا، چند نمونه تصویر تشخیص دستور پخت از روی تصویر غذا هست. شبکه پیشنهادی هم ترکیبی از CNN و شبکه بازگشتی است.
گیت هاب | مقاله
@silicon_brain