Silicon Brain | جامعه هوش مصنوعی
7.04K subscribers
1.03K photos
117 videos
60 files
499 links
مغز سیلیکونی|جامعه هوش مصنوعی و یادگیری ماشین

گروه بحث و تبادل نظر:
https://t.me/+SWbgmMZt0XU0MGY0

مطالب و بحث های بیشتر در اینستاگرام:
https://www.instagram.com/silicon_brain/

ارتباط با ادمین:
@silicon_brain_admin
Download Telegram
نکته مهم. #ANN #CNN #deeplearning
در هنگام استفاده از شبکه های عصبی چون عملیات feature extraction بر عهده شبکه میباشد باید بسیار در انجام پیش پردازش داده های خود دقت کنیم.
نباید تغییرات زیادی بر روی داده های دیتاست خود انجام دهیم و داده ها باید خام باشند.
مثلاً در استفاده از شبکه عصبی پیچشی cnn در دیتاست تصویر فوق شاید فکر کنیم اگر لبه های تصاویر را بجای خود تصاویر به شبکه عصبی بدهیم کار cnn را راحتتر کرده ایم و دقت بالاتری خواهیم گرفت. در حالیکه سخت در اشتباهیم و اصالت داده ها تغییر کرده است و با احتمال زیادی دقت بدست آمده کاهش خواهد یافت.
پس هر مقدار داده ها خام تر و بدون پیش پردازش باشند بهتر است.
البته شاید در موارد خاص و محدودی پیش پردازش نیاز باشد.
لازم به ذکر است پیش پردازش هایی مانند one hot encoding مانعی ندارد.
@silicon_brain
نظر شما در مورد استفاده از الگوریتم k-means برای دسته بندی داده هایی با 1000 بعد چیست ؟ (در مورد پاسخ صحیح بحث خواهیم کرد)
Anonymous Poll
20%
به خوبی دسته بندی خواهد کرد
37%
دسته بندی ضعیفی خواهد داشت
23%
این الگوریتم قابلیت پیاده سازی 1000 بعد را ندارد
20%
گوریتم k-means چی هست اصلا؟!
پاسخ سوال بالا :
همانطور که میدانیم معیار اصلی کار کردن الگوریتم k-means فاصله میباشد و در هر تکرار این الگوریتم نقاط نسبت به فاصله ای که از میانگین داد ها دارند دسته بندی میشوند.
(در این لینک به صورت کامل نحوه عملکرد الگوریتم توضیح داده شده)
زمانی که دیتای مورد نظر ما ابعاد خیلی بالایی دارند مثل 1000 بعد دارد، فاصله ی اقلیدسی بین نقاط مفهوم خود را از دست میدهد در نتیجه الگوریتم k-means هم کارایی نخواهد داشت.
البته افرادی به جای فاصله اقلیدسی فاصله ی Cosine را پیشنهاد کردند که در بعضی مواقع موثر بوده است.
@silicon_brain
#keras #verbose
احتمالا زمان fit کردن مدل یادگیری آرگومان verbose را دیده باشید.
آشنایی با آرگومان های ساده و جزئی در خروجی کار تاثیر گذار میتواند باشد.
@silicon_brain
#one_shot learning!
حتما هممون در موقعیت‌هایی مجبور شدیم توسط یک مسئول یا افسر، چهره‌مون رو با عکس کارت شناسایی مطابقت داده شود.
سیستم بینایی انسان بسیار تکامل یافته است و فورا با دقت بالا می‌تواند تشخیص دهد. این فرآیند در هوش مصنوعی یادگیری #one_shot نامیده می‌شود. یعنی قرار است با دو تصویری که قبلا هوش مصنوعی ندیده تعیین کند آیا یکی هست یا نه!

هنگامی که یک مدل ی برای یادگیری یک_شات ساخته می‌شود، دو تصویر می‌گیرد و مقداری را بر می‌گرداند که شباهت بین دو تصویر را نشان می دهد. اگر تصاویر حاوی object یکسانی (یا همان چهره یکسان) باشند، شبکه عصبی مقداری را بازمی گرداند که کوچکتر از آستانه خاص (مثلاً صفر) است و اگر همان شی نباشد، بالاتر از آستانه بازگردانده می‌شود.

(برای جزئیات بیشتر پاورقی مجازیمون یا همون کامنتس رو بخونید)
@silicon_brain
This media is not supported in your browser
VIEW IN TELEGRAM
#AirCanvas
آیا تا کنون به این فکر کرده اید که فقط با حرکت دادن انگشتان خود در هوا شکل مورد نظر خود را رسم کنید؟
با استفاده از air canvas این رویا تحقق خواهد یافت. در این ویدیو کوتاه یک نمونه ابتدایی از air canvas را مشاهده میکنید که با استفاده از تکنیک های بینایی کامپیوتر openCV پیاده سازی شده است.


-به نظر شما air canvas چه کاربردهایی میتواند داشته باشد؟


@silicon_brain
احتمالا برای شما هم پیش اومده که هنگام ساخت تصاویر و استوری شبکه های اجتماعی بر اساس زبان فارسی، ابزار مناسبی در بستر موبایل پیدا نکردید.
اپلیکیشن داینامو توسط یکی از اعضای گروه سیلیکون برین ساخته شده که ابزار مناسبی برای ساختن تصاویر و استوری های فارسی است.
این اپلیکیشن فونت های فارسی مختلف و ابزار ویرایش متن و تصویر برای شما ارائه میدهد.
در بروز رسانی های آینده این اپلیکیشن مجهز به پردازش متن و تصویر هوشمند خواهد شد.
دانلود از مایکت
دانلود از بازار
دانلود از کانال تلگرام

@silicon_brain
#معرفی_دیتاست
#سوال_به_SPARQL
#انگلیسی_2020

MK-SQuIT (Spiegel et al.)

دیتاست شامل 110 هزار جفت پرسش انگلیسی و SPARQL در چهار دامنه WikiData است.

ابزاری مفید برای برای دسترسی به اطلاعات پایگاه داده می‌تواند باشد.
مناسب برای سیستم‌های پرسش و پاسخ و ترجمه ماشینی

مقاله | دیتاست
(هدف از این سری پست‌ها آشنایی با انواع داده‌ها و فیلدها و بومی‌سازی آن است)
@silicon_brain
#som #selforganizingmap #Kohonen

شبکه عصبی کوهونن (Kohonen) یا
Self-Organizing Map (SOM)
نوع خاصی از شبکه عصبی است که از نظر شیوه عملکرد، ساختار و کاربرد، با انواع شبکه عصبی دیگر متفاوت است.
ایده اصلی این روش از تقسیم عملکردی ناحیه قشری مغز، الهام گرفته شده است و کاربرد اصلی آن در حل مسائل «یادگیری بدون نظارت» است.
روش SOM زمانی استفاده می شود که داده ها ویژگی های زیادی داشته باشند. این روش داده ها را به خروجی کم بعدی،(معمولا دو بعدی) تبدیل می کند. خروجی نمایشی (که در شکل سطح دو بعدی نمایش داده شده) را Map مینامند.
ادامه مطلب را در کامنت این پست بخوانید.
@silicon_brain
#unet #cnn #convolutional

شبکه ی ‏U-Net یک شبکه عصبی کانولوشن است که برای تقسیم بندی تصاویر پزشکی توسط گروه علوم کامپیوتر دانشگاه فرایبورگ آلمان ساخته شده است.
این شبکه مبتنی بر شبکه کاملا کانولوشن میباشد که ساختار آن اصلاح شده و گسترش یافته تا بتواند با تصاویر آموزشی کمتری کار کند و تقسیم بندی دقیق تری نسبت به انواع دیگر شبکه های کانولوشنی داشته باشد.
یک تغییر مهم در U-Net وجود تعداد زیادی کانال برای استخراج ویژگی تصاویر در قسمت نمونه برداری (upsampling) است که به شبکه امکان می دهد اطلاعات را به لایه های با وضوح بالاتر منتقل کند و معماری U شکل را میسازد.
@silicon_brain
👌1
Silicon Brain | جامعه هوش مصنوعی
همانطور که در متن بالا مشاهده میکنید مقدار accuracy یا به تعبیری دقت پیش بینی ما 0.999 شده، یعنی خیلی خیلی دقت بالا این درحالیست که ما فقط 1 مورد مثبت داریم در حالی که نزدیک به 1000 عدد مورد منفی داریم. 1-اینکه تناسب بین داده های ما درست نیست کاملا مشهود…
#measure #fmeasure #fscore
طبق توضیحاتی که در پست ریپلای شده ارائه شده است بعضی مواقع معیار های ارزیابی مدل یادگیری مانند Accuracy ، Precision و Recall ممکن است به درستی کار نکند و از معیاری به نام F-score استفاده شود.
در واقع F-score یک نوع میانگین بین پارامتر Precision (دقت) و پارامتر Recall (یادآوری) است. Precision دقت سیستم در میان دادهای پیش‌بینی شده‌است. Recall تعداد داده‌ های پیش‌بینی شده، به تعداد کل داده‌های مورد انتظار برای پیش‌بینی است.
تعریف کلی این معیار با پارامتر β را در شکل مشاهده میکنید، بصورت پیش فرض β=1 است که به F1 معروف است.
به غیر از F1 استفاده از F0.5 و F2 نیز مرسوم است.
زمانی از F2 استفاده میشود که قصد داشته باشیم وزن و تاثیر Recall دو برابر Precision باشد.
زمانی از F0.5 استفاده میشود که قصد داشته باشیم وزن و تاثیر Precision دو برابر Recall باشد.
@silicon_brain
1
#معرفی_ابزار

Trankit

ابزار جدید و مفید برای کارهای حوزه پردازش زبان طبیعی چندزبانه شامل تجزیه وابستگی، تشخیص موجودیت‌های اسمی، برچسب زنی ادات سخن و...


@silicon_brain
قابل توجه رپرهای انگلیسی!
Spectrum
اسپکتروم مدلی است که با استفاده از یادگیری عمیق، متن ترانه های رپ را تولید می‌کند. نسخه‌ی دمو و Colab !

@silicon_brain
کاربردی برای محققان هوش مصنوعی

یک افزونه کروم برای کسانی که میخواهند ویدیوی مقاله رو هم در صورت امکان ببینند:
با لینک زیر میتونید نصب کنید عالیه

گیت‌هاب
@silicon_brain
#architecture #alexnet #deep_learning

معماری AlexNet اولین معماری عمیق است که توسط یکی از پیشگامان یادگیری عمیق، یعنی «جفری هینتون» (Geoffrey Hinton) و همکارانش معرفی شده است. AlexNet یک معماری ساده اما قدرتمند است که راه را به سوی تحقیقات بزرگی باز کرد که بدون آن‌ها یادگیری عمیق آن چیزی که الان هست، نبود. در تصویر عملکرد این معماری را می‌بینید.
وقتی AlexNet را مشاهده میکنیم به نظر یک معماری ساده با لایه‌های پیچیده است که روی هم سوار شده‌اند و کاملا به لایه‌های بالایی وصل هستند. این یک معماری بسیار ساده است که اولین بار مفهوم آن در دهه‌ 80 میلادی به وجود آمد. چیزی که این مدل را متفاوت می‌کند، سرعت انجام وظیفه و استفاده از «GPU» برای یادگیری است. در دهه‌ 80 میلادی، برای یادگیری یک شبکه‌ عصبی از «CPU» استفاده می‌کردند ولی AlexNet با استفاده از «GPU» سرعت این یادگیری را 10 برابر کرد.
@silicon_brain
پشتیبانی کتابخانه SparkNLP از زبان فارسی با استفاده از مدل pre-trained
این کتابخانه توانایی تشخیص
part of speech, entity recognition, lemmatization, stop word, ...
را دارد.
این کتابخانه برای زبان های پایتون، جاوا و اسکالا در دسترس است.
@silicon_brain
تشخیص دستور پخت غذا از روی تصویر!

این پروژه با همکاری محقق‌های دانشگاه MIT انجام شده. برای این کار بیش از 1 میلیون دستور پخت و 13 میلیون تصویر غذا جمع‌آوری شده که دیتاست پروژه قابل دانلود میباشد.

تصویر بالا، چند نمونه تصویر تشخیص دستور پخت از روی تصویر غذا هست. شبکه پیشنهادی هم ترکیبی از CNN و شبکه بازگشتی است.
گیت هاب | مقاله
@silicon_brain
مکانیزم توجه در یک قاب!
این تصویر به درک کامل شما از مکانیزم توجه کمک می‌کند.
فایل کیفیت بالای مکانیزم توجه چند رأسی (multi-head attention) و توجه در نظرات قابل مشاهده است.
@silicon_brain
#vgg #vgg_network #architecture
معماری VGG Network توسط محققان گروه «Visual Graphics Group» در آکسفورد معرفی شده‌است. این شبکه بیشتر بخاطر شکل هرمی مانندش شناخته می‌شود که در آن لایه‌هایی که به تصویر نزدیکتر هستند، پهن‌تر، و لایه‌های دورتر، عمیق‌تر هستند.
همانطور که در تصویر مشخص است، VGG شامل یک سری از لایه‌های محاسباتی (Convolutional) است که پشت آن‌ها لایه‌های جمع‌کننده (pooling) وجود دارند که لایه‌ها را کوچکتر می‌کنند.
از مزایای VGG می‌توان موارد زیر را نام برد:
1-یک معماری خیلی خوب برای سنجش یک وظیفه‌ مشخص است.
2-شبکه‌های از قبل تعلیم دیده‌ VGG به طور رایگان در اینترنت قرار دارند، به همین جهت در خیلی از اپلیکیشن‌ها استفاده می‌شوند.
ولی مشکل اصلی این معماری این است که اگر بخواهید آن را از پایه تعلیم دهید، بسیار کند و زمان‌بر است. حتی در یک سیستم با «GPU» خوب هم راه اندازی آن بیشتر از یک هفته زمان می‌برد.
(تصاویر بیشتر در کامنت)
@silicon_brain
#neural_machine_translation #nmt
#ترجمه_ماشینی وظیفه تبدیل خودکار متن از یک زبان منبع را به متن زبان دیگر دارد. با توجه به دنباله ای از متن در یک زبان مبدا ، بهترین ترجمه واحد از آن متن به زبان دیگر وجود ندارد. این به دلیل انعطاف پذیری طبیعی زبان انسان است که این مسئله چالش ترجمه اتوماتیک ماشین را دشوار می کند و از مسائل دشوار هوش مصنوعی میباشد.

ترجمه عصبی ماشینی یا (Neural Machine Translation) یک رویکرد ترجمه ماشینی است که یک شبکه عصبی مصنوعی بزرگ را برای پیش بینی احتمال دنباله ای از کلمات، اعمال می کند. بر خلاف ترجمه ماشین آماری ، که حافظه و زمان بیشتری را مصرف می کند ، ترجمه ماشین عصبی ، بخش های تشکیل دهنده خود را تا به انتها آموزش می دهد تا حداکثر عملکرد را داشته باشد.

سیستم های NMT به سرعت در حال پیشروی در ترجمه ماشینی هستند و اخیراً از مدل های سنتی سیستم های ترجمه پیشی گرفته اند.