Silicon Brain | جامعه هوش مصنوعی
7.04K subscribers
1.03K photos
117 videos
60 files
499 links
مغز سیلیکونی|جامعه هوش مصنوعی و یادگیری ماشین

گروه بحث و تبادل نظر:
https://t.me/+SWbgmMZt0XU0MGY0

مطالب و بحث های بیشتر در اینستاگرام:
https://www.instagram.com/silicon_brain/

ارتباط با ادمین:
@silicon_brain_admin
Download Telegram
#معرفی_دیتاست
#سوال_به_SPARQL
#انگلیسی_2020

MK-SQuIT (Spiegel et al.)

دیتاست شامل 110 هزار جفت پرسش انگلیسی و SPARQL در چهار دامنه WikiData است.

ابزاری مفید برای برای دسترسی به اطلاعات پایگاه داده می‌تواند باشد.
مناسب برای سیستم‌های پرسش و پاسخ و ترجمه ماشینی

مقاله | دیتاست
(هدف از این سری پست‌ها آشنایی با انواع داده‌ها و فیلدها و بومی‌سازی آن است)
@silicon_brain
#som #selforganizingmap #Kohonen

شبکه عصبی کوهونن (Kohonen) یا
Self-Organizing Map (SOM)
نوع خاصی از شبکه عصبی است که از نظر شیوه عملکرد، ساختار و کاربرد، با انواع شبکه عصبی دیگر متفاوت است.
ایده اصلی این روش از تقسیم عملکردی ناحیه قشری مغز، الهام گرفته شده است و کاربرد اصلی آن در حل مسائل «یادگیری بدون نظارت» است.
روش SOM زمانی استفاده می شود که داده ها ویژگی های زیادی داشته باشند. این روش داده ها را به خروجی کم بعدی،(معمولا دو بعدی) تبدیل می کند. خروجی نمایشی (که در شکل سطح دو بعدی نمایش داده شده) را Map مینامند.
ادامه مطلب را در کامنت این پست بخوانید.
@silicon_brain
#unet #cnn #convolutional

شبکه ی ‏U-Net یک شبکه عصبی کانولوشن است که برای تقسیم بندی تصاویر پزشکی توسط گروه علوم کامپیوتر دانشگاه فرایبورگ آلمان ساخته شده است.
این شبکه مبتنی بر شبکه کاملا کانولوشن میباشد که ساختار آن اصلاح شده و گسترش یافته تا بتواند با تصاویر آموزشی کمتری کار کند و تقسیم بندی دقیق تری نسبت به انواع دیگر شبکه های کانولوشنی داشته باشد.
یک تغییر مهم در U-Net وجود تعداد زیادی کانال برای استخراج ویژگی تصاویر در قسمت نمونه برداری (upsampling) است که به شبکه امکان می دهد اطلاعات را به لایه های با وضوح بالاتر منتقل کند و معماری U شکل را میسازد.
@silicon_brain
👌1
Silicon Brain | جامعه هوش مصنوعی
همانطور که در متن بالا مشاهده میکنید مقدار accuracy یا به تعبیری دقت پیش بینی ما 0.999 شده، یعنی خیلی خیلی دقت بالا این درحالیست که ما فقط 1 مورد مثبت داریم در حالی که نزدیک به 1000 عدد مورد منفی داریم. 1-اینکه تناسب بین داده های ما درست نیست کاملا مشهود…
#measure #fmeasure #fscore
طبق توضیحاتی که در پست ریپلای شده ارائه شده است بعضی مواقع معیار های ارزیابی مدل یادگیری مانند Accuracy ، Precision و Recall ممکن است به درستی کار نکند و از معیاری به نام F-score استفاده شود.
در واقع F-score یک نوع میانگین بین پارامتر Precision (دقت) و پارامتر Recall (یادآوری) است. Precision دقت سیستم در میان دادهای پیش‌بینی شده‌است. Recall تعداد داده‌ های پیش‌بینی شده، به تعداد کل داده‌های مورد انتظار برای پیش‌بینی است.
تعریف کلی این معیار با پارامتر β را در شکل مشاهده میکنید، بصورت پیش فرض β=1 است که به F1 معروف است.
به غیر از F1 استفاده از F0.5 و F2 نیز مرسوم است.
زمانی از F2 استفاده میشود که قصد داشته باشیم وزن و تاثیر Recall دو برابر Precision باشد.
زمانی از F0.5 استفاده میشود که قصد داشته باشیم وزن و تاثیر Precision دو برابر Recall باشد.
@silicon_brain
1
#معرفی_ابزار

Trankit

ابزار جدید و مفید برای کارهای حوزه پردازش زبان طبیعی چندزبانه شامل تجزیه وابستگی، تشخیص موجودیت‌های اسمی، برچسب زنی ادات سخن و...


@silicon_brain
قابل توجه رپرهای انگلیسی!
Spectrum
اسپکتروم مدلی است که با استفاده از یادگیری عمیق، متن ترانه های رپ را تولید می‌کند. نسخه‌ی دمو و Colab !

@silicon_brain
کاربردی برای محققان هوش مصنوعی

یک افزونه کروم برای کسانی که میخواهند ویدیوی مقاله رو هم در صورت امکان ببینند:
با لینک زیر میتونید نصب کنید عالیه

گیت‌هاب
@silicon_brain
#architecture #alexnet #deep_learning

معماری AlexNet اولین معماری عمیق است که توسط یکی از پیشگامان یادگیری عمیق، یعنی «جفری هینتون» (Geoffrey Hinton) و همکارانش معرفی شده است. AlexNet یک معماری ساده اما قدرتمند است که راه را به سوی تحقیقات بزرگی باز کرد که بدون آن‌ها یادگیری عمیق آن چیزی که الان هست، نبود. در تصویر عملکرد این معماری را می‌بینید.
وقتی AlexNet را مشاهده میکنیم به نظر یک معماری ساده با لایه‌های پیچیده است که روی هم سوار شده‌اند و کاملا به لایه‌های بالایی وصل هستند. این یک معماری بسیار ساده است که اولین بار مفهوم آن در دهه‌ 80 میلادی به وجود آمد. چیزی که این مدل را متفاوت می‌کند، سرعت انجام وظیفه و استفاده از «GPU» برای یادگیری است. در دهه‌ 80 میلادی، برای یادگیری یک شبکه‌ عصبی از «CPU» استفاده می‌کردند ولی AlexNet با استفاده از «GPU» سرعت این یادگیری را 10 برابر کرد.
@silicon_brain
پشتیبانی کتابخانه SparkNLP از زبان فارسی با استفاده از مدل pre-trained
این کتابخانه توانایی تشخیص
part of speech, entity recognition, lemmatization, stop word, ...
را دارد.
این کتابخانه برای زبان های پایتون، جاوا و اسکالا در دسترس است.
@silicon_brain
تشخیص دستور پخت غذا از روی تصویر!

این پروژه با همکاری محقق‌های دانشگاه MIT انجام شده. برای این کار بیش از 1 میلیون دستور پخت و 13 میلیون تصویر غذا جمع‌آوری شده که دیتاست پروژه قابل دانلود میباشد.

تصویر بالا، چند نمونه تصویر تشخیص دستور پخت از روی تصویر غذا هست. شبکه پیشنهادی هم ترکیبی از CNN و شبکه بازگشتی است.
گیت هاب | مقاله
@silicon_brain
مکانیزم توجه در یک قاب!
این تصویر به درک کامل شما از مکانیزم توجه کمک می‌کند.
فایل کیفیت بالای مکانیزم توجه چند رأسی (multi-head attention) و توجه در نظرات قابل مشاهده است.
@silicon_brain
#vgg #vgg_network #architecture
معماری VGG Network توسط محققان گروه «Visual Graphics Group» در آکسفورد معرفی شده‌است. این شبکه بیشتر بخاطر شکل هرمی مانندش شناخته می‌شود که در آن لایه‌هایی که به تصویر نزدیکتر هستند، پهن‌تر، و لایه‌های دورتر، عمیق‌تر هستند.
همانطور که در تصویر مشخص است، VGG شامل یک سری از لایه‌های محاسباتی (Convolutional) است که پشت آن‌ها لایه‌های جمع‌کننده (pooling) وجود دارند که لایه‌ها را کوچکتر می‌کنند.
از مزایای VGG می‌توان موارد زیر را نام برد:
1-یک معماری خیلی خوب برای سنجش یک وظیفه‌ مشخص است.
2-شبکه‌های از قبل تعلیم دیده‌ VGG به طور رایگان در اینترنت قرار دارند، به همین جهت در خیلی از اپلیکیشن‌ها استفاده می‌شوند.
ولی مشکل اصلی این معماری این است که اگر بخواهید آن را از پایه تعلیم دهید، بسیار کند و زمان‌بر است. حتی در یک سیستم با «GPU» خوب هم راه اندازی آن بیشتر از یک هفته زمان می‌برد.
(تصاویر بیشتر در کامنت)
@silicon_brain
#neural_machine_translation #nmt
#ترجمه_ماشینی وظیفه تبدیل خودکار متن از یک زبان منبع را به متن زبان دیگر دارد. با توجه به دنباله ای از متن در یک زبان مبدا ، بهترین ترجمه واحد از آن متن به زبان دیگر وجود ندارد. این به دلیل انعطاف پذیری طبیعی زبان انسان است که این مسئله چالش ترجمه اتوماتیک ماشین را دشوار می کند و از مسائل دشوار هوش مصنوعی میباشد.

ترجمه عصبی ماشینی یا (Neural Machine Translation) یک رویکرد ترجمه ماشینی است که یک شبکه عصبی مصنوعی بزرگ را برای پیش بینی احتمال دنباله ای از کلمات، اعمال می کند. بر خلاف ترجمه ماشین آماری ، که حافظه و زمان بیشتری را مصرف می کند ، ترجمه ماشین عصبی ، بخش های تشکیل دهنده خود را تا به انتها آموزش می دهد تا حداکثر عملکرد را داشته باشد.

سیستم های NMT به سرعت در حال پیشروی در ترجمه ماشینی هستند و اخیراً از مدل های سنتی سیستم های ترجمه پیشی گرفته اند.