احتمالا برای شما هم پیش اومده که هنگام ساخت تصاویر و استوری شبکه های اجتماعی بر اساس زبان فارسی، ابزار مناسبی در بستر موبایل پیدا نکردید.
اپلیکیشن داینامو توسط یکی از اعضای گروه سیلیکون برین ساخته شده که ابزار مناسبی برای ساختن تصاویر و استوری های فارسی است.
این اپلیکیشن فونت های فارسی مختلف و ابزار ویرایش متن و تصویر برای شما ارائه میدهد.
در بروز رسانی های آینده این اپلیکیشن مجهز به پردازش متن و تصویر هوشمند خواهد شد.
دانلود از مایکت
دانلود از بازار
دانلود از کانال تلگرام
@silicon_brain
اپلیکیشن داینامو توسط یکی از اعضای گروه سیلیکون برین ساخته شده که ابزار مناسبی برای ساختن تصاویر و استوری های فارسی است.
این اپلیکیشن فونت های فارسی مختلف و ابزار ویرایش متن و تصویر برای شما ارائه میدهد.
در بروز رسانی های آینده این اپلیکیشن مجهز به پردازش متن و تصویر هوشمند خواهد شد.
دانلود از مایکت
دانلود از بازار
دانلود از کانال تلگرام
@silicon_brain
#معرفی_دیتاست
#سوال_به_SPARQL
#انگلیسی_2020
MK-SQuIT (Spiegel et al.)
دیتاست شامل 110 هزار جفت پرسش انگلیسی و SPARQL در چهار دامنه WikiData است.
✅ابزاری مفید برای برای دسترسی به اطلاعات پایگاه داده میتواند باشد.
✅مناسب برای سیستمهای پرسش و پاسخ و ترجمه ماشینی
مقاله | دیتاست
(هدف از این سری پستها آشنایی با انواع دادهها و فیلدها و بومیسازی آن است)
@silicon_brain
#سوال_به_SPARQL
#انگلیسی_2020
MK-SQuIT (Spiegel et al.)
دیتاست شامل 110 هزار جفت پرسش انگلیسی و SPARQL در چهار دامنه WikiData است.
✅ابزاری مفید برای برای دسترسی به اطلاعات پایگاه داده میتواند باشد.
✅مناسب برای سیستمهای پرسش و پاسخ و ترجمه ماشینی
مقاله | دیتاست
(هدف از این سری پستها آشنایی با انواع دادهها و فیلدها و بومیسازی آن است)
@silicon_brain
#som #selforganizingmap #Kohonen
شبکه عصبی کوهونن (Kohonen) یا
Self-Organizing Map (SOM)
نوع خاصی از شبکه عصبی است که از نظر شیوه عملکرد، ساختار و کاربرد، با انواع شبکه عصبی دیگر متفاوت است.
ایده اصلی این روش از تقسیم عملکردی ناحیه قشری مغز، الهام گرفته شده است و کاربرد اصلی آن در حل مسائل «یادگیری بدون نظارت» است.
روش SOM زمانی استفاده می شود که داده ها ویژگی های زیادی داشته باشند. این روش داده ها را به خروجی کم بعدی،(معمولا دو بعدی) تبدیل می کند. خروجی نمایشی (که در شکل سطح دو بعدی نمایش داده شده) را Map مینامند.
ادامه مطلب را در کامنت این پست بخوانید.
@silicon_brain
شبکه عصبی کوهونن (Kohonen) یا
Self-Organizing Map (SOM)
نوع خاصی از شبکه عصبی است که از نظر شیوه عملکرد، ساختار و کاربرد، با انواع شبکه عصبی دیگر متفاوت است.
ایده اصلی این روش از تقسیم عملکردی ناحیه قشری مغز، الهام گرفته شده است و کاربرد اصلی آن در حل مسائل «یادگیری بدون نظارت» است.
روش SOM زمانی استفاده می شود که داده ها ویژگی های زیادی داشته باشند. این روش داده ها را به خروجی کم بعدی،(معمولا دو بعدی) تبدیل می کند. خروجی نمایشی (که در شکل سطح دو بعدی نمایش داده شده) را Map مینامند.
ادامه مطلب را در کامنت این پست بخوانید.
@silicon_brain
#unet #cnn #convolutional
شبکه ی U-Net یک شبکه عصبی کانولوشن است که برای تقسیم بندی تصاویر پزشکی توسط گروه علوم کامپیوتر دانشگاه فرایبورگ آلمان ساخته شده است.
این شبکه مبتنی بر شبکه کاملا کانولوشن میباشد که ساختار آن اصلاح شده و گسترش یافته تا بتواند با تصاویر آموزشی کمتری کار کند و تقسیم بندی دقیق تری نسبت به انواع دیگر شبکه های کانولوشنی داشته باشد.
یک تغییر مهم در U-Net وجود تعداد زیادی کانال برای استخراج ویژگی تصاویر در قسمت نمونه برداری (upsampling) است که به شبکه امکان می دهد اطلاعات را به لایه های با وضوح بالاتر منتقل کند و معماری U شکل را میسازد.
@silicon_brain
شبکه ی U-Net یک شبکه عصبی کانولوشن است که برای تقسیم بندی تصاویر پزشکی توسط گروه علوم کامپیوتر دانشگاه فرایبورگ آلمان ساخته شده است.
این شبکه مبتنی بر شبکه کاملا کانولوشن میباشد که ساختار آن اصلاح شده و گسترش یافته تا بتواند با تصاویر آموزشی کمتری کار کند و تقسیم بندی دقیق تری نسبت به انواع دیگر شبکه های کانولوشنی داشته باشد.
یک تغییر مهم در U-Net وجود تعداد زیادی کانال برای استخراج ویژگی تصاویر در قسمت نمونه برداری (upsampling) است که به شبکه امکان می دهد اطلاعات را به لایه های با وضوح بالاتر منتقل کند و معماری U شکل را میسازد.
@silicon_brain
👌1
Silicon Brain | جامعه هوش مصنوعی
همانطور که در متن بالا مشاهده میکنید مقدار accuracy یا به تعبیری دقت پیش بینی ما 0.999 شده، یعنی خیلی خیلی دقت بالا این درحالیست که ما فقط 1 مورد مثبت داریم در حالی که نزدیک به 1000 عدد مورد منفی داریم. 1-اینکه تناسب بین داده های ما درست نیست کاملا مشهود…
#measure #fmeasure #fscore
طبق توضیحاتی که در پست ریپلای شده ارائه شده است بعضی مواقع معیار های ارزیابی مدل یادگیری مانند Accuracy ، Precision و Recall ممکن است به درستی کار نکند و از معیاری به نام F-score استفاده شود.
در واقع F-score یک نوع میانگین بین پارامتر Precision (دقت) و پارامتر Recall (یادآوری) است. Precision دقت سیستم در میان دادهای پیشبینی شدهاست. Recall تعداد داده های پیشبینی شده، به تعداد کل دادههای مورد انتظار برای پیشبینی است.
تعریف کلی این معیار با پارامتر β را در شکل مشاهده میکنید، بصورت پیش فرض β=1 است که به F1 معروف است.
به غیر از F1 استفاده از F0.5 و F2 نیز مرسوم است.
زمانی از F2 استفاده میشود که قصد داشته باشیم وزن و تاثیر Recall دو برابر Precision باشد.
زمانی از F0.5 استفاده میشود که قصد داشته باشیم وزن و تاثیر Precision دو برابر Recall باشد.
@silicon_brain
طبق توضیحاتی که در پست ریپلای شده ارائه شده است بعضی مواقع معیار های ارزیابی مدل یادگیری مانند Accuracy ، Precision و Recall ممکن است به درستی کار نکند و از معیاری به نام F-score استفاده شود.
در واقع F-score یک نوع میانگین بین پارامتر Precision (دقت) و پارامتر Recall (یادآوری) است. Precision دقت سیستم در میان دادهای پیشبینی شدهاست. Recall تعداد داده های پیشبینی شده، به تعداد کل دادههای مورد انتظار برای پیشبینی است.
تعریف کلی این معیار با پارامتر β را در شکل مشاهده میکنید، بصورت پیش فرض β=1 است که به F1 معروف است.
به غیر از F1 استفاده از F0.5 و F2 نیز مرسوم است.
زمانی از F2 استفاده میشود که قصد داشته باشیم وزن و تاثیر Recall دو برابر Precision باشد.
زمانی از F0.5 استفاده میشود که قصد داشته باشیم وزن و تاثیر Precision دو برابر Recall باشد.
@silicon_brain
⚡1
#معرفی_ابزار
Trankit
ابزار جدید و مفید برای کارهای حوزه پردازش زبان طبیعی چندزبانه شامل تجزیه وابستگی، تشخیص موجودیتهای اسمی، برچسب زنی ادات سخن و...
@silicon_brain
Trankit
ابزار جدید و مفید برای کارهای حوزه پردازش زبان طبیعی چندزبانه شامل تجزیه وابستگی، تشخیص موجودیتهای اسمی، برچسب زنی ادات سخن و...
@silicon_brain
قابل توجه رپرهای انگلیسی!
Spectrum
اسپکتروم مدلی است که با استفاده از یادگیری عمیق، متن ترانه های رپ را تولید میکند. نسخهی دمو و Colab !
@silicon_brain
Spectrum
اسپکتروم مدلی است که با استفاده از یادگیری عمیق، متن ترانه های رپ را تولید میکند. نسخهی دمو و Colab !
@silicon_brain
کاربردی برای محققان هوش مصنوعی
یک افزونه کروم برای کسانی که میخواهند ویدیوی مقاله رو هم در صورت امکان ببینند:
با لینک زیر میتونید نصب کنید عالیه
گیتهاب
@silicon_brain
یک افزونه کروم برای کسانی که میخواهند ویدیوی مقاله رو هم در صورت امکان ببینند:
با لینک زیر میتونید نصب کنید عالیه
گیتهاب
@silicon_brain
#architecture #alexnet #deep_learning
معماری AlexNet اولین معماری عمیق است که توسط یکی از پیشگامان یادگیری عمیق، یعنی «جفری هینتون» (Geoffrey Hinton) و همکارانش معرفی شده است. AlexNet یک معماری ساده اما قدرتمند است که راه را به سوی تحقیقات بزرگی باز کرد که بدون آنها یادگیری عمیق آن چیزی که الان هست، نبود. در تصویر عملکرد این معماری را میبینید.
وقتی AlexNet را مشاهده میکنیم به نظر یک معماری ساده با لایههای پیچیده است که روی هم سوار شدهاند و کاملا به لایههای بالایی وصل هستند. این یک معماری بسیار ساده است که اولین بار مفهوم آن در دهه 80 میلادی به وجود آمد. چیزی که این مدل را متفاوت میکند، سرعت انجام وظیفه و استفاده از «GPU» برای یادگیری است. در دهه 80 میلادی، برای یادگیری یک شبکه عصبی از «CPU» استفاده میکردند ولی AlexNet با استفاده از «GPU» سرعت این یادگیری را 10 برابر کرد.
@silicon_brain
معماری AlexNet اولین معماری عمیق است که توسط یکی از پیشگامان یادگیری عمیق، یعنی «جفری هینتون» (Geoffrey Hinton) و همکارانش معرفی شده است. AlexNet یک معماری ساده اما قدرتمند است که راه را به سوی تحقیقات بزرگی باز کرد که بدون آنها یادگیری عمیق آن چیزی که الان هست، نبود. در تصویر عملکرد این معماری را میبینید.
وقتی AlexNet را مشاهده میکنیم به نظر یک معماری ساده با لایههای پیچیده است که روی هم سوار شدهاند و کاملا به لایههای بالایی وصل هستند. این یک معماری بسیار ساده است که اولین بار مفهوم آن در دهه 80 میلادی به وجود آمد. چیزی که این مدل را متفاوت میکند، سرعت انجام وظیفه و استفاده از «GPU» برای یادگیری است. در دهه 80 میلادی، برای یادگیری یک شبکه عصبی از «CPU» استفاده میکردند ولی AlexNet با استفاده از «GPU» سرعت این یادگیری را 10 برابر کرد.
@silicon_brain
پشتیبانی کتابخانه SparkNLP از زبان فارسی با استفاده از مدل pre-trained
این کتابخانه توانایی تشخیص
part of speech, entity recognition, lemmatization, stop word, ...
را دارد.
این کتابخانه برای زبان های پایتون، جاوا و اسکالا در دسترس است.
@silicon_brain
این کتابخانه توانایی تشخیص
part of speech, entity recognition, lemmatization, stop word, ...
را دارد.
این کتابخانه برای زبان های پایتون، جاوا و اسکالا در دسترس است.
@silicon_brain
تشخیص دستور پخت غذا از روی تصویر!
این پروژه با همکاری محققهای دانشگاه MIT انجام شده. برای این کار بیش از 1 میلیون دستور پخت و 13 میلیون تصویر غذا جمعآوری شده که دیتاست پروژه قابل دانلود میباشد.
تصویر بالا، چند نمونه تصویر تشخیص دستور پخت از روی تصویر غذا هست. شبکه پیشنهادی هم ترکیبی از CNN و شبکه بازگشتی است.
گیت هاب | مقاله
@silicon_brain
این پروژه با همکاری محققهای دانشگاه MIT انجام شده. برای این کار بیش از 1 میلیون دستور پخت و 13 میلیون تصویر غذا جمعآوری شده که دیتاست پروژه قابل دانلود میباشد.
تصویر بالا، چند نمونه تصویر تشخیص دستور پخت از روی تصویر غذا هست. شبکه پیشنهادی هم ترکیبی از CNN و شبکه بازگشتی است.
گیت هاب | مقاله
@silicon_brain
مکانیزم توجه در یک قاب!
این تصویر به درک کامل شما از مکانیزم توجه کمک میکند.
فایل کیفیت بالای مکانیزم توجه چند رأسی (multi-head attention) و توجه در نظرات قابل مشاهده است.
@silicon_brain
این تصویر به درک کامل شما از مکانیزم توجه کمک میکند.
فایل کیفیت بالای مکانیزم توجه چند رأسی (multi-head attention) و توجه در نظرات قابل مشاهده است.
@silicon_brain
#vgg #vgg_network #architecture
معماری VGG Network توسط محققان گروه «Visual Graphics Group» در آکسفورد معرفی شدهاست. این شبکه بیشتر بخاطر شکل هرمی مانندش شناخته میشود که در آن لایههایی که به تصویر نزدیکتر هستند، پهنتر، و لایههای دورتر، عمیقتر هستند.
همانطور که در تصویر مشخص است، VGG شامل یک سری از لایههای محاسباتی (Convolutional) است که پشت آنها لایههای جمعکننده (pooling) وجود دارند که لایهها را کوچکتر میکنند.
از مزایای VGG میتوان موارد زیر را نام برد:
1-یک معماری خیلی خوب برای سنجش یک وظیفه مشخص است.
2-شبکههای از قبل تعلیم دیده VGG به طور رایگان در اینترنت قرار دارند، به همین جهت در خیلی از اپلیکیشنها استفاده میشوند.
ولی مشکل اصلی این معماری این است که اگر بخواهید آن را از پایه تعلیم دهید، بسیار کند و زمانبر است. حتی در یک سیستم با «GPU» خوب هم راه اندازی آن بیشتر از یک هفته زمان میبرد.
(تصاویر بیشتر در کامنت)
@silicon_brain
معماری VGG Network توسط محققان گروه «Visual Graphics Group» در آکسفورد معرفی شدهاست. این شبکه بیشتر بخاطر شکل هرمی مانندش شناخته میشود که در آن لایههایی که به تصویر نزدیکتر هستند، پهنتر، و لایههای دورتر، عمیقتر هستند.
همانطور که در تصویر مشخص است، VGG شامل یک سری از لایههای محاسباتی (Convolutional) است که پشت آنها لایههای جمعکننده (pooling) وجود دارند که لایهها را کوچکتر میکنند.
از مزایای VGG میتوان موارد زیر را نام برد:
1-یک معماری خیلی خوب برای سنجش یک وظیفه مشخص است.
2-شبکههای از قبل تعلیم دیده VGG به طور رایگان در اینترنت قرار دارند، به همین جهت در خیلی از اپلیکیشنها استفاده میشوند.
ولی مشکل اصلی این معماری این است که اگر بخواهید آن را از پایه تعلیم دهید، بسیار کند و زمانبر است. حتی در یک سیستم با «GPU» خوب هم راه اندازی آن بیشتر از یک هفته زمان میبرد.
(تصاویر بیشتر در کامنت)
@silicon_brain
#neural_machine_translation #nmt
#ترجمه_ماشینی وظیفه تبدیل خودکار متن از یک زبان منبع را به متن زبان دیگر دارد. با توجه به دنباله ای از متن در یک زبان مبدا ، بهترین ترجمه واحد از آن متن به زبان دیگر وجود ندارد. این به دلیل انعطاف پذیری طبیعی زبان انسان است که این مسئله چالش ترجمه اتوماتیک ماشین را دشوار می کند و از مسائل دشوار هوش مصنوعی میباشد.
ترجمه عصبی ماشینی یا (Neural Machine Translation) یک رویکرد ترجمه ماشینی است که یک شبکه عصبی مصنوعی بزرگ را برای پیش بینی احتمال دنباله ای از کلمات، اعمال می کند. بر خلاف ترجمه ماشین آماری ، که حافظه و زمان بیشتری را مصرف می کند ، ترجمه ماشین عصبی ، بخش های تشکیل دهنده خود را تا به انتها آموزش می دهد تا حداکثر عملکرد را داشته باشد.
سیستم های NMT به سرعت در حال پیشروی در ترجمه ماشینی هستند و اخیراً از مدل های سنتی سیستم های ترجمه پیشی گرفته اند.
#ترجمه_ماشینی وظیفه تبدیل خودکار متن از یک زبان منبع را به متن زبان دیگر دارد. با توجه به دنباله ای از متن در یک زبان مبدا ، بهترین ترجمه واحد از آن متن به زبان دیگر وجود ندارد. این به دلیل انعطاف پذیری طبیعی زبان انسان است که این مسئله چالش ترجمه اتوماتیک ماشین را دشوار می کند و از مسائل دشوار هوش مصنوعی میباشد.
ترجمه عصبی ماشینی یا (Neural Machine Translation) یک رویکرد ترجمه ماشینی است که یک شبکه عصبی مصنوعی بزرگ را برای پیش بینی احتمال دنباله ای از کلمات، اعمال می کند. بر خلاف ترجمه ماشین آماری ، که حافظه و زمان بیشتری را مصرف می کند ، ترجمه ماشین عصبی ، بخش های تشکیل دهنده خود را تا به انتها آموزش می دهد تا حداکثر عملکرد را داشته باشد.
سیستم های NMT به سرعت در حال پیشروی در ترجمه ماشینی هستند و اخیراً از مدل های سنتی سیستم های ترجمه پیشی گرفته اند.
سری سوم آموزش یادگیری ماشین
#درخت_تصمیم #یادگیری_ماشین
#machine_learning #supervised_learning #decision_tree #titanic
#درخت_تصمیم #یادگیری_ماشین
#machine_learning #supervised_learning #decision_tree #titanic
👍3