Silicon Brain | جامعه هوش مصنوعی
7.05K subscribers
1.03K photos
117 videos
60 files
499 links
مغز سیلیکونی|جامعه هوش مصنوعی و یادگیری ماشین

گروه بحث و تبادل نظر:
https://t.me/+SWbgmMZt0XU0MGY0

مطالب و بحث های بیشتر در اینستاگرام:
https://www.instagram.com/silicon_brain/

ارتباط با ادمین:
@silicon_brain_admin
Download Telegram
Silicon Brain | جامعه هوش مصنوعی
در اين شكل رفتار نمودار دقت/epoch را براي دو حالاتي كه: -مدل يادگيري عميق ما خيلي كوچك باشد (يك لايه مخفي با 16 نود) -مدل يادگيري عميق ما كوچك باشد (2 لايه مخفي هر كدام 16 نود ) مشاهده ميكنيد به نظر شما براي مدل يادگيري عميق با سايز متوسط (3 لايه مخفي هر…
در پست ریپلای شده دقت مدل با اندازه های خیلی کوچک و کوچک روی نمودار نشان داده شده بود .
اما وقتی حریص میشویم تا اندازه ی مدل یادگیری را بزرگتر (عمیق تر) کنیم تا دقت بالا رود چه اتفاقی می افتاد؟
به خط قرمز و آبی دقت کنید . صرفا عمیق کردن مدل دقت بالایی روی داده های آموزشی خواهد داشت اما روی داده های اعتبار سنجی دقت پایین تر از حتی مدل کوچک خواهد بود.
پس همواره پیچیده و عمیق شدن مدل راه حل درستی نیست.
This media is not supported in your browser
VIEW IN TELEGRAM
#deep_reinforcement_learning
#reinforcement_learning
سال 2015 یک برنامه هوش مصنوعی با استفاده از یادگیری تقویتی عمیق توسط Google DeepMind ایجاد شد که بازی های آتاری را انجام میداد و توانایی ارتقا به سطح فوق انسانی را داشت .
در این ویدیو، عامل هوشمد بعد از 240 دقیقه آموزش دیدن متوجه میشود که تونل زدن و رسیدن به پشت اجزا بهترین راه حل ممکن برای این بازی است .
@silicon_brain
مقایسه دانشمند داده و مهندس داده
#data_science #data_engineering
@silicon_brain
اگر نصف عمرتون پشت ترین کردن مدل یادگیری گذشته باید بدونید که با استفاده از
Dataset.cache()
در کتابخانه تنسورفلو داده ها در epoch اول از دیسک وارد مموری میشود و برای epoch های بعدی لازم نیست به دیسک مراجعه شود.

اینکار اطمینان می دهد که مجموعه داده هنگام آموزش مدل شما به یک گلوگاه تبدیل نمی شود و سرعت یادگیری به طور چشم گیری افزایش میابد.
#tensorflow
@silicon_brain
تصویر قسمتی از یک شبکه ی CNN را مشاهده میکنید که جهت تشخیص حیوانات استفاده شده است.
- در لایه Convolutional تصاویر پیچیده ساده تر میشوند و اطلاعات به درد بخور تصویر نگه داشته میشود .
- با استفاده از Pooling سایز داده ها کاهش پیدا میکند همینطور تعداد پارامتر ها نیز کاهش پیدا میکند و این باعث سریع تر شدن شبکه میشود .

- از تابع فعالسازی RELU هم در ادامه استفاده میشود (کلیک کنید)
این پایان کار شبکه نیست و ممکن است لایه هایی که گفتیم بار ها تکرار شوند تا مدل به دقت کافی برسد.
#cnn #pooling #relu #convolutional
@silicon_brain
از تقسیم بندی #وظایف_بینایی ماشین چه میدانید؟
@silicon_brain
#keras #data_augmentation #generator #memory
در هوش مصنوعی تنها پیاده کردن مدل یادگیری مد نظر نیست. شما باید بتوانید منابع سخت افزاری که در دسترس دارید را به خوبی و بصورت بهینه کنترل کنید.
البته کتابخانه ها مختلف اکثر این کار ها را به صورت خودکار انجام میدهند و تنها کاری که شما باید بکنید آشنایی با دستورات مختلف هر کتابخانه ست.
@silicon_brain
#معرفی_دیتاست
#تحلیل_احساسات
#انگلیسی_2020

PerSenT (Bastan et al.)

این دیتاست احساسات نویسنده را نسبت به موجودیت اصلی در یک مقاله خبری را جمع کرده است. این مجموعه داده دارای 5.3 هزار سند و 38 هزار پاراگراف با 3.2 هزار موجودیت یونیک است.

سایت | مقاله

(هدف از این سری پست‌ها تشویق علاقه‌مندان به تولید دیتاست فارسی هست)
@silicon_brain
نکته مهم. #ANN #CNN #deeplearning
در هنگام استفاده از شبکه های عصبی چون عملیات feature extraction بر عهده شبکه میباشد باید بسیار در انجام پیش پردازش داده های خود دقت کنیم.
نباید تغییرات زیادی بر روی داده های دیتاست خود انجام دهیم و داده ها باید خام باشند.
مثلاً در استفاده از شبکه عصبی پیچشی cnn در دیتاست تصویر فوق شاید فکر کنیم اگر لبه های تصاویر را بجای خود تصاویر به شبکه عصبی بدهیم کار cnn را راحتتر کرده ایم و دقت بالاتری خواهیم گرفت. در حالیکه سخت در اشتباهیم و اصالت داده ها تغییر کرده است و با احتمال زیادی دقت بدست آمده کاهش خواهد یافت.
پس هر مقدار داده ها خام تر و بدون پیش پردازش باشند بهتر است.
البته شاید در موارد خاص و محدودی پیش پردازش نیاز باشد.
لازم به ذکر است پیش پردازش هایی مانند one hot encoding مانعی ندارد.
@silicon_brain
نظر شما در مورد استفاده از الگوریتم k-means برای دسته بندی داده هایی با 1000 بعد چیست ؟ (در مورد پاسخ صحیح بحث خواهیم کرد)
Anonymous Poll
20%
به خوبی دسته بندی خواهد کرد
37%
دسته بندی ضعیفی خواهد داشت
23%
این الگوریتم قابلیت پیاده سازی 1000 بعد را ندارد
20%
گوریتم k-means چی هست اصلا؟!
پاسخ سوال بالا :
همانطور که میدانیم معیار اصلی کار کردن الگوریتم k-means فاصله میباشد و در هر تکرار این الگوریتم نقاط نسبت به فاصله ای که از میانگین داد ها دارند دسته بندی میشوند.
(در این لینک به صورت کامل نحوه عملکرد الگوریتم توضیح داده شده)
زمانی که دیتای مورد نظر ما ابعاد خیلی بالایی دارند مثل 1000 بعد دارد، فاصله ی اقلیدسی بین نقاط مفهوم خود را از دست میدهد در نتیجه الگوریتم k-means هم کارایی نخواهد داشت.
البته افرادی به جای فاصله اقلیدسی فاصله ی Cosine را پیشنهاد کردند که در بعضی مواقع موثر بوده است.
@silicon_brain