This media is not supported in your browser
VIEW IN TELEGRAM
اگر میخواهید از متن انگلیسی سوال بسازید، کتابخانه QuestGen راهحل خوبی است که از ترنسفورمرها مدل T5 برای رمزنگاری رمزگشایی استفاده کرده است.
https://github.com/ramsrigouthamg/Questgen.ai
@silicon_brain
https://github.com/ramsrigouthamg/Questgen.ai
@silicon_brain
Silicon Brain | جامعه هوش مصنوعی
در اين شكل رفتار نمودار دقت/epoch را براي دو حالاتي كه: -مدل يادگيري عميق ما خيلي كوچك باشد (يك لايه مخفي با 16 نود) -مدل يادگيري عميق ما كوچك باشد (2 لايه مخفي هر كدام 16 نود ) مشاهده ميكنيد به نظر شما براي مدل يادگيري عميق با سايز متوسط (3 لايه مخفي هر…
در پست ریپلای شده دقت مدل با اندازه های خیلی کوچک و کوچک روی نمودار نشان داده شده بود .
اما وقتی حریص میشویم تا اندازه ی مدل یادگیری را بزرگتر (عمیق تر) کنیم تا دقت بالا رود چه اتفاقی می افتاد؟
به خط قرمز و آبی دقت کنید . صرفا عمیق کردن مدل دقت بالایی روی داده های آموزشی خواهد داشت اما روی داده های اعتبار سنجی دقت پایین تر از حتی مدل کوچک خواهد بود.
پس همواره پیچیده و عمیق شدن مدل راه حل درستی نیست.
اما وقتی حریص میشویم تا اندازه ی مدل یادگیری را بزرگتر (عمیق تر) کنیم تا دقت بالا رود چه اتفاقی می افتاد؟
به خط قرمز و آبی دقت کنید . صرفا عمیق کردن مدل دقت بالایی روی داده های آموزشی خواهد داشت اما روی داده های اعتبار سنجی دقت پایین تر از حتی مدل کوچک خواهد بود.
پس همواره پیچیده و عمیق شدن مدل راه حل درستی نیست.
This media is not supported in your browser
VIEW IN TELEGRAM
#deep_reinforcement_learning
#reinforcement_learning
سال 2015 یک برنامه هوش مصنوعی با استفاده از یادگیری تقویتی عمیق توسط Google DeepMind ایجاد شد که بازی های آتاری را انجام میداد و توانایی ارتقا به سطح فوق انسانی را داشت .
در این ویدیو، عامل هوشمد بعد از 240 دقیقه آموزش دیدن متوجه میشود که تونل زدن و رسیدن به پشت اجزا بهترین راه حل ممکن برای این بازی است .
@silicon_brain
#reinforcement_learning
سال 2015 یک برنامه هوش مصنوعی با استفاده از یادگیری تقویتی عمیق توسط Google DeepMind ایجاد شد که بازی های آتاری را انجام میداد و توانایی ارتقا به سطح فوق انسانی را داشت .
در این ویدیو، عامل هوشمد بعد از 240 دقیقه آموزش دیدن متوجه میشود که تونل زدن و رسیدن به پشت اجزا بهترین راه حل ممکن برای این بازی است .
@silicon_brain
اگر نصف عمرتون پشت ترین کردن مدل یادگیری گذشته باید بدونید که با استفاده از
Dataset.cache()
در کتابخانه تنسورفلو داده ها در epoch اول از دیسک وارد مموری میشود و برای epoch های بعدی لازم نیست به دیسک مراجعه شود.
اینکار اطمینان می دهد که مجموعه داده هنگام آموزش مدل شما به یک گلوگاه تبدیل نمی شود و سرعت یادگیری به طور چشم گیری افزایش میابد.
#tensorflow
@silicon_brain
Dataset.cache()
در کتابخانه تنسورفلو داده ها در epoch اول از دیسک وارد مموری میشود و برای epoch های بعدی لازم نیست به دیسک مراجعه شود.
اینکار اطمینان می دهد که مجموعه داده هنگام آموزش مدل شما به یک گلوگاه تبدیل نمی شود و سرعت یادگیری به طور چشم گیری افزایش میابد.
#tensorflow
@silicon_brain
تصویر قسمتی از یک شبکه ی CNN را مشاهده میکنید که جهت تشخیص حیوانات استفاده شده است.
- در لایه Convolutional تصاویر پیچیده ساده تر میشوند و اطلاعات به درد بخور تصویر نگه داشته میشود .
- با استفاده از Pooling سایز داده ها کاهش پیدا میکند همینطور تعداد پارامتر ها نیز کاهش پیدا میکند و این باعث سریع تر شدن شبکه میشود .
- از تابع فعالسازی RELU هم در ادامه استفاده میشود (کلیک کنید)
این پایان کار شبکه نیست و ممکن است لایه هایی که گفتیم بار ها تکرار شوند تا مدل به دقت کافی برسد.
#cnn #pooling #relu #convolutional
@silicon_brain
- در لایه Convolutional تصاویر پیچیده ساده تر میشوند و اطلاعات به درد بخور تصویر نگه داشته میشود .
- با استفاده از Pooling سایز داده ها کاهش پیدا میکند همینطور تعداد پارامتر ها نیز کاهش پیدا میکند و این باعث سریع تر شدن شبکه میشود .
- از تابع فعالسازی RELU هم در ادامه استفاده میشود (کلیک کنید)
این پایان کار شبکه نیست و ممکن است لایه هایی که گفتیم بار ها تکرار شوند تا مدل به دقت کافی برسد.
#cnn #pooling #relu #convolutional
@silicon_brain
#keras #data_augmentation #generator #memory
در هوش مصنوعی تنها پیاده کردن مدل یادگیری مد نظر نیست. شما باید بتوانید منابع سخت افزاری که در دسترس دارید را به خوبی و بصورت بهینه کنترل کنید.
البته کتابخانه ها مختلف اکثر این کار ها را به صورت خودکار انجام میدهند و تنها کاری که شما باید بکنید آشنایی با دستورات مختلف هر کتابخانه ست.
@silicon_brain
در هوش مصنوعی تنها پیاده کردن مدل یادگیری مد نظر نیست. شما باید بتوانید منابع سخت افزاری که در دسترس دارید را به خوبی و بصورت بهینه کنترل کنید.
البته کتابخانه ها مختلف اکثر این کار ها را به صورت خودکار انجام میدهند و تنها کاری که شما باید بکنید آشنایی با دستورات مختلف هر کتابخانه ست.
@silicon_brain
صحبت از Data Augmentation شد. شما چقدر با این موضوع آشنا هستید ؟
Anonymous Poll
58%
آشنا نیستم
20%
آشنا هستم ولی پیاده نکردم
20%
آشنا هستم و پیاده کردم
2%
آشنا هستم و پیاده کردم اما نمیدونم به چه دردی میخوره!
#معرفی_دیتاست
#تحلیل_احساسات
#انگلیسی_2020
PerSenT (Bastan et al.)
این دیتاست احساسات نویسنده را نسبت به موجودیت اصلی در یک مقاله خبری را جمع کرده است. این مجموعه داده دارای 5.3 هزار سند و 38 هزار پاراگراف با 3.2 هزار موجودیت یونیک است.
سایت | مقاله
(هدف از این سری پستها تشویق علاقهمندان به تولید دیتاست فارسی هست)
@silicon_brain
#تحلیل_احساسات
#انگلیسی_2020
PerSenT (Bastan et al.)
این دیتاست احساسات نویسنده را نسبت به موجودیت اصلی در یک مقاله خبری را جمع کرده است. این مجموعه داده دارای 5.3 هزار سند و 38 هزار پاراگراف با 3.2 هزار موجودیت یونیک است.
سایت | مقاله
(هدف از این سری پستها تشویق علاقهمندان به تولید دیتاست فارسی هست)
@silicon_brain