DeepMindNature14236Paper.pdf
4.4 MB
#Google_Nature_paper
Human-level control through deep reinforcement learning
#deep_reinforcement_learning
#deepmind
Human-level control through deep reinforcement learning
#deep_reinforcement_learning
#deepmind
Tensorflow(@CVision)
DeepMindNature14236Paper.pdf
احتمالا قبلا در مورد هوش مصنوعی ای که بازی شطرنج بازی میکرد و اکثر بازیکنان حرفه ای شطرنج را برده شنیده اید! اما حقیقت این است که آن هوش مصنوعی تنها قادر بود شطرنج بازی کند و در واقع فقط برای آن بازی آموزش دیده بود و توانایی هیچ کار دیگری نداشت!
محققان گوگل در مقاله ی سال 2015 نیچر با استفاده از ایده ی #یادگیری_تقویتی شبکه عصبی طراحی کردند که قادر بود که خودش بازی ها را یاد بگیرد!
این هوش مصنوعی که به عنوان ورودی صفحه RGB بازی و به عنوان پاداش امتیاز کسب شده از بازی را دریافت میکرد، با 50 بازی آتاری تست شد و نتایج اعجاب انگیزی داشت!
نکته ی جالب این بود یک ساختار شبکه، توانسته بود خودش هر یک از بازی های آتاری را بیاموزد و در بسیاری از بازی ها از بهترین بازیکن ها ی این بازی ها بهتر بازی کند.
ویدیو نتایج بازی منتشر شده توسط google deepmind:
https://youtu.be/TmPfTpjtdgg
یا
http://deepnn.ir/tensorflow-telegram-files/DQN%20Breakout.mp4
با استفاده از ایدهی #یادگیری_تقویتی، نیاز به داده هایی که انسان در آن دست برده کم تر شده و مدل یا ربات میتواند خودش از دنیای پیرامون اطلاعات کسب کند. در این نوع یادگیری در نهایت تنها پاداش به مدل داده میشود.
#reinforcement_learning #rl #deepmind #atari
محققان گوگل در مقاله ی سال 2015 نیچر با استفاده از ایده ی #یادگیری_تقویتی شبکه عصبی طراحی کردند که قادر بود که خودش بازی ها را یاد بگیرد!
این هوش مصنوعی که به عنوان ورودی صفحه RGB بازی و به عنوان پاداش امتیاز کسب شده از بازی را دریافت میکرد، با 50 بازی آتاری تست شد و نتایج اعجاب انگیزی داشت!
نکته ی جالب این بود یک ساختار شبکه، توانسته بود خودش هر یک از بازی های آتاری را بیاموزد و در بسیاری از بازی ها از بهترین بازیکن ها ی این بازی ها بهتر بازی کند.
ویدیو نتایج بازی منتشر شده توسط google deepmind:
https://youtu.be/TmPfTpjtdgg
یا
http://deepnn.ir/tensorflow-telegram-files/DQN%20Breakout.mp4
با استفاده از ایدهی #یادگیری_تقویتی، نیاز به داده هایی که انسان در آن دست برده کم تر شده و مدل یا ربات میتواند خودش از دنیای پیرامون اطلاعات کسب کند. در این نوع یادگیری در نهایت تنها پاداش به مدل داده میشود.
#reinforcement_learning #rl #deepmind #atari
YouTube
DQN Breakout
This video illustrates the improvement in the performance of DQN over training (i.e. after 100, 200, 400 and 600 episodes). After 600 episodes DQN finds and exploits the optimal strategy in this game, which is to make a tunnel around the side, and then allow…
Tensorflow(@CVision)
https://deepmind.com/blog/deep-reinforcement-learning/ Amazingly, DQN achieved human-level performance in almost half of the 50 games to which it was applied; far beyond any previous method. The #DQN source code and Atari 2600 emulator are freely available…
GitHub
GitHub - devsisters/DQN-tensorflow: Tensorflow implementation of Human-Level Control through Deep Reinforcement Learning
Tensorflow implementation of Human-Level Control through Deep Reinforcement Learning - devsisters/DQN-tensorflow
فیلم ارائه :
📝موضوع : Modern Artificial Intelligence via Deep Learning
http://www.aparat.com/v/ZgHv8#
👤 ارائه دهنده :دکتر علی اسلامی
⏱ زمان: ١١ دى 1395
🔅 محل : دانشگاه تهران
#ارائه #فیلم #سمینار #سخنرانی #eslami #deepmind
@cvision
📝موضوع : Modern Artificial Intelligence via Deep Learning
http://www.aparat.com/v/ZgHv8#
👤 ارائه دهنده :دکتر علی اسلامی
⏱ زمان: ١١ دى 1395
🔅 محل : دانشگاه تهران
#ارائه #فیلم #سمینار #سخنرانی #eslami #deepmind
@cvision
آپارات - سرویس اشتراک ویدیو
سخنرانی دکتر اسلامی
علی اسلامی از پژوهشگران شرکت Google DeepMind در لندن است.
وى هم چنین دوره ی فوق دکترای خود را در Microsoft Research شهر کمبریج به پایان رسانده است. او در این رویداد از Deep Learning برای ما صحبت می کند.
می توانید فایل این ارایه را در سایت ما دریافت کنید.…
وى هم چنین دوره ی فوق دکترای خود را در Microsoft Research شهر کمبریج به پایان رسانده است. او در این رویداد از Deep Learning برای ما صحبت می کند.
می توانید فایل این ارایه را در سایت ما دریافت کنید.…
#مقاله جدید Google Deepmind :
Understanding deep learning through neuron deletion
Pic: https://bit.ly/2pHgwbK
یکی از راه هایی که دانشمندان هم در نوروساینس برای شناخت سیستم استفاده میکنند بررسی نورون های قابل تفسیر یا selective به یک شی یا چیز خاص است.
این نوع مطالعه در یادگیری عمیق و شبکه های عصبی نیز رایج است و برای اینکه دید جعبه سیاه و گنگ نسبت به یک شبکه عمیق آموزش دیده شده را کم کنیم مهم است که شبکه را بهتر بشناسیم. همان طور که اشاره شد یکی از روشها بررسی این است که هر نورون چه قدر در عملکرد شبکه تاثیر دارد.
در این تحقیق نشان داده شده که:
۱- نورون هایی که برای ما قابل تفسیرند(مثل نورونی که به چهره گربه حساس هستند) به هیچ عنوان از نورونهایی که برای ما قابل تفسیر نیستند مهمتر نیستند و حذف هر کدام از نورونهای قابل تفسیر و غیر قابل تفسیر تاثیر یکسانی روی افت کارایی عملکرد شبکه دارد.
۲- شبکه هایی که دیتا را حفظ نکرند و راحت روی دیتایی که در فرآیند آموزش ندیده اند میتوانند عمومیت بخشی کنند به حذف تک تک نورونها کمتر حساس هستند تا شبکه هایی که دیتای آموزشی را حفظ کرده اند.
https://deepmind.com/blog/understanding-deep-learning-through-neuron-deletion/
#neuroscience #deep_learning
#deepmind #selective
Understanding deep learning through neuron deletion
Pic: https://bit.ly/2pHgwbK
یکی از راه هایی که دانشمندان هم در نوروساینس برای شناخت سیستم استفاده میکنند بررسی نورون های قابل تفسیر یا selective به یک شی یا چیز خاص است.
این نوع مطالعه در یادگیری عمیق و شبکه های عصبی نیز رایج است و برای اینکه دید جعبه سیاه و گنگ نسبت به یک شبکه عمیق آموزش دیده شده را کم کنیم مهم است که شبکه را بهتر بشناسیم. همان طور که اشاره شد یکی از روشها بررسی این است که هر نورون چه قدر در عملکرد شبکه تاثیر دارد.
در این تحقیق نشان داده شده که:
۱- نورون هایی که برای ما قابل تفسیرند(مثل نورونی که به چهره گربه حساس هستند) به هیچ عنوان از نورونهایی که برای ما قابل تفسیر نیستند مهمتر نیستند و حذف هر کدام از نورونهای قابل تفسیر و غیر قابل تفسیر تاثیر یکسانی روی افت کارایی عملکرد شبکه دارد.
۲- شبکه هایی که دیتا را حفظ نکرند و راحت روی دیتایی که در فرآیند آموزش ندیده اند میتوانند عمومیت بخشی کنند به حذف تک تک نورونها کمتر حساس هستند تا شبکه هایی که دیتای آموزشی را حفظ کرده اند.
https://deepmind.com/blog/understanding-deep-learning-through-neuron-deletion/
#neuroscience #deep_learning
#deepmind #selective
#خبر
گوگل DeepMind دموی بازی کردن هوش مصنوعی در Starcraft 2 را آنلاین از طریق پخش خواهد کرد.
ساعت 9:30 به وقت تهران
https://www.youtube.com/c/deepmind
لینک خبر:
https://twitter.com/OriolVinyalsML/status/1088125042607697922
#DeepMind
گوگل DeepMind دموی بازی کردن هوش مصنوعی در Starcraft 2 را آنلاین از طریق پخش خواهد کرد.
ساعت 9:30 به وقت تهران
https://www.youtube.com/c/deepmind
لینک خبر:
https://twitter.com/OriolVinyalsML/status/1088125042607697922
#DeepMind
#سورس_کد #مقاله
The Neural Process Family
This repository contains notebook implementations of the following Neural Process variants:
-Conditional Neural Processes (CNPs)
-Neural Processes (NPs)
-#Attentive Neural Processes (ANPs)
https://github.com/deepmind/neural-processes
Related papers:
[1]Conditional Neural Processes: Garnelo M, Rosenbaum D, Maddison CJ, Ramalho T, Saxton D, Shanahan M, Teh YW, Rezende DJ, Eslami SM. Conditional Neural Processes. In International Conference on Machine Learning 2018.
[2]Neural Processes: Garnelo, M., Schwarz, J., Rosenbaum, D., Viola, F., Rezende, D.J., Eslami, S.M. and Teh, Y.W. Neural processes. ICML Workshop on Theoretical Foundations and Applications of Deep Generative Models
[3]Attentive Neural Processes: Kim, H., Mnih, A., Schwarz, J., Garnelo, M., Eslami, A., Rosenbaum, D., Vinyals, O. and Teh, Y.W. Attentive Neural Processes. In International Conference on Learning Representations 2019.
#deepmind
The Neural Process Family
This repository contains notebook implementations of the following Neural Process variants:
-Conditional Neural Processes (CNPs)
-Neural Processes (NPs)
-#Attentive Neural Processes (ANPs)
https://github.com/deepmind/neural-processes
Related papers:
[1]Conditional Neural Processes: Garnelo M, Rosenbaum D, Maddison CJ, Ramalho T, Saxton D, Shanahan M, Teh YW, Rezende DJ, Eslami SM. Conditional Neural Processes. In International Conference on Machine Learning 2018.
[2]Neural Processes: Garnelo, M., Schwarz, J., Rosenbaum, D., Viola, F., Rezende, D.J., Eslami, S.M. and Teh, Y.W. Neural processes. ICML Workshop on Theoretical Foundations and Applications of Deep Generative Models
[3]Attentive Neural Processes: Kim, H., Mnih, A., Schwarz, J., Garnelo, M., Eslami, A., Rosenbaum, D., Vinyals, O. and Teh, Y.W. Attentive Neural Processes. In International Conference on Learning Representations 2019.
#deepmind
GitHub
GitHub - deepmind/neural-processes: This repository contains notebook implementations of the following Neural Process variants:…
This repository contains notebook implementations of the following Neural Process variants: Conditional Neural Processes (CNPs), Neural Processes (NPs), Attentive Neural Processes (ANPs). - GitHub ...
#آموزش #مقاله
New DeepMind Unsupervised Image Model Challenges AlexNet
https://medium.com/syncedreview/new-deepmind-unsupervised-image-model-challenges-alexnet-d658ef92ab1e
⚪️Contrastive Predictive Coding (CPC) that outperforms the fully-supervised AlexNet model in Top-1 and Top-5 accuracy on ImageNet.
⚪️CPC was introduced by DeepMind in 2018. The unsupervised learning approach uses a powerful autoregressive model to extract representations of high-dimensional data to predict future samples.
⚪️Given 13 labeled images per class, DeepMind’s CPC model outperformed state-of-the-art semi-supervised methods by 10 percent in Top-5 accuracy, and supervised methods by 20 percent.
#Unsupervised #DeepMind
New DeepMind Unsupervised Image Model Challenges AlexNet
https://medium.com/syncedreview/new-deepmind-unsupervised-image-model-challenges-alexnet-d658ef92ab1e
⚪️Contrastive Predictive Coding (CPC) that outperforms the fully-supervised AlexNet model in Top-1 and Top-5 accuracy on ImageNet.
⚪️CPC was introduced by DeepMind in 2018. The unsupervised learning approach uses a powerful autoregressive model to extract representations of high-dimensional data to predict future samples.
⚪️Given 13 labeled images per class, DeepMind’s CPC model outperformed state-of-the-art semi-supervised methods by 10 percent in Top-5 accuracy, and supervised methods by 20 percent.
#Unsupervised #DeepMind