#نکته_آموزشی
گوگل قابلیت جدیدی به سرویس کولب خودش اضافه کرده و حالا به صورت مستقیم می توانید نوت بوک های موجود در گیت هاب را در گوگل کولب باز و ذخیره کنید. فقط کافی هست که مسیر آدرس نوت بوک در گیت هاب را به آدرس زیر اضافه کنید:
colab.research.google.com/github
به طور مثال نوت بوک زیر را در نظر بگیرید:
github.com/aymericdamien/TensorFlow-Examples/blob/master/notebooks/3_NeuralNetworks/convolutional_network.ipynb
برای بازکردن این نوت بوک باید آدرس را به صورت زیر تغییر بدهید:
https://colab.research.google.com/github/aymericdamien/TensorFlow-Examples/blob/master/notebooks/3_NeuralNetworks/convolutional_network.ipynb
مرکز تحقیقات هوش پارت
https://t.me/hamimsoft
http://ble.im/hamimsoft
sapp.IR/hamimsoft
گوگل قابلیت جدیدی به سرویس کولب خودش اضافه کرده و حالا به صورت مستقیم می توانید نوت بوک های موجود در گیت هاب را در گوگل کولب باز و ذخیره کنید. فقط کافی هست که مسیر آدرس نوت بوک در گیت هاب را به آدرس زیر اضافه کنید:
colab.research.google.com/github
به طور مثال نوت بوک زیر را در نظر بگیرید:
github.com/aymericdamien/TensorFlow-Examples/blob/master/notebooks/3_NeuralNetworks/convolutional_network.ipynb
برای بازکردن این نوت بوک باید آدرس را به صورت زیر تغییر بدهید:
https://colab.research.google.com/github/aymericdamien/TensorFlow-Examples/blob/master/notebooks/3_NeuralNetworks/convolutional_network.ipynb
مرکز تحقیقات هوش پارت
https://t.me/hamimsoft
http://ble.im/hamimsoft
sapp.IR/hamimsoft
GitHub
TensorFlow-Examples/notebooks/3_NeuralNetworks/convolutional_network.ipynb at master · aymericdamien/TensorFlow-Examples
TensorFlow Tutorial and Examples for Beginners (support TF v1 & v2) - aymericdamien/TensorFlow-Examples
آشنایی اولیه با اتوانکدر ها(قسمت اول)
https://virgool.io/@hamimsoft/i8ee79m1ffw7
https://t.me/hamimsoft
http://ble.im/hamimsoft
sapp.ir/hamimsoft
https://virgool.io/@hamimsoft/i8ee79m1ffw7
https://t.me/hamimsoft
http://ble.im/hamimsoft
sapp.ir/hamimsoft
ویرگول
اتو انکدر ها(بخش اول)
قصد داریم تا در این پست و پست بعدی شما را با یکی از روش های هیجان انگیز و موثر استخراج ویژگی آشنا کنیم. همانطور که حدس می زنید اتوانکدرها موضوع آتی بحث ما خواهند بود. اتوانکدرها نقشی اساسی در یادگیری بدون نظارت و شبکههای عمیق ایفا میکنند. بازنمایی دادهها…
شما میتوانید در شبکه های زیر مارا دنبال کنید :
سایت www.hamimsoft.com
بله ble.im/hamimsoft
پیام رسان سروش sapp.IR/hamimsoft
پیام رسان ایتا eitaa.com/hamimsoft
پیام رسان آی گپ iGap.net/hamimsoft
پیام رسان تلگرام t.me/hamimsoft
کانال آپارات aparat.com/hamimsoft
ویرگول virgool.io/@hamimsoft
همچنین میتوانید با ما از طریق ایمیل info@hamimsoft.com
در ارتباط باشید.
سایت www.hamimsoft.com
بله ble.im/hamimsoft
پیام رسان سروش sapp.IR/hamimsoft
پیام رسان ایتا eitaa.com/hamimsoft
پیام رسان آی گپ iGap.net/hamimsoft
پیام رسان تلگرام t.me/hamimsoft
کانال آپارات aparat.com/hamimsoft
ویرگول virgool.io/@hamimsoft
همچنین میتوانید با ما از طریق ایمیل info@hamimsoft.com
در ارتباط باشید.
مرکز تحقیقات هوش مصنوعی پارت pinned «شما میتوانید در شبکه های زیر مارا دنبال کنید : سایت www.hamimsoft.com بله ble.im/hamimsoft پیام رسان سروش sapp.IR/hamimsoft پیام رسان ایتا eitaa.com/hamimsoft پیام رسان آی گپ iGap.net/hamimsoft پیام رسان تلگرام t.me/hamimsoft کانال آپارات aparat.com/hamimsoft…»
#مقاله
در کنفرانس CVPR 2018 مقاله ای با عنوان «Learning to See in the Dark» ارائه شد که در آن نویسندگان مقاله از دیتاستی شامل تصاویر بسیار تاریک و نسخه روشن آن ها رونمایی کردند. آن ها در این مقاله با استفاده از شبکه های کانولوشنال به کامپیوترها یاد دادند که تصاویری که در نور خیلی کم گرفته شده اند را ببیند و نسخه با نور مناسب آن ها را تولید کند.
لینک مقاله:
https://arxiv.org/pdf/1805.01934.pdf
دانلود دیتاست و پیاده سازی الگوریتم به کار رفته در این مقاله با تنسورفلو:
https://github.com/cchen156/Learning-to-See-in-the-Dark
فیلم دموی این مقاله:
https://www.youtube.com/watch?v=qWKUFK7MWvg&feature=youtu.be
مرکز تحقیقات هوش پارت:
http://t.me/hamimsoft
http://ble.im/hamimsoft
sapp.ir/hamimsoft
در کنفرانس CVPR 2018 مقاله ای با عنوان «Learning to See in the Dark» ارائه شد که در آن نویسندگان مقاله از دیتاستی شامل تصاویر بسیار تاریک و نسخه روشن آن ها رونمایی کردند. آن ها در این مقاله با استفاده از شبکه های کانولوشنال به کامپیوترها یاد دادند که تصاویری که در نور خیلی کم گرفته شده اند را ببیند و نسخه با نور مناسب آن ها را تولید کند.
لینک مقاله:
https://arxiv.org/pdf/1805.01934.pdf
دانلود دیتاست و پیاده سازی الگوریتم به کار رفته در این مقاله با تنسورفلو:
https://github.com/cchen156/Learning-to-See-in-the-Dark
فیلم دموی این مقاله:
https://www.youtube.com/watch?v=qWKUFK7MWvg&feature=youtu.be
مرکز تحقیقات هوش پارت:
http://t.me/hamimsoft
http://ble.im/hamimsoft
sapp.ir/hamimsoft
GitHub
GitHub - cchen156/Learning-to-See-in-the-Dark: Learning to See in the Dark. CVPR 2018
Learning to See in the Dark. CVPR 2018. Contribute to cchen156/Learning-to-See-in-the-Dark development by creating an account on GitHub.
#خبر
بک اند فریمورک یادگیری عمیق Apache MXNet که توسط آمازون پشتیبانی می شود برای کراس منتشر شد.
https://aws.amazon.com/cn/blogs/machine-learning/apache-mxnet-incubating-adds-support-for-keras-2/
مرکز تحقیقات هوش پارت:
https://t.me/hamimsoft
http://ble.im/hamimsoft
sapp.ir/hamimsoft
بک اند فریمورک یادگیری عمیق Apache MXNet که توسط آمازون پشتیبانی می شود برای کراس منتشر شد.
https://aws.amazon.com/cn/blogs/machine-learning/apache-mxnet-incubating-adds-support-for-keras-2/
مرکز تحقیقات هوش پارت:
https://t.me/hamimsoft
http://ble.im/hamimsoft
sapp.ir/hamimsoft
Amazon Web Services
Apache MXNet (incubating) adds support for Keras 2 | Amazon Web Services
The Keras-MXNet deep learning backend is available now, thanks to contributors to the Keras and Apache MXNet (incubating) open source projects. Keras is a high-level neural network API written in Python. It’s popular for its fast and easy prototyping of CNNs…
#منابع_آموزشی #خبرنامه
توصیه می کنیم که عضویت در خبرنامه هفتگی سایت ruder.io که در آن آقای Ruder (یکی از محققین مطرح حوزه یادگیری عمیق و پردازش زبان طبیعی) جدیدترین اخبار، آموزش ها و مطالب مرتبط با یادگیری عمیق و هوش مصنوعی را جمع آوری می کند را از دست ندهید.
http://newsletter.ruder.io/
مرکز تحقیقات هوش پارت:
http://t.me/hamimsoft
http://ble.im/hamimsoft
sapp.ir/hamimsoft
توصیه می کنیم که عضویت در خبرنامه هفتگی سایت ruder.io که در آن آقای Ruder (یکی از محققین مطرح حوزه یادگیری عمیق و پردازش زبان طبیعی) جدیدترین اخبار، آموزش ها و مطالب مرتبط با یادگیری عمیق و هوش مصنوعی را جمع آوری می کند را از دست ندهید.
http://newsletter.ruder.io/
مرکز تحقیقات هوش پارت:
http://t.me/hamimsoft
http://ble.im/hamimsoft
sapp.ir/hamimsoft
پیشبینی سری های زمانی به وسیله کتابخانه پیشگوی فیسبوک (Prophet)
yon.ir/9rFvB
مرکز تحقیقات هوش پارت
https://ble.im/partdpai
https://t.me/partdpai
sapp.IR/partdpai
virgool.io/@partdpai
yon.ir/9rFvB
مرکز تحقیقات هوش پارت
https://ble.im/partdpai
https://t.me/partdpai
sapp.IR/partdpai
virgool.io/@partdpai
هر چند که کماکان #تنسورفلو به عنوان محبوب ترین فریمورک یادگیری عمیق برای استفاده در محیط های عملی محسوب می شود؛ اما فریمورک پایتورچ هم با روند قابل توجهی در حال تبدیل شدن به یکی از ابزارهای محبوب یادگیری عمیق برای کاربرد های غیر تحقیقاتی است. به طور مثال، کارخانه تویوتا برای توسعه فناوری اتومبیل های خودران خود در سطح عملی و در مقیاس جهانی از مدل های یادگیری عمیقی که با استفاده از فریمورک #پایتورچ بر روی سرویس های ابری EC2 P3 آمازون آموزش داده شده اند، استفاده می کند.
https://amzn.to/2ywjG99
مرکز تحقیقات هوش پارت
https://ble.im/partdpai
https://t.me/partdpai
sapp.IR/partdpai
virgool.io/@partdpai
https://amzn.to/2ywjG99
مرکز تحقیقات هوش پارت
https://ble.im/partdpai
https://t.me/partdpai
sapp.IR/partdpai
virgool.io/@partdpai
Amazon
Toyota Research Institute accelerates safe automated driving with deep learning at a global scale on AWS | Amazon Web Services
Vehicles with self-driving technology can bring many benefits to society. One of the top priorities at Toyota Research Institute (TRI) is to apply the latest advancements in artificial intelligence (AI) to help Toyota produce cars that are safer, more accessible…
http://vrgl.ir/bUAN1
در این پست قسمت دوم اتوانکدر ها آموزش داده شده است.
https://ble.im/partdpai
https://t.me/partdpai
sapp.IR/partdpai
virgool.io/@partdpai
در این پست قسمت دوم اتوانکدر ها آموزش داده شده است.
https://ble.im/partdpai
https://t.me/partdpai
sapp.IR/partdpai
virgool.io/@partdpai
ویرگول
اتوانکدر ها (بخش دوم)
در پست قبلی ( اتوانکدر ها(بخش اول)) به بررسی اهمیت اتوانکدر ها به عنوان ابزار استخراج ویژگی پرداختیم و کلیات مربوط به اتوانکدر ها را بررسی کردیم. در این پست به ادامه بحث مربوط خواهیم پرداخت. با ما ه...
راه های ارتباطی مرکز تحقیقات هوش مصنوعی و یادگیری ماشین پارت
سایت hamimsoft.com
ایمیل info@hamimsoft.com
پیام رسان بله ble.im/partdpai
پیام رسان تلگرام t.me/partdpai
پیام رسان سروش sapp.IR/partdpai
آپارات aparat.com/partdpai
ویرگول virgool.io/@partdpai
سایت hamimsoft.com
ایمیل info@hamimsoft.com
پیام رسان بله ble.im/partdpai
پیام رسان تلگرام t.me/partdpai
پیام رسان سروش sapp.IR/partdpai
آپارات aparat.com/partdpai
ویرگول virgool.io/@partdpai
ble.im
ble.im - This website is for sale! - ble Resources and Information.
This website is for sale! ble.im is your first and best source for all of the information you’re looking for. From general topics to more of what you would expect to find here, ble.im has it all. We hope you find what you are searching for!
مرکز تحقیقات هوش مصنوعی پارت pinned «راه های ارتباطی مرکز تحقیقات هوش مصنوعی و یادگیری ماشین پارت سایت hamimsoft.com ایمیل info@hamimsoft.com پیام رسان بله ble.im/partdpai پیام رسان تلگرام t.me/partdpai پیام رسان سروش sapp.IR/partdpai آپارات aparat.com/partdpai ویرگول virgool.io/@partdpai»
هر روز حجم وحشتناک زیادی از مقالات مرتبط با حوزه های مختلف هوش مصنوعی و یادگیری ماشین منتشر می شود و همین مسئله باعث شده که همراهی با جریان علمی خیلی سخت باشد. برای همین اگر یک مدت خیلی کوتاه هم پیگیر تحقیقات علمی نباشید و به روزترین مقالات یک حوزه را نخوانید ممکن است از آخرین روندهای و دستاوردهای این حوزه عقب بمانید. خوشبختانه اخیرا یک سایت به آدرس www.shortscience.org برای حل این مشکل ساخته شده که به نوعی یک سایت معادل سایت stackoverflow برای محققین و پژوهشگران هست و در آن می توانید آخرین مقالات و دستاوردهای عمدتا مربوط به یادگیری ماشین را که توسط اعضای سایت خلاصه شده بخوانید و بر روی آن با بقیه بحث کنید. به علاوه می توانید خلاصه مقالاتی که خواندید را هم روی این سایت قرار بدهید که خودش یک نوع تمرین برای درک و نوشتن مطالب علمی و تحقیقاتی است.
مرکز تحقیقات هوش پارت
https://ble.im/partdpai
https://t.me/partdpai
sapp.IR/partdpai
virgool.io/@partdpai
مرکز تحقیقات هوش پارت
https://ble.im/partdpai
https://t.me/partdpai
sapp.IR/partdpai
virgool.io/@partdpai
ble.im
ble.im - This website is for sale! - ble Resources and Information.
This website is for sale! ble.im is your first and best source for all of the information you’re looking for. From general topics to more of what you would expect to find here, ble.im has it all. We hope you find what you are searching for!
http://vrgl.ir/evHDP
آشنایی اولیه با یادگیری افزایشی
https://ble.im/partdpai
https://t.me/partdpai
sapp.IR/partdpai
virgool.io/@partdpai
آشنایی اولیه با یادگیری افزایشی
https://ble.im/partdpai
https://t.me/partdpai
sapp.IR/partdpai
virgool.io/@partdpai
ویرگول
یادگیری افزایشی(incremental learning)
یک الگوریتم یادگیری افزایشی یک توالی از مدلها h1, h2, ..., ht که از دادههای آموزشی s1, s2, , ...., stتولید میکند. به طوری که مدل hi به مدل hi-1 و همچنین p نمونه آخر s یعنی (si-p,si-p+1, ..., si) وابسته است.یادگیری افزایشی که اخیراً بسیار مورد توجه قرار…
#دیتاست #کد
اسکریپتی برای دانلود بیش از 200 هزار جک کوتاه انگلیسی:
https://github.com/amoudgl/short-jokes-dataset
یک کاربرد بامزه این دیتاست این هست که با استفاده از آن و شبکه های RNN می توانید یک هوش مصنوعی بسازید که خودش برای شما جک بگوید :)
مرکز تحقیقات هوش پارت
https://ble.im/partdpai
https://t.me/partdpai
sapp.IR/partdpai
virgool.io/@partdpai
اسکریپتی برای دانلود بیش از 200 هزار جک کوتاه انگلیسی:
https://github.com/amoudgl/short-jokes-dataset
یک کاربرد بامزه این دیتاست این هست که با استفاده از آن و شبکه های RNN می توانید یک هوش مصنوعی بسازید که خودش برای شما جک بگوید :)
مرکز تحقیقات هوش پارت
https://ble.im/partdpai
https://t.me/partdpai
sapp.IR/partdpai
virgool.io/@partdpai
GitHub
GitHub - amoudgl/short-jokes-dataset: Python scripts for building 'Short Jokes' dataset, featured on Kaggle
Python scripts for building 'Short Jokes' dataset, featured on Kaggle - amoudgl/short-jokes-dataset
برای تنظیم و بهینه سازی خودکار ابرپارامترهای شبکه های یادگیری که با کتابخانه کراس در پایتون می سازیم می توانیم از کتابخانه hyperas استفاده کنیم. در اصل کتابخانه hyperas یک رابط برای کتابخانه معروف تنظیم ابرپارامتر hyperopt هست که با استفاده از روش های بیزی و جستجوی تصادفی ابرپارامترهای بهینه عموم مدل های یادگیری ماشین را برای ما پیدا می کند.
آدرس گیت هاب کتابخانه hyperas
https://github.com/maxpumperla/hyperas
مستندات کتابخانه hyperas
http://maxpumperla.com/hyperas/
مرکز تحقیقات هوش پارت
https://ble.im/partdpai
https://t.me/partdpai
sapp.IR/partdpai
virgool.io/@partdpai
آدرس گیت هاب کتابخانه hyperas
https://github.com/maxpumperla/hyperas
مستندات کتابخانه hyperas
http://maxpumperla.com/hyperas/
مرکز تحقیقات هوش پارت
https://ble.im/partdpai
https://t.me/partdpai
sapp.IR/partdpai
virgool.io/@partdpai
GitHub
GitHub - maxpumperla/hyperas: Keras + Hyperopt: A very simple wrapper for convenient hyperparameter optimization
Keras + Hyperopt: A very simple wrapper for convenient hyperparameter optimization - maxpumperla/hyperas
#مقاله #مقاله_خوانی
احتمالا این خبر را شنیدید که در یکی از مقالات ارائه شده در کنفرانس CVPR 2018 محققین کمپانی NVIDIA با استفاده از یادگیری عمیق موفق شده اند ویدئوهای عادی ( که به طور مثال با تلفن های همراه ضبط شده اند و دقتی در حدود 30 فریم بر ثانیه دارند) را به ویدئوهای اسلوموشن (ویدئوهایی با دقت 240 فریم بر ثانیه) تبدیل کنند. به صورت ساده اگر بخواهیم توضیح دهیم، ایده پشت این مقاله این است که هر ویدئو 30 فریم بر ثانیه ای که با سرعت معمولی ضبط شده در حقیقت یک ویدئو 240 فریم بر ثانیه ای است که 210 فریم باقیمانده آن در هر ثانیه به نوعی از بین رفته اند و ما می خواهیم با استفاده از یادگیری عمیق و بر اساس این 30 فریم، 210 فریم باقیمانده در هر ثانیه را پیشبینی کنیم. برای این کار در این پژوهش، محققین از 11 هزار ویدئو با دقت 240 فریم بر ثانیه به عنوان مجموعه آموزشی استفاده کرده اند که از این میان 30 فریم از 240 فریم ثبت شده در هر ویدئو به عنوان ورودی به یک شبکه کانولوشنال داده شده است تا با آموزش این شبکه بقیه 210 فریم باقیمانده پیشبینی شوند. بنابراین به عبارتی دیگر اگر یک ویدئو که 30 فریم بر ثانیه دارد را به این شبکه بدهیم، در هر ثانیه 210 فریم دیگر به عنوان خروجی به ما داده می شود که با استفاده از آن ها می توانیم یک ویدئو اسلوموشن 240 فریم بر ثانیه ای بسازیم.
در نهایت لازم است که ذکر کنیم تمامی روش ذکر شده در این مقاله با استفاده از فریمورک #پایتورچ پیاده سازی شده است.
لینک مقاله مربوط به این پژوهش
https://arxiv.org/abs/1712.00080
دموی مربوط به این پژوهش:
https://youtu.be/MjViy6kyiqs
مرکز تحقیقات هوش پارت
https://ble.im/partdpai
https://t.me/partdpai
sapp.IR/partdpai
virgool.io/@partdpai
احتمالا این خبر را شنیدید که در یکی از مقالات ارائه شده در کنفرانس CVPR 2018 محققین کمپانی NVIDIA با استفاده از یادگیری عمیق موفق شده اند ویدئوهای عادی ( که به طور مثال با تلفن های همراه ضبط شده اند و دقتی در حدود 30 فریم بر ثانیه دارند) را به ویدئوهای اسلوموشن (ویدئوهایی با دقت 240 فریم بر ثانیه) تبدیل کنند. به صورت ساده اگر بخواهیم توضیح دهیم، ایده پشت این مقاله این است که هر ویدئو 30 فریم بر ثانیه ای که با سرعت معمولی ضبط شده در حقیقت یک ویدئو 240 فریم بر ثانیه ای است که 210 فریم باقیمانده آن در هر ثانیه به نوعی از بین رفته اند و ما می خواهیم با استفاده از یادگیری عمیق و بر اساس این 30 فریم، 210 فریم باقیمانده در هر ثانیه را پیشبینی کنیم. برای این کار در این پژوهش، محققین از 11 هزار ویدئو با دقت 240 فریم بر ثانیه به عنوان مجموعه آموزشی استفاده کرده اند که از این میان 30 فریم از 240 فریم ثبت شده در هر ویدئو به عنوان ورودی به یک شبکه کانولوشنال داده شده است تا با آموزش این شبکه بقیه 210 فریم باقیمانده پیشبینی شوند. بنابراین به عبارتی دیگر اگر یک ویدئو که 30 فریم بر ثانیه دارد را به این شبکه بدهیم، در هر ثانیه 210 فریم دیگر به عنوان خروجی به ما داده می شود که با استفاده از آن ها می توانیم یک ویدئو اسلوموشن 240 فریم بر ثانیه ای بسازیم.
در نهایت لازم است که ذکر کنیم تمامی روش ذکر شده در این مقاله با استفاده از فریمورک #پایتورچ پیاده سازی شده است.
لینک مقاله مربوط به این پژوهش
https://arxiv.org/abs/1712.00080
دموی مربوط به این پژوهش:
https://youtu.be/MjViy6kyiqs
مرکز تحقیقات هوش پارت
https://ble.im/partdpai
https://t.me/partdpai
sapp.IR/partdpai
virgool.io/@partdpai
YouTube
Research at NVIDIA: Transforming Standard Video Into Slow Motion with AI
Researchers from NVIDIA developed a deep learning-based system that can produce high-quality slow-motion videos from a 30-frame-per-second video, outperforming various state-of-the-art methods that aim to do the same.
Learn more: https://nvda.ws/2Mr2ZPt…
Learn more: https://nvda.ws/2Mr2ZPt…
#کتابخانه یادگیری عمیق DLTK که مخصوص کار با تصاویر پزشکی است و توسط محققین دانشگاه امپریال کالج لندن توسعه داده شده به صورت متن باز در اختیار عموم قرار گرفت. این کتابخانه یک کتابخانه سطح بالاست که با استفاده از #تنسورفلو نوشته شده است.
آدرس گیت هاب کتابخانه DLTK
https://github.com/DLTK/DLTK
معرفی این کتابخانه:
https://medium.com/tensorflow/an-introduction-to-biomedical-image-analysis-with-tensorflow-and-dltk-2c25304e7c13?linkId=53830032
مرکز تحقیقات هوش پارت
https://ble.im/partdpai
https://t.me/partdpai
sapp.IR/partdpai
virgool.io/@partdpai
آدرس گیت هاب کتابخانه DLTK
https://github.com/DLTK/DLTK
معرفی این کتابخانه:
https://medium.com/tensorflow/an-introduction-to-biomedical-image-analysis-with-tensorflow-and-dltk-2c25304e7c13?linkId=53830032
مرکز تحقیقات هوش پارت
https://ble.im/partdpai
https://t.me/partdpai
sapp.IR/partdpai
virgool.io/@partdpai
GitHub
GitHub - DLTK/DLTK: Deep Learning Toolkit for Medical Image Analysis
Deep Learning Toolkit for Medical Image Analysis. Contribute to DLTK/DLTK development by creating an account on GitHub.
#آموزش شبکه LeNet 5 توسط مهندس سید حسن حسینپور
منتطر دوره تابستانه ما باشید.
https://www.aparat.com/v/MeAdf
مرکز تحقیقات هوش پارت
https://ble.im/partdpai
https://t.me/partdpai
sapp.IR/partdpai
virgool.io/@partdpai
منتطر دوره تابستانه ما باشید.
https://www.aparat.com/v/MeAdf
مرکز تحقیقات هوش پارت
https://ble.im/partdpai
https://t.me/partdpai
sapp.IR/partdpai
virgool.io/@partdpai
آپارات - سرویس اشتراک ویدیو
بررسی معماری شبکه LeNet5- مهندس حسن پور
آموزش شبکه LeNet5 توسط آقای مهندس سید حسین حسن پوردوره پاییزه آموزش عمیق- مرکز تحقیقات هوش پارت
#کتابخانه #کراس
پایتون و R هر دو از زبان های اصلی برای علم داده ها (Data Science) هستند. با این حال پایتون به خاطر وجود کتابخانه های قدرتمندی مثل #تنسورفلو، #پایتورچ و #کراس با اختلاف بالایی در زمینه یادگیری عمیق و شبکه های عصبی از زبان R جلوتر است.
خوشبختانه جمعی از توسعه دهندگان R برای کم کردن شکاف بین R و پایتون، کتابخانه کراس برای R را توسعه داده اند تا کاربران R هم بتوانند الگوریتم های یادگیری عمیق را به سادگی پیاده سازی کنند.
https://keras.rstudio.com/
به علاوه خبر خوب دیگر برای کاربران R این است که آقای Chollet سازنده کتابخانه اصلی کراس برای پایتون با همکاری یکی از توسعه دهندگان کتابخانه کراس در R کتابی برای آموزش این کتابخانه نوشته اند که دقیقا دارای سرفصل های مشابه با کتاب آموزشی معروف این کتابخانه برای پایتون است که در پست بعدی می توانید آن را دانلود کنید.
مرکز تحقیقات هوش پارت
https://t.me/partdpai
https://ble.im/partdpai
sapp.ir/partdpai
virgool.io/@partdpai
پایتون و R هر دو از زبان های اصلی برای علم داده ها (Data Science) هستند. با این حال پایتون به خاطر وجود کتابخانه های قدرتمندی مثل #تنسورفلو، #پایتورچ و #کراس با اختلاف بالایی در زمینه یادگیری عمیق و شبکه های عصبی از زبان R جلوتر است.
خوشبختانه جمعی از توسعه دهندگان R برای کم کردن شکاف بین R و پایتون، کتابخانه کراس برای R را توسعه داده اند تا کاربران R هم بتوانند الگوریتم های یادگیری عمیق را به سادگی پیاده سازی کنند.
https://keras.rstudio.com/
به علاوه خبر خوب دیگر برای کاربران R این است که آقای Chollet سازنده کتابخانه اصلی کراس برای پایتون با همکاری یکی از توسعه دهندگان کتابخانه کراس در R کتابی برای آموزش این کتابخانه نوشته اند که دقیقا دارای سرفصل های مشابه با کتاب آموزشی معروف این کتابخانه برای پایتون است که در پست بعدی می توانید آن را دانلود کنید.
مرکز تحقیقات هوش پارت
https://t.me/partdpai
https://ble.im/partdpai
sapp.ir/partdpai
virgool.io/@partdpai
keras3.posit.co
R Interface to Keras
Interface to Keras <https://keras.io>, a high-level neural networks API. Keras was developed with a focus on enabling fast experimentation, supports both convolution based networks and recurrent networks (as well as combinations of the two), and runs seamlessly…