AutoGMM: Automatic Gaussian Mixture Modeling in Python.
http://arxiv.org/abs/1909.02688
#paper #machinelearning #artificialintelligence
@pythonicAI
http://arxiv.org/abs/1909.02688
#paper #machinelearning #artificialintelligence
@pythonicAI
arXiv.org
AutoGMM: Automatic and Hierarchical Gaussian Mixture Modeling in Python
Background: Gaussian mixture modeling is a fundamental tool in clustering, as well as discriminant analysis and semiparametric density estimation. However, estimating the optimal model for any...
Y-Autoencoders: disentangling latent representations via sequential-encoding
https://arxiv.org/abs/1907.10949
#paper #artificialintelligence
@pythonicAI
https://arxiv.org/abs/1907.10949
#paper #artificialintelligence
@pythonicAI
arXiv.org
Y-Autoencoders: disentangling latent representations via...
In the last few years there have been important advancements in generative models with the two dominant approaches being Generative Adversarial Networks (GANs) and Variational Autoencoders (VAEs)....
Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift
How normalization applied to layers helps to reach faster convergence.
https://arxiv.org/abs/1502.03167
#paper #deeplearning #artificialintelligence
@pythonicAI
How normalization applied to layers helps to reach faster convergence.
https://arxiv.org/abs/1502.03167
#paper #deeplearning #artificialintelligence
@pythonicAI
arXiv.org
Batch Normalization: Accelerating Deep Network Training by...
Training Deep Neural Networks is complicated by the fact that the distribution of each layer's inputs changes during training, as the parameters of the previous layers change. This slows down the...
CvxNets: Learnable Convex Decomposition
by Geoffrey Hinton, Boyang Deng, Kyle Genova, Soroosh Yazdani, Sofien Bouaziz, Andrea Tagliasacchi
https://arxiv.org/abs/1909.05736
#paper #artificialintelligence
@pythonicAI
by Geoffrey Hinton, Boyang Deng, Kyle Genova, Soroosh Yazdani, Sofien Bouaziz, Andrea Tagliasacchi
https://arxiv.org/abs/1909.05736
#paper #artificialintelligence
@pythonicAI
arXiv.org
CvxNet: Learnable Convex Decomposition
Any solid object can be decomposed into a collection of convex polytopes (in short, convexes). When a small number of convexes are used, such a decomposition can be thought of as a piece-wise...
Deep Reinforcement Learning Algorithm for Dynamic Pricing of Express Lanes with Multiple Access Locations
http://arxiv.org/abs/1909.04760
#paper #deeplearning #artificialintelligence
@pythonicAI
http://arxiv.org/abs/1909.04760
#paper #deeplearning #artificialintelligence
@pythonicAI
Useful paper about calibration of NN to reduce overfit
https://arxiv.org/pdf/1706.04599.pdf
#paper #neuralnetwork #artificialintelligence
@pythonicAI
https://arxiv.org/pdf/1706.04599.pdf
#paper #neuralnetwork #artificialintelligence
@pythonicAI
Understanding Transfer Learning for Medical Imaging
ArXiV: https://arxiv.org/abs/1902.07208
#paper #machinelearning #artificialintelligence
@pythonicAI
ArXiV: https://arxiv.org/abs/1902.07208
#paper #machinelearning #artificialintelligence
@pythonicAI
arXiv.org
Transfusion: Understanding Transfer Learning for Medical Imaging
Transfer learning from natural image datasets, particularly ImageNet, using standard large models and corresponding pretrained weights has become a de-facto method for deep learning applications...
Can you classify two class circle data using neural network with only two neurons?
https://arxiv.org/abs/1901.00109
#paper #neuralnetwork #artificialintelligence
@pythonicAI
https://arxiv.org/abs/1901.00109
#paper #neuralnetwork #artificialintelligence
@pythonicAI
YOLO Nano: a Highly Compact You Only Look Once Convolutional Neural Network for Object Detection
YOLO Nano possesses a model size of ~4.0MB (>15.1x and >8.3x smaller than Tiny YOLOv2 and Tiny YOLOv3, respectively) and requires 4.57B operations for inference (>34% and ~17% lower than Tiny YOLOv2 and Tiny YOLOv3, respectively) while still achieving an mAP of ~69.1% on the VOC 2007 dataset (~12% and ~10.7% higher than Tiny YOLOv2 and Tiny YOLOv3, respectively).
https://arxiv.org/pdf/1910.01271
#paper #deeplearning #artificialintelligence
@pythonicAI
YOLO Nano possesses a model size of ~4.0MB (>15.1x and >8.3x smaller than Tiny YOLOv2 and Tiny YOLOv3, respectively) and requires 4.57B operations for inference (>34% and ~17% lower than Tiny YOLOv2 and Tiny YOLOv3, respectively) while still achieving an mAP of ~69.1% on the VOC 2007 dataset (~12% and ~10.7% higher than Tiny YOLOv2 and Tiny YOLOv3, respectively).
https://arxiv.org/pdf/1910.01271
#paper #deeplearning #artificialintelligence
@pythonicAI
A Novel AI-enabled Framework to Diagnose Coronavirus COVID 19 using Smartphone Embedded Sensors: Design Study
https://arxiv.org/abs/2003.07434
#paper #deeplearning #artificialintelligence #corona
@pythonicAi
https://arxiv.org/abs/2003.07434
#paper #deeplearning #artificialintelligence #corona
@pythonicAi
10.1038@s41593-020-0608-8.pdf
2.7 MB
Machine translation of cortical activity to text with an encoder–decoder framework
#paper #deeplearning #artificialintelligence
@pythonicAi
#paper #deeplearning #artificialintelligence
@pythonicAi
nnlp.pdf
701.7 KB
Neural Network Models for Natural Language Processing
#paper #deeplearning #artificialintelligence
@pythonicAi
#paper #deeplearning #artificialintelligence
@pythonicAi
Backpropagation and the brain
Geoffrey Hinton, Timothy P. Lillicrap, Adam Santoro, Luke Marris, Colin J. Akerman
https://www.nature.com/articles/s41583-020-0277-3
#paper #machinelearning #artificialintelligence
@pythonicAi
Geoffrey Hinton, Timothy P. Lillicrap, Adam Santoro, Luke Marris, Colin J. Akerman
https://www.nature.com/articles/s41583-020-0277-3
#paper #machinelearning #artificialintelligence
@pythonicAi
Nature
Backpropagation and the brain
Nature Reviews Neuroscience - The backpropagation of error (backprop) algorithm is frequently used to train deep neural networks in machine learning, but it has not been viewed as being implemented...
The 1st Agriculture-Vision Challenge: Methods and Results
By Andrew Ng et al.
https://arxiv.org/abs/2004.09754v1
چالش :
https://www.agriculture-vision.com
https://competitions.codalab.org/competitions/23732?secret_key=dba10d3a-a676-4c44-9acf-b45dc92c5fcf
#paper #artificialintelligence
@pythonicAi
By Andrew Ng et al.
https://arxiv.org/abs/2004.09754v1
چالش :
https://www.agriculture-vision.com
https://competitions.codalab.org/competitions/23732?secret_key=dba10d3a-a676-4c44-9acf-b45dc92c5fcf
#paper #artificialintelligence
@pythonicAi
Agriculture-Vision
Vision for Agriculture
Invited Speakers & Panelists
YOLOv4: Optimal Speed and Accuracy of Object Detection.
http://arxiv.org/abs/2004.10934
#paper #artificialintelligence
@pythonicAi
http://arxiv.org/abs/2004.10934
#paper #artificialintelligence
@pythonicAi
YOLOv4: Optimal Speed and Accuracy of Object Detection
Paper: https://arxiv.org/abs/2004.10934
source code: https://github.com/AlexeyAB/darknet
#paper #deeplearning #artificialintelligence
@pythonicAi
Paper: https://arxiv.org/abs/2004.10934
source code: https://github.com/AlexeyAB/darknet
#paper #deeplearning #artificialintelligence
@pythonicAi
GitHub
GitHub - AlexeyAB/darknet: YOLOv4 / Scaled-YOLOv4 / YOLO - Neural Networks for Object Detection (Windows and Linux version of Darknet…
YOLOv4 / Scaled-YOLOv4 / YOLO - Neural Networks for Object Detection (Windows and Linux version of Darknet ) - AlexeyAB/darknet
Pythonic AI
@pythonicAi
یکی از مسائل علمی داغ و پرچالش دنیا این است که یادگیری ماشین روی دستگاههای مختلف (موبایل، مچبند هوشمند، دستگاههای پزشکی) انجام شود. به این ترتیب، پروتزی که در بدن یک فرد گذاشته میشود هوشمند خواهد بود.
یکی از چالشها، نیاز به پردازنده قوی و حافظه بالا است. میتوان دادهها را به یک سرور قوی منتقل کرد، اما این کار مشکلاتی مانند نقض حریم شخصی و عدم تضمین ارتباط با شبکه دارد.
پژوهش برای یادگیری روی خود دستگاهها شروع شده، اما این کارها خاصمنظوره هستند و دقت آنها هم عموما بالا نیست. به همین دلیل آقای کشاورز الگوریتمی برای یادگیری روی خود دستگاه ساخته، و نامش را «صفر» گذاشته که به دلیل زمان اجرا و انرژی مصرفیاش بود.
هدف این بوده که الگوریتم را روی میکروکنترلر Arduino Uno اجرا کنند که پردازنده 20 مگاهرتزی و رم 2 کیلوبایتی دارد و قیمتش در حال حاضر 79 هزار تومان است. این الگوریتم باید بسیار بسیار ساده میبوده و این چالش اصلی بوده.
در ویدیو، چراغی یک ثانیه روشن است و 1.2 ثانیه خاموش. آن 0.2 ثانیه زمانی است که صرف یادگیری ماشین روی دادههای با اندازه معقول میشود.
کاربردهای این الگوریتم شامل پزشکی تا خانههای هوشمند و دستگاههای صنعتی میشود. این اولین الگوریتم عاممنظوره جدیدی است که برای یادگیری روی دستگاهها ساخته شده است.
صفر یک الگوریتم Classification با زمان اجرا و انرژی مصرفی بسیار پایین است.
لینک مقاله:
https://arxiv.org/abs/2006.04620
آدرس لینکدین آقای کشاورز:
https://www.linkedin.com/in/hamidreza-keshavarz-54aa532a
#machinelearning #artificialintelligence #paper
@pythonicAi
یکی از چالشها، نیاز به پردازنده قوی و حافظه بالا است. میتوان دادهها را به یک سرور قوی منتقل کرد، اما این کار مشکلاتی مانند نقض حریم شخصی و عدم تضمین ارتباط با شبکه دارد.
پژوهش برای یادگیری روی خود دستگاهها شروع شده، اما این کارها خاصمنظوره هستند و دقت آنها هم عموما بالا نیست. به همین دلیل آقای کشاورز الگوریتمی برای یادگیری روی خود دستگاه ساخته، و نامش را «صفر» گذاشته که به دلیل زمان اجرا و انرژی مصرفیاش بود.
هدف این بوده که الگوریتم را روی میکروکنترلر Arduino Uno اجرا کنند که پردازنده 20 مگاهرتزی و رم 2 کیلوبایتی دارد و قیمتش در حال حاضر 79 هزار تومان است. این الگوریتم باید بسیار بسیار ساده میبوده و این چالش اصلی بوده.
در ویدیو، چراغی یک ثانیه روشن است و 1.2 ثانیه خاموش. آن 0.2 ثانیه زمانی است که صرف یادگیری ماشین روی دادههای با اندازه معقول میشود.
کاربردهای این الگوریتم شامل پزشکی تا خانههای هوشمند و دستگاههای صنعتی میشود. این اولین الگوریتم عاممنظوره جدیدی است که برای یادگیری روی دستگاهها ساخته شده است.
صفر یک الگوریتم Classification با زمان اجرا و انرژی مصرفی بسیار پایین است.
لینک مقاله:
https://arxiv.org/abs/2006.04620
آدرس لینکدین آقای کشاورز:
https://www.linkedin.com/in/hamidreza-keshavarz-54aa532a
#machinelearning #artificialintelligence #paper
@pythonicAi