Optimize Data Science Models with Feature Engineering
https://towardsdatascience.com/optimize-data-science-models-with-feature-engineering-cluster-analysis-metrics-development-and-4be15489667a?source=collection_home---4------2---------------------
https://towardsdatascience.com/optimize-data-science-models-with-feature-engineering-cluster-analysis-metrics-development-and-4be15489667a?source=collection_home---4------2---------------------
Towards Data Science
Optimize Data Science Models with Feature Engineering
Cluster Analysis, Metrics Development, and PCA with Baby Names Data
https://habr.com/company/plarium/blog/435534/
Data Science: книги для начального уровня
#machinelearning #neuralnets #deeplearning #машинноеобучение
Наш телеграмм канал - https://t.me/ai_machinelearning_big_data
Data Science: книги для начального уровня
#machinelearning #neuralnets #deeplearning #машинноеобучение
Наш телеграмм канал - https://t.me/ai_machinelearning_big_data
Хабр
Data Science: книги для начального уровня
Data Science — наука о данных, возникшая на стыке нескольких обширных направлений: программирования, математики и машинного обучения. Этим обусловлен высокий пор...
Generalization in Deep Networks: The Role of Distance from Initialization
Why it's important to take into account the initialization to explain generalization.
ArXiV: https://arxiv.org/abs/1901.01672
#DL #NN
🔗 Generalization in Deep Networks: The Role of Distance from Initialization
Why does training deep neural networks using stochastic gradient descent (SGD) result in a generalization error that does not worsen with the number of parameters in the network? To answer this question, we advocate a notion of effective model capacity that is dependent on {\em a given random initialization of the network} and not just the training algorithm and the data distribution. We provide empirical evidences that demonstrate that the model capacity of SGD-trained deep networks is in fact restricted through implicit regularization of {\em the $\ell_2$ distance from the initialization}. We also provide theoretical arguments that further highlight the need for initialization-dependent notions of model capacity. We leave as open questions how and why distance from initialization is regularized, and whether it is sufficient to explain generalization.
Why it's important to take into account the initialization to explain generalization.
ArXiV: https://arxiv.org/abs/1901.01672
#DL #NN
🔗 Generalization in Deep Networks: The Role of Distance from Initialization
Why does training deep neural networks using stochastic gradient descent (SGD) result in a generalization error that does not worsen with the number of parameters in the network? To answer this question, we advocate a notion of effective model capacity that is dependent on {\em a given random initialization of the network} and not just the training algorithm and the data distribution. We provide empirical evidences that demonstrate that the model capacity of SGD-trained deep networks is in fact restricted through implicit regularization of {\em the $\ell_2$ distance from the initialization}. We also provide theoretical arguments that further highlight the need for initialization-dependent notions of model capacity. We leave as open questions how and why distance from initialization is regularized, and whether it is sufficient to explain generalization.
🎥 Лекция 14 | Основы математической статистики | Михаил Лифшиц | Лекториум
👁 1 раз ⏳ 4967 сек.
👁 1 раз ⏳ 4967 сек.
Лекция 14 | Курс: Основы математической статистики | Лектор: Михаил Лифшиц | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ
Смотрите это видео на Лекториуме: https://www.lektorium.tv/node/33800
Другие лекции по курсу «Основы математической статистики» доступны для просмотра по ссылке: https://www.lektorium.tv/node/33005
Подписывайтесь на канал: https://www.lektorium.tv/ZJA
Следите за новостями:
https://vk.com/openlektorium
https://www.facebook.com/openlektorium
Vk
Лекция 14 | Основы математической статистики | Михаил Лифшиц | Лекториум
Лекция 14 | Курс: Основы математической статистики | Лектор: Михаил Лифшиц | Организатор: Математическая лаборатория имени П.Л.Чебышева СПбГУ
Смотрите это видео на Лекториуме: https://www.lektorium.tv/node/33800
Другие лекции по курсу «Основы математической…
Смотрите это видео на Лекториуме: https://www.lektorium.tv/node/33800
Другие лекции по курсу «Основы математической…
Machine Learning Engineer Roles And Responsibilities | ML Engineer Skills | ML Training | Edureka
🔗 Machine Learning Engineer Roles And Responsibilities | ML Engineer Skills | ML Training | Edureka
( Machine Learning Engineer Masters Program: https://www.edureka.co/masters-program/machine-learning-engineer-training ) This video will provide you with det...
🔗 Machine Learning Engineer Roles And Responsibilities | ML Engineer Skills | ML Training | Edureka
( Machine Learning Engineer Masters Program: https://www.edureka.co/masters-program/machine-learning-engineer-training ) This video will provide you with det...
YouTube
Machine Learning Engineer Roles And Responsibilities | ML Engineer Skills | ML Training | Edureka
( Machine Learning Engineer Masters Program: https://www.edureka.co/masters-program/machine-learning-engineer-training ) This video will provide you with det...
machine learning tutorial for beginners
🔗 machine learning tutorial for beginners
machine learning tutorial for beginners using ml.net C# for more such videos visit http://www.questpond.com
🔗 machine learning tutorial for beginners
machine learning tutorial for beginners using ml.net C# for more such videos visit http://www.questpond.com
YouTube
machine learning tutorial for beginners
machine learning tutorial for beginners using ml.net C# for more such videos visit http://www.questpond.com
Reproducibility tool for #Jupyter Notebooks
Link: https://mybinder.org
#DS #github #reproducibleresearch
🔗 Binder (beta)
Link: https://mybinder.org
#DS #github #reproducibleresearch
🔗 Binder (beta)
POET: Endlessly Generating Increasingly Complex and Diverse Learning Environments and their Solutions through the Paired Open-Ended Trailblazer
POET: it generates its own increasingly complex, diverse training environments & solves them. It automatically creates a learning curricula & training data, & potentially innovates endlessly.
Link: https://eng.uber.com/poet-open-ended-deep-learning/
#RL #Uber
🔗 POET: Endlessly Generating Increasingly Complex and Diverse Learning Environments and their Solutions through the Paired Open-Ended Trailblazer
Uber AI Labs introduces the Paired Open-Ended Trailblazer (POET), an algorithm that leverages open-endedness to push the bounds of ML.
POET: it generates its own increasingly complex, diverse training environments & solves them. It automatically creates a learning curricula & training data, & potentially innovates endlessly.
Link: https://eng.uber.com/poet-open-ended-deep-learning/
#RL #Uber
🔗 POET: Endlessly Generating Increasingly Complex and Diverse Learning Environments and their Solutions through the Paired Open-Ended Trailblazer
Uber AI Labs introduces the Paired Open-Ended Trailblazer (POET), an algorithm that leverages open-endedness to push the bounds of ML.
Scikit-learn drops support of Python2.7 with new PR.
It means scikit-learn master now requires Python >= 3.5.
https://github.com/scikit-learn/scikit-learn/pull/12639
#scikitlearn
🔗 MRG Drop legacy python / remove six dependencies by amueller · Pull Request #12639 · scikit-learn/sc
Tries to drop legacy python (2.7) and remove six everywhere.
It means scikit-learn master now requires Python >= 3.5.
https://github.com/scikit-learn/scikit-learn/pull/12639
#scikitlearn
🔗 MRG Drop legacy python / remove six dependencies by amueller · Pull Request #12639 · scikit-learn/sc
Tries to drop legacy python (2.7) and remove six everywhere.
GitHub
MRG Drop legacy python / remove six dependencies by amueller · Pull Request #12639 · scikit-learn/scikit-learn
Tries to drop legacy python (2.7) and remove six everywhere.
Super-resolution GANs for improving the texture resolution of old games.
It is what it is. #GAN to enhance textures in old games making them look better.
ArXiV: https://arxiv.org/abs/1809.00219
Link: https://www.gamespot.com/forums/pc-mac-linux-society-1000004/esrgan-is-pretty-damn-amazing-trying-max-payne-wit-33449670/
#gaming #superresolution
🔗 ESRGAN: Enhanced Super-Resolution Generative Adversarial Networks
The Super-Resolution Generative Adversarial Network (SRGAN) is a seminal work that is capable of generating realistic textures during single image super-resolution. However, the hallucinated details are often accompanied with unpleasant artifacts. To further enhance the visual quality, we thoroughly study three key components of SRGAN - network architecture, adversarial loss and perceptual loss, and improve each of them to derive an Enhanced SRGAN (ESRGAN). In particular, we introduce the Residual-in-Residual Dense Block (RRDB) without batch normalization as the basic network building unit. Moreover, we borrow the idea from relativistic GAN to let the discriminator predict relative realness instead of the absolute value. Finally, we improve the perceptual loss by using the features before activation, which could provide stronger supervision for brightness consistency and texture recovery. Benefiting from these improvements, the proposed ESRGAN achieves consistently better visual quality with more realistic an
It is what it is. #GAN to enhance textures in old games making them look better.
ArXiV: https://arxiv.org/abs/1809.00219
Link: https://www.gamespot.com/forums/pc-mac-linux-society-1000004/esrgan-is-pretty-damn-amazing-trying-max-payne-wit-33449670/
#gaming #superresolution
🔗 ESRGAN: Enhanced Super-Resolution Generative Adversarial Networks
The Super-Resolution Generative Adversarial Network (SRGAN) is a seminal work that is capable of generating realistic textures during single image super-resolution. However, the hallucinated details are often accompanied with unpleasant artifacts. To further enhance the visual quality, we thoroughly study three key components of SRGAN - network architecture, adversarial loss and perceptual loss, and improve each of them to derive an Enhanced SRGAN (ESRGAN). In particular, we introduce the Residual-in-Residual Dense Block (RRDB) without batch normalization as the basic network building unit. Moreover, we borrow the idea from relativistic GAN to let the discriminator predict relative realness instead of the absolute value. Finally, we improve the perceptual loss by using the features before activation, which could provide stronger supervision for brightness consistency and texture recovery. Benefiting from these improvements, the proposed ESRGAN achieves consistently better visual quality with more realistic an
arXiv.org
ESRGAN: Enhanced Super-Resolution Generative Adversarial Networks
The Super-Resolution Generative Adversarial Network (SRGAN) is a seminal work that is capable of generating realistic textures during single image super-resolution. However, the hallucinated...
🎥 TMPA School 2018 Saratov: Компьютерная обработка текстов (часть 3, практика)
👁 1 раз ⏳ 1485 сек.
👁 1 раз ⏳ 1485 сек.
Стажер-исследователь: Факультет компьютерных наук / Департамент больших данных и информационного поиска / Научно-учебная лаборатория моделирования и управления сложными системами, НИУ ВШЭ
Запись с экрана по ссылке: https://yadi.sk/i/_e7BThoZY20-zA
TMPA School 2018
Тестирование программного обеспечения, анализ данных и машинное обучение
https://school.tmpaconf.org/
Vk
TMPA School 2018 Saratov: Компьютерная обработка текстов (часть 3, практика)
Стажер-исследователь: Факультет компьютерных наук / Департамент больших данных и информационного поиска / Научно-учебная лаборатория моделирования и управления сложными системами, НИУ ВШЭ
Запись с экрана по ссылке: https://yadi.sk/i/_e7BThoZY20-zA
TMPA…
Запись с экрана по ссылке: https://yadi.sk/i/_e7BThoZY20-zA
TMPA…
🎥 TMPA School 2018 Saratov: Компьютерная обработка текстов (часть 2, практика)
👁 1 раз ⏳ 2822 сек.
👁 1 раз ⏳ 2822 сек.
Стажер-исследователь: Факультет компьютерных наук / Департамент больших данных и информационного поиска / Научно-учебная лаборатория моделирования и управления сложными системами, НИУ ВШЭ
Доп. материалы: https://yadi.sk/d/aqqA84nKI36X5w
TMPA School 2018
Тестирование программного обеспечения, анализ данных и машинное обучение
https://school.tmpaconf.org/
Vk
TMPA School 2018 Saratov: Компьютерная обработка текстов (часть 2, практика)
Стажер-исследователь: Факультет компьютерных наук / Департамент больших данных и информационного поиска / Научно-учебная лаборатория моделирования и управления сложными системами, НИУ ВШЭ
Доп. материалы: https://yadi.sk/d/aqqA84nKI36X5w
TMPA School 2018…
Доп. материалы: https://yadi.sk/d/aqqA84nKI36X5w
TMPA School 2018…
🎥 Amazon AI Conclave 2018 - The Alexa Fund - India outlook by Rodrigo Prudencio
👁 1 раз ⏳ 667 сек.
👁 1 раз ⏳ 667 сек.
Check out more details about Amazon AI Conclave at - https://amzn.to/2Qv2PaI.
The Alexa Fund - India outlook session by Rodrigo Prudencio, Amazon Corporate Development. Amazon AI Conclave is a free event for business leaders, data scientists, engineers and developers to learn about Amazon's machine learning services, and real-world use cases developed by our customers. This program helps you understand how to build smart, customer-centric, scalable solutions in the cloud and on the edge using Amazon AI, AWS
Vk
Amazon AI Conclave 2018 - The Alexa Fund - India outlook by Rodrigo Prudencio
Check out more details about Amazon AI Conclave at - https://amzn.to/2Qv2PaI.
The Alexa Fund - India outlook session by Rodrigo Prudencio, Amazon Corporate Development. Amazon AI Conclave is a free event for business leaders, data scientists, engineers and…
The Alexa Fund - India outlook session by Rodrigo Prudencio, Amazon Corporate Development. Amazon AI Conclave is a free event for business leaders, data scientists, engineers and…
Problem Solving With SQL
https://towardsdatascience.com/problem-solving-with-sql-b0ad58fe8643?source=collection_home---4------2---------------------
https://towardsdatascience.com/problem-solving-with-sql-b0ad58fe8643?source=collection_home---4------2---------------------
Towards Data Science
Problem Solving With SQL
SQL is the language of data. It can be used to answer countless questions in any company (unless that company still runs 100% off…
Explaining Complex Machine Learning Models With LIME - Shirin Glander (codecentric AG)
🔗 Explaining Complex Machine Learning Models With LIME - Shirin Glander (codecentric AG)
Dr. Shirin Glander lives in Münster and works as a Data Scientist at codecentric AG, she has lots of practical experience. Traditional machine learning workf...
🔗 Explaining Complex Machine Learning Models With LIME - Shirin Glander (codecentric AG)
Dr. Shirin Glander lives in Münster and works as a Data Scientist at codecentric AG, she has lots of practical experience. Traditional machine learning workf...
YouTube
Explaining Complex Machine Learning Models With LIME - Shirin Glander (codecentric AG)
Dr. Shirin Glander lives in Münster and works as a Data Scientist at codecentric AG, she has lots of practical experience. Traditional machine learning workf...
https://habr.com/post/435648/
Бот генерирует учебники из статей Википедии
#machinelearning #neuralnets #deeplearning #машинноеобучение
Наш телеграмм канал - https://t.me/ai_machinelearning_big_data
Бот генерирует учебники из статей Википедии
#machinelearning #neuralnets #deeplearning #машинноеобучение
Наш телеграмм канал - https://t.me/ai_machinelearning_big_data
Хабр
Бот генерирует учебники из статей Википедии
Пример викиучебника (иллюстрация из научной статьи) Всем известно, что Википедия — ценный информационный ресурс. Можно часами изучать тему, переходя от одной с...
TMPA School 2018 Saratov: Компьютерная обработка текстов (часть 1)
https://www.youtube.com/watch?v=cFGebptla2g
🎥 TMPA School 2018 Saratov: Компьютерная обработка текстов (часть 1)
👁 1 раз ⏳ 2516 сек.
https://www.youtube.com/watch?v=cFGebptla2g
🎥 TMPA School 2018 Saratov: Компьютерная обработка текстов (часть 1)
👁 1 раз ⏳ 2516 сек.
Стажер-исследователь: Факультет компьютерных наук / Департамент больших данных и информационного поиска / Научно-учебная лаборатория моделирования и управления сложными системами, НИУ ВШЭ
Смотреть презентацию: https://speakerdeck.com/exactpro/komp-iutiernaia-obrabotka-tiekstov-5bc65162-5dfe-4765-b0a7-5ca03ca7b94b
Запись экрана: https://yadi.sk/i/7ZwPlhSUteHB8w
TMPA School 2018
Тестирование программного обеспечения, анализ данных и машинное обучение
https://school.tmpaconf.org/
YouTube
TMPA School 2018 Saratov: Компьютерная обработка текстов (часть 1)
Стажер-исследователь: Факультет компьютерных наук / Департамент больших данных и информационного поиска / Научно-учебная лаборатория моделирования и управлен...
Apache Ignite — распределенный Machine Learning с Java API
🎥 Apache Ignite — распределенный Machine Learning с Java API
👁 1 раз ⏳ 2391 сек.
🎥 Apache Ignite — распределенный Machine Learning с Java API
👁 1 раз ⏳ 2391 сек.
Юрий Бабак, Apache Ignite Committer на митапе в СПб 26.12.2018
https://www.meetup.com/ru-RU/St-Petersburg-Apache-Ignite-Meetup/events/257128451/
Vk
Apache Ignite — распределенный Machine Learning с Java API
Юрий Бабак, Apache Ignite Committer на митапе в СПб 26.12.2018
https://www.meetup.com/ru-RU/St-Petersburg-Apache-Ignite-Meetup/events/257128451/
https://www.meetup.com/ru-RU/St-Petersburg-Apache-Ignite-Meetup/events/257128451/
«Этот анализ не покрывает все доступные данные, но показывает те из них, которые показались мне наиболее интересными. Желающие могут провести своё исследование на этих данных».
Анализируем результаты 2018 Kaggle ML & DS Survey: http://amp.gs/E6mf
🔗 Анализ результатов 2018 Kaggle ML & DS Survey
Kaggle — известная платформа для проведения соревнований по машинному обучению на которой количество зарегистрированных пользователей перевалило за 2.5...
Анализируем результаты 2018 Kaggle ML & DS Survey: http://amp.gs/E6mf
🔗 Анализ результатов 2018 Kaggle ML & DS Survey
Kaggle — известная платформа для проведения соревнований по машинному обучению на которой количество зарегистрированных пользователей перевалило за 2.5...
Habr
Анализ результатов 2018 Kaggle ML & DS Survey
Kaggle — известная платформа для проведения соревнований по машинному обучению на которой количество зарегистрированных пользователей перевалило за 2.5...
Как учиться с помощью машинного обучения у экспертов в Dota 2
В предыдущей статье от Питерской Вышки мы показывали, как при помощи машинного обучения можно искать баги в программном коде. В этом посте расскажем о том, как мы вместе с JetBrains Research пытаемся использовать один из самых интересных, современных и быстроразвивающихся разделов машинного обучения — обучение с подкреплением — как в реальных практических задачах, так и на модельных примерах.
https://habr.com/company/hsespb/blog/435636/
🔗 Как учиться с помощью машинного обучения у экспертов в Dota 2
В предыдущей статье от Питерской Вышки мы показывали, как при помощи машинного обучения можно искать баги в программном коде. В этом посте расскажем о том, как...
В предыдущей статье от Питерской Вышки мы показывали, как при помощи машинного обучения можно искать баги в программном коде. В этом посте расскажем о том, как мы вместе с JetBrains Research пытаемся использовать один из самых интересных, современных и быстроразвивающихся разделов машинного обучения — обучение с подкреплением — как в реальных практических задачах, так и на модельных примерах.
https://habr.com/company/hsespb/blog/435636/
🔗 Как учиться с помощью машинного обучения у экспертов в Dota 2
В предыдущей статье от Питерской Вышки мы показывали, как при помощи машинного обучения можно искать баги в программном коде. В этом посте расскажем о том, как...
Habr
Как учиться с помощью машинного обучения у экспертов в Dota 2
В предыдущей статье от Питерской Вышки мы показывали, как при помощи машинного обучения можно искать баги в программном коде. В этом посте расскажем о том, как мы вместе с JetBrains Research пытаемся...