Neural Networks | Нейронные сети
11.9K subscribers
755 photos
163 videos
170 files
9.41K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
​MONet: Unsupervised Scene Decomposition and Representation

🔗 MONet: Unsupervised Scene Decomposition and Representation
The ability to decompose scenes in terms of abstract building blocks is crucial for general intelligence. Where those basic building blocks share meaningful properties, interactions and other regularities across scenes, such decompositions can simplify reasoning and facilitate imagination of novel scenarios. In particular, representing perceptual observations in terms of entities should improve data efficiency and transfer performance on a wide range of tasks. Thus we need models capable of discovering useful decompositions of scenes by identifying units with such regularities and representing them in a common format. To address this problem, we have developed the Multi-Object Network (MONet). In this model, a VAE is trained end-to-end together with a recurrent attention network -- in a purely unsupervised manner -- to provide attention masks around, and reconstructions of, regions of images. We show that this model is capable of learning to decompose and represent challenging 3D scenes into semantically mean
​How to factor 2048 bit RSA integers in 8 hours using 20 million noisy qubits

🔗 How to factor 2048 bit RSA integers in 8 hours using 20 million noisy qubits
We significantly reduce the cost of factoring integers and computing discrete logarithms over finite fields on a quantum computer by combining techniques from Griffiths-Niu 1996, Zalka 2006, Fowler 2012, Ekerå-Håstad 2017, Ekerå 2017, Ekerå 2018, Gidney-Fowler 2019, Gidney 2019. We estimate the approximate cost of our construction using plausible physical assumptions for large-scale superconducting qubit platforms: a planar grid of qubits with nearest-neighbor connectivity, a characteristic physical gate error rate of $10^{-3}$, a surface code cycle time of 1 microsecond, and a reaction time of 10 micro-seconds. We account for factors that are normally ignored such as noise, the need to make repeated attempts, and the spacetime layout of the computation. When factoring 2048 bit RSA integers, our construction's spacetime volume is a hundredfold less than comparable estimates from earlier works (Fowler et al. 2012, Gheorghiu et al. 2019). In the abstract circuit model (which ig
​Google researchers developed a way to peer inside the minds of deep-learning systems, and the results are delightfully weird.

https://www.technologyreview.com/f/610439/making-sense-of-neural-networks-febrile-dreams/

🔗 A new tool helps us understand what an AI is actually thinking
Google researchers developed a way to peer inside the minds of deep-learning systems, and the results are delightfully weird.What they did: The team built a tool that combines several techniques to provide people with a clearer idea of how neural networks make decisions.
​Augmenting correlation structures in spatial data using deep generative models
https://arxiv.org/abs/1905.09796

🔗 Augmenting correlation structures in spatial data using deep generative models
State-of-the-art deep learning methods have shown a remarkable capacity to model complex data domains, but struggle with geospatial data. In this paper, we introduce SpaceGAN, a novel generative model for geospatial domains that learns neighbourhood structures through spatial conditioning. We propose to enhance spatial representation beyond mere spatial coordinates, by conditioning each data point on feature vectors of its spatial neighbours, thus allowing for a more flexible representation of the spatial structure. To overcome issues of training convergence, we employ a metric capturing the loss in local spatial autocorrelation between real and generated data as stopping criterion for SpaceGAN parametrization. This way, we ensure that the generator produces synthetic samples faithful to the spatial patterns observed in the input. SpaceGAN is successfully applied for data augmentation and outperforms compared to other methods of synthetic spatial data generation. Finally, we propose an ensemble learning frame
Основы статистики
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
00 - Основы статистики. О курсе
01 - Основы статистики. Введение
02 - Основы статистики. Сравнение средних
03 - Основы статистики. Корреляция и регрессия
04 - Основы статистики. Анализ номинативных данных
05 - Основы статистики. Логистическая регрессия и непараметрические методы
06 - Основы статистики. Кластерный анализ и метод главных компонент
07 - Основы статистики. Подробнее о линейной регрессии
08 - Основы статистики. Смешанные регрессионные модели
09 - Основы статистики. Введение в bootstrap

🎥 00 - Основы статистики. О курсе
👁 737 раз 76 сек.
Лектор: Анатолий Карпов

https://stepik.org/76


🎥 01 - Основы статистики. Введение
👁 1349 раз 3847 сек.
Лектор: Анатолий Карпов

1. 0:00 Общая информация о курсе
2. 1:32 Генеральная совокупность и выборка
2.1 1:32 Понятие генеральной совокупности и вы...


🎥 02 - Основы статистики. Сравнение средних
👁 359 раз 4638 сек.
Лектор: Анатолий Карпов

1. T-распределение
2. Сравнение двух средних; t-критерий Стьюдента
3. Проверка распределения на нормальность, QQ-Plot
4. О...


🎥 03 - Основы статистики. Корреляция и регрессия
👁 281 раз 6792 сек.
Лектор: Анатолий Карпов

1. Понятие корреляции
2. Условия применения коэффициента корреляции
3. Регрессия с одной независимой переменной
4. Гипотез...


🎥 04 - Основы статистики. Анализ номинативных данных
👁 231 раз 7503 сек.
Лектор: Анатолий Карпов

1. Постановка задачи
2. Расстояние Пирсона
3. Распределение Хи-квадрат Пирсона
4. Расчет p-уровня значимости
5. Анализ таб...


🎥 05 - Основы статистики. Логистическая регрессия и непараметрические методы
👁 163 раз 8859 сек.
Лектор: Анатолий Карпов

1. Логистическая регрессия. Постановка задачи.
2. Модель без предикторов. Intercept only model
3. Модель с одним номинатив...


🎥 06 - Основы статистики. Кластерный анализ и метод главных компонент
👁 173 раз 5970 сек.
Лектор: Анатолий Карпов

1. Кластерный анализ методом k - средних
2. Может ли кластерный анализ "ошибаться"?
3. Как определить оптимальное число кл...


🎥 07 - Основы статистики. Подробнее о линейной регрессии
👁 164 раз 8245 сек.
Лектор: Анатолий Карпов

1. Введение
2. Линейность взаимосвязи
3. Логарифмическая трансформация переменных
4. Проблема гетероскедастичности
5. Муль...


🎥 08 - Основы статистики. Смешанные регрессионные модели
👁 216 раз 3165 сек.
Лектор: Иван Иванчей

1. Введение
2. Нарушение допущения о независимости наблюдений
3. Смешанные регрессионные модели. Реализация в R
4. Статистиче...


🎥 09 - Основы статистики. Введение в bootstrap
👁 143 раз 3923 сек.
Лектор: Арсений Москвичев

1. Складной нож (jackknife)
2. Bootstrap

https://stepik.org/2152
​Перенос стиля это процесс преобразования стиля исходного к стилю выбранного изображения и опирается на Сверточный тип сети (CNN), при этом заранее обученной, поэтому многое будет зависеть от выбора данной обученной сети. Благо такие сети есть и выбирать есть из чего, но здесь будет применяться VGG-16.

Для начала необходимо подключить необходимые библиотеки
https://habr.com/ru/post/453512/

🔗 Перенос стиля
Перенос стиля это процесс преобразования стиля исходного к стилю выбранного изображения и опирается на Сверточный тип сети (CNN), при этом заранее обученной, поэ...
🎥 Implementing K-Means Clustering From Scratch: Simply Explained
👁 1 раз 1201 сек.
This video explains how the K-Means Clustering algorithm works, an implementation from scratch, using popular machine learning libraries to run K-Means Clustering, and the plethora of applications that unsupervised machine learning algorithms such as K-Means Clustering bring.
_______
Website: https://www.discoverai.org/
Presentation: https://docs.google.com/presentation/d/1T_towpsxCC31tWytFMWxoJC91FUcm64VUhrY4W77bFk/edit?usp=sharing
Follow us on Twitter: https://twitter.com/_DiscoverAI_
​10 Python image manipulation tools.
An overview of some of the commonly used Python libraries that provide an easy and intuitive way to transform images.

https://towardsdatascience.com/image-manipulation-tools-for-python-6eb0908ed61f

🔗 10 Python image manipulation tools
An overview of some of the commonly used Python libraries that provide an easy and intuitive way to transform images.
🎥 Machine Learning Part 19: Time Series And AutoRegressive Integrated Moving Average Model (ARIMA)
👁 1 раз 1250 сек.
In this video, we cover AutoRegressive Integrated Moving Average Model (ARIMA), Auto Correlation Function (ACF) and Partial Auto Correlation Function (PACF).

CONNECT
Site: https://coryjmaklin.com/
Medium: https://medium.com/@corymaklin
GitHub: https://github.com/corymaklin
Twitter: https://twitter.com/CoryMaklin
Linkedin: https://www.linkedin.com/in/cory-makl...
Facebook: https://www.facebook.com/cory.maklin
Patreon: https://www.patreon.com/corymaklin