EasyGen, a visual programming language for text data pipelines for neural nets.
Colab: https://drive.google.com/open?id=1XNiOuNtMnItl5CPGvRjEvj9C78nDuvXj
Github: https://github.com/markriedl/easygen
🔗 Easygen.ipynb
Colaboratory notebook
Colab: https://drive.google.com/open?id=1XNiOuNtMnItl5CPGvRjEvj9C78nDuvXj
Github: https://github.com/markriedl/easygen
🔗 Easygen.ipynb
Colaboratory notebook
Программно-аппаратные решения в области ИИ
✅Эволюция вычислений, видение DELL EMC
✅Суперкомпьютеры проекта Coral: Summit и Sierra
✅Сеть межпроцессорного обмена Ангара и современные системы ИИ
✅Роль сетевых технологий в ускорении ИИ вычислений
✅Платформы NVIDIA для систем ИИ
✅Практический взгляд компании AMD на решение задач ИИ
✅Обзор проектов Intel в области машинного обучения и систем AI
✅Настоящие и будущие супер-решения Supermicro для систем ИИ и анализа данных
🎥 Никита Степанов: «Эволюция вычислений, видение DELL EMC»
👁 1 раз ⏳ 2549 сек.
🎥 Александр Перевозчиков: «Суперкомпьютеры проекта Coral: Summit и Sierra»
👁 1 раз ⏳ 9988 сек.
🎥 Александр Семенов: «Сеть межпроцессорного обмена Ангара и современные системы ИИ»
👁 1 раз ⏳ 4289 сек.
🎥 Борис Нейман: «Роль сетевых технологий в ускорении ИИ вычислений»
👁 1 раз ⏳ 3305 сек.
🎥 Дмитрий Конягин: «Платформы NVIDIA для систем ИИ»
👁 1 раз ⏳ 4682 сек.
🎥 Павел Станавов: «Практический взгляд компании AMD на решение задач ИИ» edit 230ms
👁 1 раз ⏳ 3478 сек.
🎥 Михаил Цветков: «Обзор проектов Intel в области машинного обучения и систем AI»
👁 1 раз ⏳ 3342 сек.
🎥 Евгений Борисов: «Настоящие и будущие супер-решения Supermicro для систем ИИ и анализа данных»
👁 1 раз ⏳ 4624 сек.
✅Эволюция вычислений, видение DELL EMC
✅Суперкомпьютеры проекта Coral: Summit и Sierra
✅Сеть межпроцессорного обмена Ангара и современные системы ИИ
✅Роль сетевых технологий в ускорении ИИ вычислений
✅Платформы NVIDIA для систем ИИ
✅Практический взгляд компании AMD на решение задач ИИ
✅Обзор проектов Intel в области машинного обучения и систем AI
✅Настоящие и будущие супер-решения Supermicro для систем ИИ и анализа данных
🎥 Никита Степанов: «Эволюция вычислений, видение DELL EMC»
👁 1 раз ⏳ 2549 сек.
Заключительная лекция цикла «Программно-аппаратные решения в области ИИ», организованного лабораторией мультимедийных систем и технологий при ФРКТ ...
🎥 Александр Перевозчиков: «Суперкомпьютеры проекта Coral: Summit и Sierra»
👁 1 раз ⏳ 9988 сек.
Чего можно ожидать от процессоров с точки зрения производительности? Как долго проживет кремний? Как и почему отличается идеология построения проце...
🎥 Александр Семенов: «Сеть межпроцессорного обмена Ангара и современные системы ИИ»
👁 1 раз ⏳ 4289 сек.
На лекции будет рассказано о направлениях работ НИЦЭВТ в области теории графов — основы многих методов вычислительного искусственного интеллекта, в...
🎥 Борис Нейман: «Роль сетевых технологий в ускорении ИИ вычислений»
👁 1 раз ⏳ 3305 сек.
В социальной сети Facebook есть система автоматического распознавания лиц, за работой которой стоит сложная многоэтапная задача. Она состоит из сбо...
🎥 Дмитрий Конягин: «Платформы NVIDIA для систем ИИ»
👁 1 раз ⏳ 4682 сек.
В лекции будет рассказано про новые технологии и компоненты платформы NVIDIA для решения задач ИИ, в частности, про те, которые были представлены н...
🎥 Павел Станавов: «Практический взгляд компании AMD на решение задач ИИ» edit 230ms
👁 1 раз ⏳ 3478 сек.
Павел Станавов: «Практический взгляд компании AMD на решение задач ИИ: процессоры нового поколения и универсальные ускорители на пороге 7 нанометро...
🎥 Михаил Цветков: «Обзор проектов Intel в области машинного обучения и систем AI»
👁 1 раз ⏳ 3342 сек.
Доклад «Обзор проектов Intel в области машинного обучения и систем AI: новые аппаратные платформы и оптимизация на программном уровне» будет читать...
🎥 Евгений Борисов: «Настоящие и будущие супер-решения Supermicro для систем ИИ и анализа данных»
👁 1 раз ⏳ 4624 сек.
Продукция компании Supermicro — производителя серверных платформ — является ключевым звеном в цепи «превращения умных чипов в законченные функциона...
Vk
Никита Степанов: «Эволюция вычислений, видение DELL EMC»
Заключительная лекция цикла «Программно-аппаратные решения в области ИИ», организованного лабораторией мультимедийных систем и технологий при ФРКТ ...
Modeling and Control of a Reconfigurable Photonic Circuit using Deep Learning
Authors: Akram Youssry, Robert J. Chapman, Alberto Peruzzo, Christopher Ferrie, Marco Tomamichel
Abstract: …which cannot be directly observed. Finally, there are imperfections in the measurements caused by losses from coupling the chip externally to optical fibers. We developed a deep neural network approach to solve these problems. The architecture is designed specifically to overcome the aforementioned challenges using a Gated Recurrent Unit (GRU)-based network
https://arxiv.org/abs/1907.08023
🔗 Modeling and Control of a Reconfigurable Photonic Circuit using Deep Learning
The complexity of experimental quantum information processing devices is increasing rapidly, requiring new approaches to control them. In this paper, we address the problems of practically modeling and controlling an integrated optical waveguide array chip, a technology expected to have many applications in telecommunications and optical quantum information processing. This photonic circuit can be electrically reconfigured, but only the output optical signal can be monitored. As a result, the conventional control methods cannot be naively applied. Characterizing such a chip is challenging for three reasons. First, there are uncertainties associated with the Hamiltonian describing the chip. Second, we expect distortions of the control voltages caused by the chip's electrical response, which cannot be directly observed. Finally, there are imperfections in the measurements caused by losses from coupling the chip externally to optical fibers. We developed a deep neural network approach to solve these problems
Authors: Akram Youssry, Robert J. Chapman, Alberto Peruzzo, Christopher Ferrie, Marco Tomamichel
Abstract: …which cannot be directly observed. Finally, there are imperfections in the measurements caused by losses from coupling the chip externally to optical fibers. We developed a deep neural network approach to solve these problems. The architecture is designed specifically to overcome the aforementioned challenges using a Gated Recurrent Unit (GRU)-based network
https://arxiv.org/abs/1907.08023
🔗 Modeling and Control of a Reconfigurable Photonic Circuit using Deep Learning
The complexity of experimental quantum information processing devices is increasing rapidly, requiring new approaches to control them. In this paper, we address the problems of practically modeling and controlling an integrated optical waveguide array chip, a technology expected to have many applications in telecommunications and optical quantum information processing. This photonic circuit can be electrically reconfigured, but only the output optical signal can be monitored. As a result, the conventional control methods cannot be naively applied. Characterizing such a chip is challenging for three reasons. First, there are uncertainties associated with the Hamiltonian describing the chip. Second, we expect distortions of the control voltages caused by the chip's electrical response, which cannot be directly observed. Finally, there are imperfections in the measurements caused by losses from coupling the chip externally to optical fibers. We developed a deep neural network approach to solve these problems
How to Develop an Auxiliary Classifier GAN (AC-GAN) From Scratch with Keras
https://machinelearningmastery.com/how-to-develop-an-auxiliary-classifier-gan-ac-gan-from-scratch-with-keras/
🔗 How to Develop an Auxiliary Classifier GAN (AC-GAN) From Scratch with Keras
Generative Adversarial Networks, or GANs, are an architecture for training generative models, such as deep convolutional neural networks for generating images. The conditional generative adversarial network, or cGAN for short, is a type of GAN that involves the conditional generation of images by a generator model. Image generation can be conditional on a class label, …
https://machinelearningmastery.com/how-to-develop-an-auxiliary-classifier-gan-ac-gan-from-scratch-with-keras/
🔗 How to Develop an Auxiliary Classifier GAN (AC-GAN) From Scratch with Keras
Generative Adversarial Networks, or GANs, are an architecture for training generative models, such as deep convolutional neural networks for generating images. The conditional generative adversarial network, or cGAN for short, is a type of GAN that involves the conditional generation of images by a generator model. Image generation can be conditional on a class label, …
MachineLearningMastery.com
How to Develop an Auxiliary Classifier GAN (AC-GAN) From Scratch with Keras - MachineLearningMastery.com
Generative Adversarial Networks, or GANs, are an architecture for training generative models, such as deep convolutional neural networks for generating images. The conditional generative adversarial network, or cGAN for short, is a type of GAN that involves…
Deep learning на пальцах (2019)
#Deeplearning
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
Deep learning на пальцах 1 - Введение
Deep Learning course 2019, seminar #1 (version 2)
Deep learning на пальцах 2 - Элементы машинного обучения
Deep Learning course 2019, seminar #2
Deep learning на пальцах 3 - Нейронные сети
Deep Learning course 2019, seminar #3
Deep Learning на пальцах 4 - PyTorch и подробности
Deep Learning на пальцах 5 - Нейросети на практике
Deep Learning на пальцах 6 - Convolutional Neural Networks
Deep Learning на пальцах 7 - Segmentation и Object Detection
🎥 Deep learning на пальцах 1 - Введение
👁 1 раз ⏳ 4453 сек.
🎥 Deep Learning course 2019, seminar #1 (version 2)
👁 1 раз ⏳ 2976 сек.
🎥 Deep learning на пальцах 2 - Элементы машинного обучения
👁 1 раз ⏳ 3957 сек.
🎥 Deep Learning course 2019, seminar #2
👁 1 раз ⏳ 1287 сек.
🎥 Deep learning на пальцах 3 - Нейронные сети
👁 1 раз ⏳ 5545 сек.
🎥 Deep Learning course 2019, seminar #3
👁 1 раз ⏳ 1439 сек.
🎥 Deep Learning на пальцах 4 - PyTorch и подробности
👁 1 раз ⏳ 4999 сек.
🎥 Deep Learning на пальцах 5 - Нейросети на практике
👁 1 раз ⏳ 5687 сек.
🎥 Deep Learning на пальцах 6 - Convolutional Neural Networks
👁 1 раз ⏳ 5231 сек.
🎥 Deep Learning на пальцах 7 - Segmentation и Object Detection (Владимир Игловиков)
👁 1 раз ⏳ 5720 сек.
#Deeplearning
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
Deep learning на пальцах 1 - Введение
Deep Learning course 2019, seminar #1 (version 2)
Deep learning на пальцах 2 - Элементы машинного обучения
Deep Learning course 2019, seminar #2
Deep learning на пальцах 3 - Нейронные сети
Deep Learning course 2019, seminar #3
Deep Learning на пальцах 4 - PyTorch и подробности
Deep Learning на пальцах 5 - Нейросети на практике
Deep Learning на пальцах 6 - Convolutional Neural Networks
Deep Learning на пальцах 7 - Segmentation и Object Detection
🎥 Deep learning на пальцах 1 - Введение
👁 1 раз ⏳ 4453 сек.
Курс: http://dlcourse.ai
Слайды: https://www.dropbox.com/s/veif179mw6cdp2v/Lecture%201%20-%20Intro.pptx?dl=0
Лекции каждую неделю в среду 8:40 утра...
🎥 Deep Learning course 2019, seminar #1 (version 2)
👁 1 раз ⏳ 2976 сек.
Семинар №1 курса https://dlcourse.ai/ ,
ссылка на ноутбук: https://colab.research.google.com/drive/1FBdo0TAv5eiWNl909vrcAQeau476rlOK
🎥 Deep learning на пальцах 2 - Элементы машинного обучения
👁 1 раз ⏳ 3957 сек.
Курс: http://dlcourse.ai
Слайды: https://www.dropbox.com/s/h1r9iju8i1c1gyp/Lecture%202%20-%20Machine%20Learning%20-%20annotated.pptx?dl=0
Лекции ка...
🎥 Deep Learning course 2019, seminar #2
👁 1 раз ⏳ 1287 сек.
Семинар №2 курса https://dlcourse.ai/
Задание 1: https://github.com/sim0nsays/dlcourse_ai
Ноутбук 1, к которому мы ненадолго возвращаемся: https:/...
🎥 Deep learning на пальцах 3 - Нейронные сети
👁 1 раз ⏳ 5545 сек.
Курс: http://dlcourse.ai
Слайды: https://www.dropbox.com/s/ywn9xoxeyy7250b/Lecture%203%20-%20Neural%20Networks%20-%20annotated.pdf?dl=0
Лекции кажд...
🎥 Deep Learning course 2019, seminar #3
👁 1 раз ⏳ 1439 сек.
Семинар №3 курса https://dlcourse.ai/
Разбираем математику вычисления градиента кросс-энтропии и софтмакса из задания 1.2 :
https://github.com/sim0...
🎥 Deep Learning на пальцах 4 - PyTorch и подробности
👁 1 раз ⏳ 4999 сек.
Курс: http://dlcourse.ai
Слайды: https://www.dropbox.com/s/bdk2rdjxx4c0cte/Lecture%204%20-%20Framework%20%26%20Details%20-%20annotated.pdf?dl=0
🎥 Deep Learning на пальцах 5 - Нейросети на практике
👁 1 раз ⏳ 5687 сек.
Курс: http://dlcourse.ai
Слайды: https://www.dropbox.com/s/fa047fxlbqcmv96/Lecture%205%20-%20Neural%20Network%20In%20Practice%20-%20annotated.pdf?dl=0
🎥 Deep Learning на пальцах 6 - Convolutional Neural Networks
👁 1 раз ⏳ 5231 сек.
Курс: http://dlcourse.ai
Слайды: https://www.dropbox.com/s/k8rtpvlc3xaj65b/Lecture%206%20-%20CNNs%20-%20annotated.pdf?dl=0
Если все еще непонятно, ...
🎥 Deep Learning на пальцах 7 - Segmentation и Object Detection (Владимир Игловиков)
👁 1 раз ⏳ 5720 сек.
Курс: http://dlcourse.ai
Слайды: https://slides.com/vladimiriglovikov/title-texttitle-text-17
Менее хардкорный вариант лекции прошлого года: https:...
Imran Rashid:Training intelligent game agents using deep reinforcement learning | PyData London 2019
https://www.youtube.com/watch?v=_Hojp_fMOjI
🎥 Imran Rashid:Training intelligent game agents using deep reinforcement learning | PyData London 2019
👁 1 раз ⏳ 4621 сек.
https://www.youtube.com/watch?v=_Hojp_fMOjI
🎥 Imran Rashid:Training intelligent game agents using deep reinforcement learning | PyData London 2019
👁 1 раз ⏳ 4621 сек.
Reinforcement learning has enjoyed its recent prominence with its combination with the class of rich function approximators known as deep neural networks. The combination, referred as deep reinforcement learning (DRL) have demonstrated to perform on complex tasks from Atari games to robotics to self-driving cars. This tutorial dives into how to frame and solve DRL problem with python.
www.pydata.org
PyData is an educational program of NumFOCUS, a 501(c)3 non-profit organization in the United States. PyDat
YouTube
Imran Rashid:Training intelligent game agents using deep reinforcement learning | PyData London 2019
Reinforcement learning has enjoyed its recent prominence with its combination with the class of rich function approximators known as deep neural networks. Th...
Building SMILY, a Human-Centric, Similar-Image Search Tool for Pathology
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
http://ai.googleblog.com/2019/07/building-smily-human-centric-similar.html/
🔗 Building SMILY, a Human-Centric, Similar-Image Search Tool for Pathology
Posted by Narayan Hegde, Software Engineer, Google Health and Carrie J. Cai, Research Scientist, Google Research Advances in machine learn...
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
http://ai.googleblog.com/2019/07/building-smily-human-centric-similar.html/
🔗 Building SMILY, a Human-Centric, Similar-Image Search Tool for Pathology
Posted by Narayan Hegde, Software Engineer, Google Health and Carrie J. Cai, Research Scientist, Google Research Advances in machine learn...
Googleblog
Building SMILY, a Human-Centric, Similar-Image Search Tool for Pathology
Key decisions when planning a Data Science project
6 questions to make yourself and not end up smashed
https://towardsdatascience.com/key-decisions-when-planning-a-data-science-project-b6e17f921ed1?source=collection_home---4------0-----------------------
🔗 Key decisions when planning a Data Science project - Towards Data Science
6 questions to make yourself and not end up smashed
6 questions to make yourself and not end up smashed
https://towardsdatascience.com/key-decisions-when-planning-a-data-science-project-b6e17f921ed1?source=collection_home---4------0-----------------------
🔗 Key decisions when planning a Data Science project - Towards Data Science
6 questions to make yourself and not end up smashed
Medium
Key decisions when planning a Data Science project
6 questions to make yourself and not end up smashed
Speeding up Neural Net Training with LR-Finder
Finding good initial learning rate for your network
https://towardsdatascience.com/speeding-up-neural-net-training-with-lr-finder-c3b401a116d0
🔗 Speeding up Neural Net Training with LR-Finder - Towards Data Science
Finding good initial learning rate for your network
Finding good initial learning rate for your network
https://towardsdatascience.com/speeding-up-neural-net-training-with-lr-finder-c3b401a116d0
🔗 Speeding up Neural Net Training with LR-Finder - Towards Data Science
Finding good initial learning rate for your network
Medium
Speeding up Neural Net Training with LR-Finder
Finding good initial learning rate for your network
Do NLP Entailment Benchmarks Measure Faithfully?
I suggest they don’t.
https://towardsdatascience.com/do-nlp-entailment-benchmarks-measure-faithfully-e600212692b3?source=collection_home---4------0-----------------------
🔗 Do NLP Entailment Benchmarks Measure Faithfully? - Towards Data Science
I suggest they don’t.
I suggest they don’t.
https://towardsdatascience.com/do-nlp-entailment-benchmarks-measure-faithfully-e600212692b3?source=collection_home---4------0-----------------------
🔗 Do NLP Entailment Benchmarks Measure Faithfully? - Towards Data Science
I suggest they don’t.
Medium
Do NLP Entailment Benchmarks Measure Faithfully?
I suggest they don’t.
«Machine learning with Amazon SageMaker», Rinat Gareev, AWS Dev Day Moscow 2019
https://www.youtube.com/watch?v=G6xtmt0HCk0
🎥 «Machine learning with Amazon SageMaker», Rinat Gareev, AWS Dev Day Moscow 2019
👁 1 раз ⏳ 3497 сек.
https://www.youtube.com/watch?v=G6xtmt0HCk0
🎥 «Machine learning with Amazon SageMaker», Rinat Gareev, AWS Dev Day Moscow 2019
👁 1 раз ⏳ 3497 сек.
Session: Machine learning with Amazon SageMaker
Speaker: Rinat Gareev, Provectus
AWS Dev Day is a free, full-day technical event where new developers will learn about some of the hottest topics in cloud computing, and experienced developers can dive deep on newer AWS services.
Provectus has organized AWS Dev Day Moscow in close collaboration with Amazon Web Services: 250+ participants, 10 sessions, 2 tracks, a really AWSome Day!
Now we're building and nurturing AWS User Group Kazan — join us on Vkontak
YouTube
«Machine learning with Amazon SageMaker», Rinat Gareev, AWS Dev Day Moscow 2019
Session: Machine learning with Amazon SageMaker Speaker: Rinat Gareev, Provectus AWS Dev Day is a free, full-day technical event where new developers will le...
Powering Tensorflow with Big Data (Apache BEAM & Flink) - Holden Karauhttps://www.youtube.com/watch?v=sOoo-xQMR4M
🎥 Powering Tensorflow with Big Data (Apache BEAM & Flink) - Holden Karau
👁 1 раз ⏳ 1070 сек.
🎥 Powering Tensorflow with Big Data (Apache BEAM & Flink) - Holden Karau
👁 1 раз ⏳ 1070 сек.
Flink Forward San Francisco, April 2018 #flinkforward
Powering Tensorflow with Big Data (Apache BEAM & Flink) - Holden Karau
Tensorflow is all kind of fancy, from helping startups raising their Series A in Silicon Valley to detecting if something is a cat. However, when things start to get “real” you may find yourself no longer dealing with mnist.csv, and instead needing do large scale data prep as well as training. This talk will explore how Tensorflow can be used in conjunction with Apache BEAM, Flink,
Vk
Powering Tensorflow with Big Data (Apache BEAM & Flink) - Holden Karau
Flink Forward San Francisco, April 2018 #flinkforward
Powering Tensorflow with Big Data (Apache BEAM & Flink) - Holden Karau
Tensorflow is all kind of fancy, from helping startups raising their Series A in Silicon Valley to detecting if something is a cat.…
Powering Tensorflow with Big Data (Apache BEAM & Flink) - Holden Karau
Tensorflow is all kind of fancy, from helping startups raising their Series A in Silicon Valley to detecting if something is a cat.…
Тарас Лищенко, DatAI "Deep learning in Scale with Python and Gstreamer"
https://www.youtube.com/watch?v=z4CjV5KBlTQ
🎥 Production.ai. Taras Lishchenko, DatAI "Deep learning in Scale with Python and Gstreamer"
👁 1 раз ⏳ 4019 сек.
https://www.youtube.com/watch?v=z4CjV5KBlTQ
🎥 Production.ai. Taras Lishchenko, DatAI "Deep learning in Scale with Python and Gstreamer"
👁 1 раз ⏳ 4019 сек.
YouTube
Production.ai. Taras Lishchenko, DatAI "Deep learning in Scale with Python and Gstreamer"
Теория вероятностей
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
00 - Теория вероятностей. О курсе
01 - Теория вероятностей. Элементарная теория вероятностей: случайные события
02 - Теория вероятностей. Немного комбинаторики. Условная вероятность
03 - Теория вероятностей. Теорема Байеса. Независимые события
04 - Теория вероятностей. Схема Бернулли. Краткие сведения из математического анализа.
05 - Теория вероятностей. Случайные величины. Математическое ожидание.
06 - Теория вероятностей. Дисперсия
07 - Теория вероятностей. Закон больших чисел
08 - Теория вероятностей. Теорема Пуассона. Локальная теорема Муавра–Лапласа.
🎥 00 - Теория вероятностей. О курсе
👁 1 раз ⏳ 89 сек.
🎥 01 - Теория вероятностей. Элементарная теория вероятностей: случайные события
👁 1 раз ⏳ 1757 сек.
🎥 02 - Теория вероятностей. Немного комбинаторики. Условная вероятность
👁 1 раз ⏳ 1671 сек.
🎥 03 - Теория вероятностей. Теорема Байеса. Независимые события
👁 1 раз ⏳ 1789 сек.
🎥 04 - Теория вероятностей. Схема Бернулли. Краткие сведения из математического анализа.
👁 1 раз ⏳ 1327 сек.
🎥 05 - Теория вероятностей. Случайные величины. Математическое ожидание.
👁 1 раз ⏳ 1514 сек.
🎥 06 - Теория вероятностей. Дисперсия
👁 1 раз ⏳ 1364 сек.
🎥 07 - Теория вероятностей. Закон больших чисел
👁 1 раз ⏳ 1280 сек.
🎥 08 - Теория вероятностей. Теорема Пуассона. Локальная теорема Муавра–Лапласа.
👁 1 раз ⏳ 1780 сек.
Наш телеграм канал - tglink.me/ai_machinelearning_big_data
00 - Теория вероятностей. О курсе
01 - Теория вероятностей. Элементарная теория вероятностей: случайные события
02 - Теория вероятностей. Немного комбинаторики. Условная вероятность
03 - Теория вероятностей. Теорема Байеса. Независимые события
04 - Теория вероятностей. Схема Бернулли. Краткие сведения из математического анализа.
05 - Теория вероятностей. Случайные величины. Математическое ожидание.
06 - Теория вероятностей. Дисперсия
07 - Теория вероятностей. Закон больших чисел
08 - Теория вероятностей. Теорема Пуассона. Локальная теорема Муавра–Лапласа.
🎥 00 - Теория вероятностей. О курсе
👁 1 раз ⏳ 89 сек.
Лектор: Александр Храбров
https://stepik.org/3089
🎥 01 - Теория вероятностей. Элементарная теория вероятностей: случайные события
👁 1 раз ⏳ 1757 сек.
Лектор: Александр Храбров
1. Вероятностная модель эксперимента
2. Вероятностные пространства
https://stepik.org/3089
🎥 02 - Теория вероятностей. Немного комбинаторики. Условная вероятность
👁 1 раз ⏳ 1671 сек.
Лектор: Александр Храбров
https://stepik.org/3089
🎥 03 - Теория вероятностей. Теорема Байеса. Независимые события
👁 1 раз ⏳ 1789 сек.
Лектор: Александр Храбров
https://stepik.org/3089
🎥 04 - Теория вероятностей. Схема Бернулли. Краткие сведения из математического анализа.
👁 1 раз ⏳ 1327 сек.
Лектор: Александр Храбров
https://stepik.org/3089
🎥 05 - Теория вероятностей. Случайные величины. Математическое ожидание.
👁 1 раз ⏳ 1514 сек.
Лектор: Александр Храбров
https://stepik.org/3089
🎥 06 - Теория вероятностей. Дисперсия
👁 1 раз ⏳ 1364 сек.
Лектор: Александр Храбров
https://stepik.org/3089
🎥 07 - Теория вероятностей. Закон больших чисел
👁 1 раз ⏳ 1280 сек.
Лектор: Александр Храбров
https://stepik.org/3089
🎥 08 - Теория вероятностей. Теорема Пуассона. Локальная теорема Муавра–Лапласа.
👁 1 раз ⏳ 1780 сек.
Лектор: Александр Храбров
https://stepik.org/3089
Vk
00 - Теория вероятностей. О курсе
Лектор: Александр Храбров https://stepik.org/3089
On the relation between Loss Functions and T-Norms
https://arxiv.org/abs/1907.07904
🔗 On the relation between Loss Functions and T-Norms
Deep learning has been shown to achieve impressive results in several domains like computer vision and natural language processing. A key element of this success has been the development of new loss functions, like the popular cross-entropy loss, which has been shown to provide faster convergence and to reduce the vanishing gradient problem in very deep structures. While the cross-entropy loss is usually justified from a probabilistic perspective, this paper shows an alternative and more direct interpretation of this loss in terms of t-norms and their associated generator functions, and derives a general relation between loss functions and t-norms. In particular, the presented work shows intriguing results leading to the development of a novel class of loss functions. These losses can be exploited in any supervised learning task and which could lead to faster convergence rates that the commonly employed cross-entropy loss.
https://arxiv.org/abs/1907.07904
🔗 On the relation between Loss Functions and T-Norms
Deep learning has been shown to achieve impressive results in several domains like computer vision and natural language processing. A key element of this success has been the development of new loss functions, like the popular cross-entropy loss, which has been shown to provide faster convergence and to reduce the vanishing gradient problem in very deep structures. While the cross-entropy loss is usually justified from a probabilistic perspective, this paper shows an alternative and more direct interpretation of this loss in terms of t-norms and their associated generator functions, and derives a general relation between loss functions and t-norms. In particular, the presented work shows intriguing results leading to the development of a novel class of loss functions. These losses can be exploited in any supervised learning task and which could lead to faster convergence rates that the commonly employed cross-entropy loss.
Electric vehicles, rockets... and now brain-computer interfaces. Elon Musk's newest venture, Neuralink, aims to bridge the gap between humans and artificial intelligence by implanting tiny chips that can link up to the brain. At a press conference on July 16, Neuralink's ambitious plans were detailed for the first time, showcasing a future (a very distant future!) technology that could help people deal with brain or spinal cord injuries or controlling 3D digital avatars.
https://www.youtube.com/watch?v=lA77zsJ31nA
🎥 Watch Elon Musk’s Neuralink presentation
👁 1 раз ⏳ 1109 сек.
https://www.youtube.com/watch?v=lA77zsJ31nA
🎥 Watch Elon Musk’s Neuralink presentation
👁 1 раз ⏳ 1109 сек.
Electric vehicles, rockets... and now brain-computer interfaces. Elon Musk's newest venture, Neuralink, aims to bridge the gap between humans and artificial intelligence by implanting tiny chips that can link up to the brain. At a press conference on July 16, Neuralink's ambitious plans were detailed for the first time, showcasing a future (a very distant future!) technology that could help people deal with brain or spinal cord injuries or controlling 3D digital avatars.
Subscribe to CNET: https://www.yout
YouTube
Watch Elon Musk’s original Neuralink presentation
Electric vehicles, rockets... and now brain-computer interfaces. Elon Musk's newest venture, Neuralink, aims to bridge the gap between humans and artificial intelligence by implanting tiny chips that can link up to the brain. At a press conference on July…
Как выглядят банки изнутри
#DataMining #BigData
Так выглядит банк изнутри. Данная визуализация в три этапа основана на реальных клиентских операциях банка с отозванной лицензией.
В качестве источника данных — главная бухгалтерская книга банка. Используя теорию графов, выделяем всех его клиентов в качестве узлов, а операции по счёту используем как ребра. Сумма операции, в таком случае, будет являться весом ребра.
https://habr.com/ru/post/460687/
🔗 Как выглядят банки изнутри
Так выглядит банк изнутри. Данная визуализация в три этапа основана на реальных клиентских операциях банка с отозванной лицензией. В качестве источника данных...
#DataMining #BigData
Так выглядит банк изнутри. Данная визуализация в три этапа основана на реальных клиентских операциях банка с отозванной лицензией.
В качестве источника данных — главная бухгалтерская книга банка. Используя теорию графов, выделяем всех его клиентов в качестве узлов, а операции по счёту используем как ребра. Сумма операции, в таком случае, будет являться весом ребра.
https://habr.com/ru/post/460687/
🔗 Как выглядят банки изнутри
Так выглядит банк изнутри. Данная визуализация в три этапа основана на реальных клиентских операциях банка с отозванной лицензией. В качестве источника данных...
Хабр
Как выглядят банки изнутри
Так выглядит банк изнутри. Данная визуализация в три этапа основана на реальных клиентских операциях банка с отозванной лицензией. В качестве источника данных...
AI Discovers Sentiment By Writing Amazon Reviews
https://www.youtube.com/watch?v=hYWr67i8z5o&feature=youtu.be
🎥 AI Discovers Sentiment By Writing Amazon Reviews
👁 1 раз ⏳ 246 сек.
https://www.youtube.com/watch?v=hYWr67i8z5o&feature=youtu.be
🎥 AI Discovers Sentiment By Writing Amazon Reviews
👁 1 раз ⏳ 246 сек.
❤️ Pick up cool perks on our Patreon page: https://www.patreon.com/TwoMinutePapers
📝 The paper "Learning to Generate Reviews and Discovering Sentiment" is available here:
https://openai.com/blog/unsupervised-sentiment-neuron/
https://arxiv.org/abs/1704.01444
🙏 We would like to thank our generous Patreon supporters who make Two Minute Papers possible:
313V, Alex Haro, Andrew Melnychuk, Angelos Evripiotis, Anthony Vdovitchenko, Brian Gilman, Bruno Brito, Bryan Learn, Christian Ahlin, Christoph Jadanowski, C
YouTube
AI Discovers Sentiment By Writing Amazon Reviews
❤️ Support the show on Patreon: https://www.patreon.com/TwoMinutePapers ₿ Crypto and PayPal links are available below. Thank you very much for your generous ...
Deep Learning For Real Time Streaming Data With Kafka And Tensorflow
#ODSC #DeepLearning #Tensorflow
https://www.youtube.com/watch?v=HenBuC4ATb0
🔗 Deep Learning For Real Time Streaming Data With Kafka And Tensorflow | YongTang - ODSC East 2019
In mission-critical real time applications, using machine learning to analyze streaming data are gaining momentum. In those applications Apache Kafka is the most widely used framework to process the data streams. It typically works with other machine learning frameworks for model inference and training purposes. In this talk, our focus is to discuss the KafkaDataset module in TensorFlow. KafkaDataset processes Kafka streaming data directly to TensorFlow's graph. As a part of Tensorflow (in `tf.contrib`), t
#ODSC #DeepLearning #Tensorflow
https://www.youtube.com/watch?v=HenBuC4ATb0
🔗 Deep Learning For Real Time Streaming Data With Kafka And Tensorflow | YongTang - ODSC East 2019
In mission-critical real time applications, using machine learning to analyze streaming data are gaining momentum. In those applications Apache Kafka is the most widely used framework to process the data streams. It typically works with other machine learning frameworks for model inference and training purposes. In this talk, our focus is to discuss the KafkaDataset module in TensorFlow. KafkaDataset processes Kafka streaming data directly to TensorFlow's graph. As a part of Tensorflow (in `tf.contrib`), t
AI Discovers Sentiment By Writing Amazon Reviews
🔗 AI Discovers Sentiment By Writing Amazon Reviews
❤️ Pick up cool perks on our Patreon page: https://www.patreon.com/TwoMinutePapers 📝 The paper "Learning to Generate Reviews and Discovering Sentiment" is available here: https://openai.com/blog/unsupervised-sentiment-neuron/ https://arxiv.org/abs/1704.01444 🙏 We would like to thank our generous Patreon supporters who make Two Minute Papers possible: 313V, Alex Haro, Andrew Melnychuk, Angelos Evripiotis, Anthony Vdovitchenko, Brian Gilman, Bruno Brito, Bryan Learn, Christian Ahlin, Christoph Jadanowski, C
🔗 AI Discovers Sentiment By Writing Amazon Reviews
❤️ Pick up cool perks on our Patreon page: https://www.patreon.com/TwoMinutePapers 📝 The paper "Learning to Generate Reviews and Discovering Sentiment" is available here: https://openai.com/blog/unsupervised-sentiment-neuron/ https://arxiv.org/abs/1704.01444 🙏 We would like to thank our generous Patreon supporters who make Two Minute Papers possible: 313V, Alex Haro, Andrew Melnychuk, Angelos Evripiotis, Anthony Vdovitchenko, Brian Gilman, Bruno Brito, Bryan Learn, Christian Ahlin, Christoph Jadanowski, C
YouTube
AI Discovers Sentiment By Writing Amazon Reviews
❤️ Support the show on Patreon: https://www.patreon.com/TwoMinutePapers₿ Crypto and PayPal links are available below. Thank you very much for your generous s...