Neural Networks | Нейронные сети
11.8K subscribers
760 photos
165 videos
170 files
9.41K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
​BERT is a method of pre-training language representations, meaning that we train a general-purpose "language understanding" model on a large text corpus (like Wikipedia), and then use that model for downstream NLP tasks that we care about (like question answering). BERT outperforms previous methods because it is the first unsupervised, deeply bidirectional system for pre-training NLP.

Unsupervised means that BERT was trained using only a plain text corpus, which is important because an enormous amount of plain text data is publicly available on the web in many languages.

https://github.com/google-research/bert

🔗 google-research/bert
TensorFlow code and pre-trained models for BERT. Contribute to google-research/bert development by creating an account on GitHub.
​Fresh topic about language modeling from OpenAI, that you should read.
https://blog.openai.com/better-language-models

🔗 Better Language Models and Their Implications
We’ve trained a large-scale unsupervised language model which generates coherent paragraphs of text, achieves state-of-the-art performance on many language modeling benchmarks, and performs rudimentary reading comprehension, machine translation, question answering, and summarization — all without task-specific training. View codeRead paperRead more Our model, called GPT-2 (a successor to GPT), was
​Алгоритм мышления и сознания

В этой статье изложен алгоритм мышления и сознания. Я предлагаю свой ответ на вопрос о том как работает мышление и сознание. И демонстрирую алгоритм, который умеет по-настоящему, творчески, думать и обладает настоящим сознанием. Статья рассчитана на программистов и состоит из двух основных частей. Первая часть сугубо техническая, она содержит описание алгоритма, перечень его свойств и пример практического применения. Вторая часть содержит поясняющие тезисы и решение вопроса конструктивной аксиоматизации сознания. Алгоритм это содержательный текст который говорит сам за себя, а потому комментариев будет лишь практически необходимый минимум.
https://habr.com/ru/post/440424/

🔗 Алгоритм мышления и сознания
В этой статье изложен алгоритм мышления и сознания. Я предлагаю свой ответ на вопрос о том как работает мышление и сознание. И демонстрирую алгоритм, который уме...
🎥 Extracting Rotations The Right Way
👁 1 раз 216 сек.
The paper "A Robust Method to Extract the Rotational Part of Deformations" is available here:
http://matthias-mueller-fischer.ch/publications/stablePolarDecomp.pdf

Our work with Activision-Blizzard is available here:
› Project page: https://users.cg.tuwien.ac.at/zsolnai/gfx/separable-subsurface-scattering-with-activision-blizzard/
› Video: https://www.youtube.com/watch?v=72_iAlYwl0c

Pick up cool perks on our Patreon page:
› https://www.patreon.com/TwoMinutePapers

We would like to thank our generous Patre
​Валерий Спиридонов | Программист в США | Computer Vision и Machine Learning

🔗 Валерий Спиридонов | Программист в США | Computer Vision и Machine Learning
Программист, стартап начинатель и экс-кандидат на пересадку головы Валерий Спиридонов рассказал о карьере в ИТ и переезде в США, невзирая на физические огран...
🎥 Deep Residual Unet Segmentation in Keras TensorFlow
👁 1 раз 972 сек.
ABOUT: Inspired by the deep residual learning and Unet - the Deep Residual Unet arises, an architecture that take advantages from both (Deep Residual learning and Unet) architecture.

CODE: https://github.com/nikhilroxtomar/Deep-Residual-Unet
PAPER: https://arxiv.org/pdf/1711.10684.pdf
UNET Explained: https://youtu.be/M3EZS__Z_XE

# ======================================================
MY PC SPEC:

Intel i5-7400: https://amzn.to/2OMOJRM
Gigabyte B250M-D2V: https://amzn.to/2DqP5fU
DDR4 8GB RAM: https://amz
Перенос знаний между решениями различных видов задач в policy gradient методах

🎥 Перенос знаний между решениями различных видов задач в policy gradient методах
👁 1 раз 1389 сек.
Возможность к обобщению - одна из важных задач в машинном обучении. В обучении с подкреплением она часто встречается в виде задаче об обучении многозадачного агента, который должен не только научиться решать несколько различных задач, но и уметь переносить свой опыт на другие задачи.

На семинаре мы поговорим об одном из подходов к переиспользованию знаний агента, а так же разберем одну из первых статей, в которой предлагается и теоретически обосновывается способ переноса знаний между средами, имеющими разл
​Introduction to Applied Linear Algebra – Vectors, Matrices, and Least Squares

By Stephen Boyd and Lieven Vandenberghe, Cambridge University Press: https://web.stanford.edu/~boyd/vmls/

#ArtificialIntelligence #LinearAlgebra #Vectors #Matrices #MachineLearning

🔗 Introduction to Applied Linear Algebra – Vectors, Matrices, and Least Squares
​Data Science vs Machine Learning | New Technology 2019

🔗 Data Science vs Machine Learning | New Technology 2019
Data Science vs Machine Learning In this video on Data Science vs Machine Learning, we'll be discussing the importance of Data Science and Machine Learning a...
​Мечтают ли андроиды об электропанке? Как я учил нейросеть писать музыку

На курсах по машинному обучению в Artezio я познакомился с учебной моделью, способной создавать музыку. Музыка – существенная часть моей жизни, я много лет играл в группах (панк-рок, регги, хип-хоп, рок и т. д.) и являюсь фанатичным слушателем.

К сожалению, многие группы, большим поклонником которых я был в юности, распались по разным причинам. Или не распались, но то, что они теперь записывают… в общем, лучше бы они распались.

Мне стало любопытно, существует ли сейчас готовая модель, способная обучиться на треках одной из моих любимых групп и создать похожие композиции. Раз у самих музыкантов уже не очень получается, может, нейросеть справится за них?

🔗 Мечтают ли андроиды об электропанке? Как я учил нейросеть писать музыку
На курсах по машинному обучению в Artezio я познакомился с учебной моделью, способной создавать музыку. Музыка – существенная часть моей жизни, я много лет играл...
​Автономная езда по тротуару посредством OpenCV и Tensorflow

Создание автономных машин — популярная нынче тема и много интересного тут происходит на любительском уровне.

Самым старым и известным курсом была онлайн-степень от Udacity.

Итак, в автономных машинах есть очень модный подход — Behavioral Cloning, суть которого заключается в том, что компьютер учится вести себя как человек (за рулем), опираясь только на записанные входные и выходные данные. Грубо говоря, есть база картинок с камеры и соотвествующий им угол поворота руля.

#Искусственный интеллект,
#Машинноеобучение,
#Обработкаизображений,

#Робототехника

🔗 Автономная езда по тротуару посредством OpenCV и Tensorflow
Создание автономных машин — популярная нынче тема и много интересного тут происходит на любительском уровне. Самым старым и известным курсом была онлайн-степень...
​GPT-2 нейросеть от OpenAI. Быстрый старт

Не успели отшуметь новости о нейросети BERT от Google, показавшей state-of-the-art результаты на целом ряде разговорных (NLP) задач в машинном обучении, как OpenAI выкатили новую разработку: GPT-2. Это нейронная сеть с рекордным на данный момент числом параметров (1.5 млрд, против обычно используемых в таких случаях 100-300 млн) оказалась способна генерировать целые страницы связного текста.

Генерировать настолько хорошо, что в OpenAI отказались выкладывать полную версию, опасаясь что эту нейросеть будут использовать для создания фейковых новостей, комментариев и отзывов, неотличимых от настоящих.

Тем не менее, в OpenAI выложили в общий доступ уменьшенную версию нейросети GPT-2, со 117 млн параметров. Именно ее мы запустим через сервис Google Colab и поэкспериментруем с ней.
https://habr.com/ru/post/440564/

🔗 GPT-2 нейросеть от OpenAI. Быстрый старт
Не успели отшуметь новости о нейросети BERT от Google, показавшей state-of-the-art результаты на целом ряде разговорных (NLP) задач в машинном обучении, как Ope...
​DAT4 Course Repository
Course materials for General Assembly's Data Science course in Washington, DC (12/15/14 - 3/16/15).

Instructors: Sinan Ozdemir and Kevin Markham (Data School blog, email newsletter, YouTube channel)

Teaching Assistant: Brandon Burroughs

Office hours: 1-3pm on Saturday and Sunday (Starbucks at 15th & K), 5:15-6:30pm on Monday (GA)

https://github.com/justmarkham/DAT4

🔗 justmarkham/DAT4
General Assembly's Data Science course in Washington, DC - justmarkham/DAT4