Denis Sexy IT 🤖
79.8K subscribers
3.22K photos
1.64K videos
21 files
4.09K links
Личный блог Дениса Ширяева (🤍🇺🇦), про технологии, интересное или актуальное.

В основном я по нейронкам. Работаю CEO в https://neural.love

⚜️ Реклама в канале возможна для юрлиц и физ-лиз у которых работает SWIFT оплата в Нидерланды

Связь: @thenbot
Download Telegram
На моём любимом канале «Kurzgesagt – In a Nutshell» новое видео:
https://youtu.be/WSKi8HfcxEk

О том как роботы захватывают рабочие места людей и о том, что в целом это не то же самое, что было в прошлом веке с автоматизацией производства — речь именно о замене людей алгоритмами, софтом.

Также в видео есть немного аналитики — на скриншоте ниже график возникновения новых рабочих мест в США, как видите, он так себе — а людей с каждым годом становится все больше.

С чем я абсолютно согласен — общество по всему миру будет меняться и поменяется еще при нашей жизни 💖🤖
(Да, у меня в последнее время любовь к скриншотам в стиле IE6, простите)
This media is not supported in your browser
VIEW IN TELEGRAM
Наконец-то кто-то сделал регулятор громкости который не стыдно поставить себе на сайт
Forwarded from VRhere
Наконец, трезвые предсказания по VR\AR до 2025 года от Джези Скэла, профессора Carnegie Mellon University:
— Рынок VR игр достигнет $7,5-$22,5 млрд, что составит от 5% до 15% всей игровой индустрии [к примеру, рынок IoT платформ к этому времени не превысит $2 млрд]. Прогнозы Digi-Capital про рост рынка AR до $90 млрд к 2020 он называет «очень, очень неверным»;
— Рынок AR будет составлять всего лишь 15% от рынка VR;
— Большая часть взаимодействий с игровым миром будет реализованы через контроллеры, вроде Touch или Wands. Системы, которые бы отслеживали движения рук не будут активно внедрятся потому что а) дорого, б) они не точные, в) не передают тактильных ощущений;
— AR нужно много времени чтобы выглядеть так как повседневные очки. До этого момента AR будет громоздким и на улицах будет выглядеть глупо [Джэзи вспоминает чудовищный провал Google Glasses];
— Hololens не скоро станет повседневным явлением. Из-за тёмных стёкол сложно различить верхнюю часть лица. А общество не примет устройство, которое не позволяет установить естественный зрительный контакт;
— Никто не хочет быть собеседником человека с громадной камерой на очках, речь о приватность. Это еще одна проблема для развития повседневного AR;
— VR будет удерживать преимущество благодаря несравненно большему углу обзору;
— Сенсоры для аугментированной реальность находятся на стадии раннего детства: они недостаточно хорошо распознают окружающий мир и требуют много ресурсов.

И закончил он клёвой фразой «We are designing the eyes of the next generation. So I urge you to all work together to make sure we make the best damn eyes the world has ever known.»
Трансфер стилей с помощью нейронных сетей, становится все лучше и лучше —14 июня появился документ описывающий работу алгоритма для переноса текстуры лица (если так можно сказать) с фотореалестичной детализацией. То есть вы задаете стиль который хотели бы получить и выбираете лицо, на которое хотели бы наложить этот стиль, и получается очень клево.

Сам документ вот: https://arxiv.org/abs/1706.04306
А ниже пример того, что удалось получить на выходе.

Помните француза который на документы свои рендеры подал вместо фото? Ну так вот, через какое-то время это сможет сделать любой желающий — было бы здорово получить такой инструмент внутри смартфона, чтобы селфи можно было бы не снимать, а генерировать 💖

Исходный код, пока, недоступен
Если вам кажется, что вы все понимаете в индустрии VR и вас сложно удивить, то я принес вам ссылку:
https://youtu.be/S5jWuwx1cP4

Я примерно понимаю, что происходит в видео, но расписывать это не возьмусь.

Вот официальная копипаста:
«We present FaceDisplay, a multi-display mobile virtual reality (VR) head mounted display (HMD), designed to enable non-HMD users to perceive and interact with the virtual world of the HMD user»

Скажу лишь только, что такой шлем очень бы пошел группе Daft Punk, но скорее всего не VR-геймерам (Если только за дело не взялась бы Nintendo)
Коротко о текущей ситуации с криптовалютами
На DTF вышел совершенно фантастический пост о возможностях AR kit в iOS11, с примерами. Я вот проморгал во время презентации на WWDС, что вокруг объекта в AR kit можно ходить и просмотреть его со всех сторон.

Жду не дождусь запуска AR kit на массовый рынок, чтобы посмотреть то, на что способны студии и инди разработчики 💖

https://dtf.ru/7618
Вы наверное все слышали про то, что возможно телеграму достанется блокировка в РФ, а возможно и нет — я не знаю как там будет, про политику я не пишу принципиально, но пока мы вместе и никто нас не разлучил, я просто хочу сказать вам спасибо, за то, что так получилось, что вы читаете мой канал.

Веду я его где-то месяцев 6 уже и мне не всегда удается уделить ему достаточно времени, особенно в последние недели, но я даже и не думал, что хобби ковырять что-то в нейронках или делиться своими фантазиями о будущем, может кому-нибудь понравится настолько.

Спасибо, вам, вы такие сладкие что сахар горчит после вас!
(не удержался и сделал этот пост еще более мерзким)

И чтобы это сообщение несло хоть какую-то пользу, вот вам робот-картошка:
https://www.youtube.com/watch?v=oNjPHcIzQkM

А еще я зарегистрировал порнодомен где всегда есть актуальные копии постов с моего канала:
http://denissexy.com

💖 💖 💖
В середине марта (до WWDC) Bloomberg делал пост о планах Apple на тему AR — там много слухов, часть из которых в итоге подтвердилась и в конце статьи речь идет о очках, которые, вполне логично выпустить, если решена проблема с трекингом поверхностей.

Ну так вот, по моему мнению, она решена в iOS 11:
https://www.youtube.com/watch?v=TBtwElmFbLA

И это настолько хорошо выглядит, что даже страшно представить, что было-бы, если бы кто-то из корпораций выпустил бы нормальные очки или линзы, в общем, устройство которые можно было бы использовать постоянно. Подождем немного и непременно узнаем.

Я так понимаю, что то, что показано в видео, было записано в специальной комнате с датчиками со всех сторон — но как же клево это все смотрится в AR 👾
Теперь вы можете порисовать вместе с нейронной сетью:
https://magenta.tensorflow.org/assets/sketch_rnn_demo/index.html

После того, как вы начнете рисовать объект, sketch-rnn попытается его дорисовать, работает довольно клево, ниже гифка. Сверху можно выбрать какой именно объект вы рисуете с нейронкой.
С телефона осторожнее — один датасет-каракуль весит около 5 мб.

Описание проекта находится тут:
https://magenta.tensorflow.org/sketch-rnn-demo ( 💖 Tensorflow)
This media is not supported in your browser
VIEW IN TELEGRAM
Это, кстати, Мона Лиза
Если попросить нейронную сеть (GAN) делать лица и наложить музыку, то получится примерно такое.

Достойная визуализация слова "крипота" 💖
Вы только представьте, через какое-то время, приложения по доставке еды обзаведутся такой AR фичей в рамках конкуренции между друг-другом:
https://www.youtube.com/watch?v=IjE1TnZ1S1c

Ох, скорее бы сентябрь, все это можно будет пощупать уже в продакшене. В целом и сейчас можно, но я искренне не люблю баги, поэтому решил не ставить новую версию iOS 11 раньше времени.

Это уже пятый пост про AR kit, я понимаю, что звучу как apple boy, но я все же о технологии, надеюсь Google допилит свой Tango на фоне таких успехов Apple с AR, и все в очередной раз изменится 🤖
Так и попадем все в будущее
Многие пишут и спрашивают, забросил ли я канал (серьезно, человек 20 уже), нет не забросил, сейчас работы станет чуть поменьше и я выйду на привычное расписание, уже на следующей неделе 💖

https://vimeo.com/225331391
На видео ниже, вы можете посмотреть любопытный концепт фото-приложения в AR, то есть оно делает 2D снимки, привычные нам и оставляет их в том месте, где находилась камера в момент съемки.
Выходит довольно наглядно и во славу энтропии 👾

Любопытно было бы подвязать это к гео-данным и фоткам из инстаграма, чтобы посмотреть как выглядят все эти фото в реальном мире, и с каких ракурсов их фотографировали
То что нейронный сети уже узнают на фотографиях что угодно, это всем уже понятно.

Наткнулся на место, где можно поиграться самому с одним из таких датасетов и посмотреть поймет нейронная сеть, что на фото которое вы ей загрузите, или нет:
http://demo.cs.adelaide.edu.au/

Помимо сегментации (Generate segmentation), как на примере ниже, нейронная сеть может попробовать подписать текст (Generate caption) и объекты на вашей картинке (Object detection).

Результаты как правило хорошие, особенно если на фото есть люди, например, за обеденным столом. Особенно радует тот факт, насколько хорошо алгоритм вырезает область человека из фото, это значит, что через какое-то время в Photoshop станет на один удобный инструмент больше (запомните этот твит).

P.S. Вот прошлый пост, на тему распознавания объектов:
https://t.me/denissexy/421
А вот что алгоритм подписал: "A man sitting on a bench next to a dog" ¯\_(ツ)_/¯