Denis Sexy IT 🤖
69.9K subscribers
2.85K photos
1.38K videos
19 files
3.86K links
Личный блог Дениса Ширяева (🤍🇺🇦), про технологии, интересное или актуальное.

В основном я по нейронкам. Работаю CEO в https://neural.love

⚜️ Реклама в канале возможна для юрлиц и физ-лиз у которых работает SWIFT оплата в Нидерланды

Связь: @thenbot
Download Telegram
Forwarded from Karim Iskakov - канал (karfly_bot)
"NN applies minimal edits to improve outfit"
🔎 arxiv.org/abs/1904.09261
📉 @loss_function_porn
Я обычно принципиально не пишу ничего про политику или острые исторические вопросы, потому что я не компетентен и есть много каналов, которые лучше про это напишут и где авторы умнее меня.

Но тут речь идет об относительно новом формате подачи сложного и тяжелого материала в виде, который рассчитан на максимально широкую аудиторию — на пользователей стори Инстаграма.

Честно скажу, когда я первый раз увидел новость, о том что историю Евы Хейман, 13-летней венгерской девочки, погибшей в Освенциме «воссоздали» в формате стори, я довольно скептически к этому отнесся, но после просмотра этого мини-фильма я изменил свое мнение – это наиболее близкий и понятный формат для тех людей, которые используют Инстаграм, а сама по себе история пугает своим реализмом.

История состоит из 70 мини-эпизодов, смотрится очень тяжело, основана на реальных событиях.

Фильм на английском, субтитры на иврите.

Вот тут находится оригинальный Инстаграм-аккаунт со всеми стори по дням:
https://www.instagram.com/eva.stories/

Тут все 70 эпизодов можно посмотреть разом (неофициальное видео):
https://youtu.be/Z-vkLk8GJIw

А тут история создания фильма и про Еву Хейман:
https://tjournal.ru/95800
У этого поста нет пометки промо, так как это не реклама и я считаю это событие важным для всей сцены машинного обучения РФ:

10 – 11 мая в Москве состоится Data Fest⁶ – крупнейшая бесплатная конференция для исследователей, инженеров и разработчиков, связанных с data science, machine learning, AI.

Будет два дня докладов и воркшопов, интересные активности от компаний-партнёров, нетворкинг с Data Science сообществом. Также планируется онлайн трансляция из всех залов.

Регистрация и программа доступны по ссылке:
https://datafest.ru

Приходите, будет клево – крупнее ML-сообщества в РФ я не знаю.
Сейчас будет немного желтушно и сложно, но я попробую понятнее и дам ссылки на исследования:
Ученые из MIT смогли с помощью нейронной сети синтезировать картинки, которые способны стимулировать определенные зоны мозговой активности приматов.

Андрей как-то писал у себя в канале про «Атаку пикселем» – это когда вы показываете нейронке изображение на котором исправлен фрагмент картинки и нейронка начинает «путаться», теряя возможность узнать объект правильно.

Тут что-то похожее, но уже на приматах – судя по всему, процесс того, как мозг «узнает» объекты очень похож на принцип работы сверточной нейронной сети (тут можно простым языком почитать как устроена такая нейронка). Получается, что если мы сможем процесс «распознания» воспроизвести в цифровом виде, то сможем синтезировать изображения, которые будут влиять на то, как мозг обрабатывает информацию – условно, сможем «обмануть» мозг.

Я не осилил все исследование от MIT, но из того что я понял – очень точная компьютерная модель процесса «распознания» объектов мозгом, помогла синтезировать ряд картинок, которые смогли активировать конкретные нейроны у приматов. То есть, это что-то вроде точечной активации – ученые заранее знали, какой результат хотели бы получить в мозгу макаки – в итоге его и получили, причем, довольно точный.

Если совсем просто:
Представьте, что вы смотрите на картинку, как ниже, и у вас возникает чувство животного страха, желание побыстрее убраться отсюда и скрыться куда-нибудь в другое место. Или чувство эйфории, на фоне которой странно заниматься чем-то еще, кроме того, чтобы смотреть на эту картинку.

В общем, довольно пугающее исследование, надеюсь все ограничится созданием «лучшего в мире камуфляжа», а не png-терроризмом.

На картинке ниже то, чем активировали нейроны у приматов.
«🎇 Псс, парень, не хочешь пару png-файлов на вечер?» так и вижу спам-сообщения лет через 30
🤖 Через 5 минут начнется одна из моих любимых конференций: Google I/O

Ссылка на трансляцию:
https://youtu.be/lyRPyRKHO8M

Скорее всего покажут новый Pixel и умную колонку, но лично мне больше всего интересно, что нового у Google Assistant и станет ли он еще умнее.
Media is too big
VIEW IN TELEGRAM
Хаха, офигенно

Google показал превью Duplex для веба, где Google Assistant сам заполняет все поля для аренды машины за пользователя – они говорят, что это не интеграция с сервисом, так будут работать все страницы и формы если их поймет ассистент, и не только с арендой машины.

А еще Assistant теперь работает с космической скоростью – они потратили год, чтобы сделать его очень быстрым, и сделали его еще умнее, это очень важный шаг для всего рынка умных ассистентов.
Итак, досмотрел Google I/O

Что лично мне показалось клевым:

– Специальные возможности нового Android

Совершенно космическая функция: «Live captions».

Субтитры появляются мгновенно когда в системе есть какое-то аудио с речью, все это обрабатывается на устройстве (демо показывали в режиме «В самолете», без интернета), текст появляется поверх всех приложений.

Фантастическая социальная функция: люди которые плохо слышат смогут намного комфортнее ощущать себя при использовании смартфона.

Помимо этого – Google теперь намного лучше понимает людей с проблемами речи.

– Приложение Google Lens теперь покажет популярные блюда ресторана если навести телефон на меню, а если тапнуть по блюду, будет видно как оно выглядит и какие у него оценки. Еще можно навести Lens на чек и он посчитает чаевые и разделит их на нескольких людей. Довольно клево, ненавижу когда большие меню;

– Google будет показывать в результатах поиска с телефона 3D модели объектов которые ищут пользователи, объект можно будет поместить в дополненную реальность;

– Android теперь хорошо работает со «складными» телефонами, осталось дождаться складных телефонов которые хорошо работают в целом;

– Появилась темная тема 🌚 Я правда всегда думал, что она и так была в Android.

Еще много всякого, я думаю уже детальнее где-то напишут.
Вот так выглядит «Live Caption», это просто локальное видео которое запустили
Nvidia показала офигенный алгоритм:
Как вы знаете, чтобы заставить нейронку узнавать собак, нужно ей показать 4 000 собак, пару сотен НЕ собак, и вот – у вас нейронка которая может узнать «собаку».

Проблема с таким подходом в том, что собаки бывают разных пород, а фото с разных ракурсов – когда мы учим детей, мы же им всего пару раз показываем картинки собаки и они дальше уже как-то сами понимают, что на картинке – собака. То есть люди не повторяют друг другу 4 000 раз что-то чтобы обучить человека новому объекту. И если вам нужно представить как выглядит собака которая лежит, то вы без труда это сделаете без новых данных.

Алгоритм от Nvidia работает привычно к нашему пониманию – на вход подается фотография собаки и дальше нейронка способна узнать любое похожее животное которое ей дали на вход (У животного должны быть уши, нос, глаза и тп), и что важно, почти в любой позе.

Помимо этого, нейронка способна «смешивать классы» – если на исходном фото у собаки отрыта пасть и вывалился язык, то так будет на всех картинках которые она генерирует.

Прогноз DARPA сбывается, третий вид ИИ подоспел.

Вот тут можно поиграться самому (лучше загружать фото собак в профиль):
https://nvlabs.github.io/FUNIT/petswap.html

Тут исходный код:
https://github.com/NVlabs/FUNIT

А тут видео с подробностями:
https://youtu.be/kgPAqsC8PLM
This media is not supported in your browser
VIEW IN TELEGRAM
Паша, я надеюсь вы прекрасно проводите время!

Паша клевый и читает клевые каналы, будьте как Паша ԅ(≖‿≖ԅ)

Это фрагмент ютуб-шоу «Свидание Вслепую»: https://youtu.be/Tfa_nW0TkJE
Коллеги сделали офигенную подборку, по ссылке собраны сайты где можно «поиграться» с нейронками уже сейчас, рекомендую:
https://vc.ru/66670

Какие-то сайты уже публиковались в этом канале, какие-то нет, вышло клево 🔥
Спасибо читателю Константину, за эту ссылку – это прекрасный пример где DeepFake используется в чем-то полезном.

В музее Дали, во Флориде, с помощью DeepFake сделали инсталляцию в которой «оживили» Дали.

То есть взяли кадры с Сальвадором, его фотографии, отсняли актера который сыграл нужные движения для выставки, а в конце заменили лицо актера на лицо Дали восстановленное нейронкой. Получилось 40 минут контента – и тысячи комбинаций различных действий.

https://youtu.be/BIDaxl4xqJ4?t=95

Я, думаю, нас ждет что-то вроде эпохи (ну как ждет, уже настало это время), когда известные люди будут умирать, но вполне возможно продолжат появляться на экранах в новых фильмах, клипах, сериалах.

Тут моя прошла подборка роликов на тему DeepFake:
https://t.me/denissexy/797
This media is not supported in your browser
VIEW IN TELEGRAM
Если вы вдруг пропустили: Snapchat сделал клевый фильтр на нейронках который в режиме реального времени может поменять пол человека, я ничего такая 💅 вот тут подробнее https://tjournal.ru/96904
Я наверное никогда не смотрел сериала более жуткого о техногенной катастрофе, чем «Чернобыль» от HBO, вторая серия которого вышла вчера.

Все знают, что случилось на Чернобыльской АЭС в 1986 году, но наверное мало людей знают почему случилось так как случилось и почему долго не было адекватной реакции после аварии.

HBO снял на основе этих событий сильный сериал, декорации которого очень впечатляют своим реализмом.

Пишу тут об этом сериале, так как из-за громкой «Игры Престолов» можно пропустить хороший и важный сериал.

https://www.kinopoisk.ru/film/1227803/
Forwarded from TJ
Те, кто не спит, первыми читают колонку Павла Дурова про WhatsApp.

Основатель Telegram жёстко раскритиковал конкурента, назвал методы Цукерберга лицемерными и обвинил мессенджер в сотрудничестве с ФБР.

«Несколько лет назад мне пришлось покинуть свою страну после отказа нарушать конфиденциальность пользователей „ВКонтакте“ по желанию правительства. Это было неприятно. Но сделаю ли я так снова? С удовольствием».

https://tjournal.ru/tech/97326
Forwarded from Техно Фил
И сразу к технологии, при помощи которой можно реализовать маски в аудиосоообщениях.

Google сегодня рассказала об алгоритме Translatotron, который напрямую переводит устную речь на разные языки — без промежуточноой конвертации в текст. Система умеет сохранять голос и интонацию пользователя.
За что люблю современный уровень технологий, так это за их доступность – если вы вдруг захотите в качестве хобби самому начать ковырять автопилот для машины (на самом деле пока это больше Adaptive Cruise Control, но я думаю это вопрос времени) – то вот тут есть список совместимых машин, код и инструкция как начать делать свой автопилот (включая какое железо купить):
https://github.com/commaai/openpilot#supported-cars

И если вы такой же упоротый как я и стали бы выбирать машину по принципу ее AI-совместимости, я вбил список совместимых машин в autoru, чтобы было проще ориентироваться и с чего-то начать – вот тут запрос который покажет совместимые с кодом выше машины.

Список условный, так что если выберете какую-то модель, в любом случае придется сверяться дополнительно с документацией.

UPD. Как утверждает один из чуваков которвый уже ставил это на машину, для работы openpilot систем в машине уже должен быть адаптивный круиз, Openpilot это надстройка над ним – в репозитории так же сказано, но вынесу отдельно. Запрос к autoru тоже обновил исходя из этого требования.