Если у вас есть огроменный
Почему? Читайте в этой заметке
tar
архив используйте флаг -P
для его разархивации за разумное время. Почему? Читайте в этой заметке
Forwarded from Neural Shit
А вот это нереально круто ❤️!
Персонажи Южного парка на максималках.
Сгенерированно в midjourney.
(не моё, нашел в твитторе)
Персонажи Южного парка на максималках.
Сгенерированно в midjourney.
(не моё, нашел в твитторе)
Улучшаем результаты Dall-E
С помощью DALL-E 2 можно создавать очень крутые AI-изображения, а с помощью 12 бесплатных инструментов можно сделать их намного лучше.
Коротенькая заметка для тех, кто хочет сделать крутоту
С помощью DALL-E 2 можно создавать очень крутые AI-изображения, а с помощью 12 бесплатных инструментов можно сделать их намного лучше.
Коротенькая заметка для тех, кто хочет сделать крутоту
Моя новая статья: Seismoacoustic Study of Thunder and Lightning Using the AlpArray
Совсем не про машинное обучение, но зато моя собственная :)
Слышали поговорку «Гром гремит - земля трясётся»?
Ну так вот, мы (с командой Венского университета) решили изучить а правда ли трясётся, и если да, то как именно и насколько сильно.
Следите за руками:
Мы взяли датчики, которые измеряют землетрясения ->
разложили их по всей Австрии ->
подождали пока рядом с каждым из них случится гроза ->
посмотрели, а не трясёт ли гроза землю ->
оказалось, что трясёт ->
изучили данные внимательнее ->
оказалось, что то насколько сильно гром трясёт землю, хорошо коррелирует с силой тока в молнии.
Совсем не про машинное обучение, но зато моя собственная :)
Слышали поговорку «Гром гремит - земля трясётся»?
Ну так вот, мы (с командой Венского университета) решили изучить а правда ли трясётся, и если да, то как именно и насколько сильно.
Следите за руками:
Мы взяли датчики, которые измеряют землетрясения ->
разложили их по всей Австрии ->
подождали пока рядом с каждым из них случится гроза ->
посмотрели, а не трясёт ли гроза землю ->
оказалось, что трясёт ->
изучили данные внимательнее ->
оказалось, что то насколько сильно гром трясёт землю, хорошо коррелирует с силой тока в молнии.
Вывод: чем громче гром, тем большая сила тока была у молнии ⚡️
📖
СтатьяForwarded from Denis Sexy IT 🤖
Уже целый год прошел с тех пор, как мы с вами живём в мире, где есть AlphaFold, и даже если вы не знаете что это, AlphaFold знает о нас всех гораздо больше.
Я вот тут делал подробный пост об этой нейронке, в двух словах — это опенсорсная нейросеть, которая с точностью 90% (вплоть до атома) предсказывает исходную структуру молекулы белка, что раньше было ну очень сложно предсказать.
Так вот, новость заключается в том, что спустя год учёные опубликовали предсказанные структуры почти всех известных науке белков, с почти 1 млн. структур год назад до 200 млн (!) сейчас, там и растения, и бактерии, и животные и куча других организмов, представьте какие исследования можно проводить.
Но самое крутое это доступность всего этого, то есть все 200 с лишним миллионов структур будут доступны для загрузки через Google Cloud Public Datasets, а это открытость для всего учёного мира, я бы сказал священный грааль биологов. В прямом смысле сила ИИ, которая может спасти кучу жизней и разгадать кучу биологических тайн,и создать новые угрозы всему живому.
Сейчас порядка 500 000 исследователей из 190 стран получили доступ к базе данных AlphaFold с более чем 2 миллионами структур, и за такой короткий промежуток времени инструмент стал прямо необходимостью.
Как пример, недавно AlphaFold помог собрать воедино комплекс ядерной поры — это она из самых сложных головоломок в биологии, гигантская структура, состоящая из сотен белковых частей, которая контролирует всё, что проходит через клеточное ядро. Как раз тонкая структура этого ядра была раскрыта.
На видео внизу пример, как нейронка справляется с предсказаниями 🧬
@Denis
Я вот тут делал подробный пост об этой нейронке, в двух словах — это опенсорсная нейросеть, которая с точностью 90% (вплоть до атома) предсказывает исходную структуру молекулы белка, что раньше было ну очень сложно предсказать.
Так вот, новость заключается в том, что спустя год учёные опубликовали предсказанные структуры почти всех известных науке белков, с почти 1 млн. структур год назад до 200 млн (!) сейчас, там и растения, и бактерии, и животные и куча других организмов, представьте какие исследования можно проводить.
Но самое крутое это доступность всего этого, то есть все 200 с лишним миллионов структур будут доступны для загрузки через Google Cloud Public Datasets, а это открытость для всего учёного мира, я бы сказал священный грааль биологов. В прямом смысле сила ИИ, которая может спасти кучу жизней и разгадать кучу биологических тайн,
Сейчас порядка 500 000 исследователей из 190 стран получили доступ к базе данных AlphaFold с более чем 2 миллионами структур, и за такой короткий промежуток времени инструмент стал прямо необходимостью.
Как пример, недавно AlphaFold помог собрать воедино комплекс ядерной поры — это она из самых сложных головоломок в биологии, гигантская структура, состоящая из сотен белковых частей, которая контролирует всё, что проходит через клеточное ядро. Как раз тонкая структура этого ядра была раскрыта.
На видео внизу пример, как нейронка справляется с предсказаниями 🧬
@Denis
Поддерживаемые языки программирования в Meta
Meta опубликовали у себя в блоге большой разбор того, какие они используют языки для разработки, почему и как они их выбирают и как вообще принимаются такого рода решения.
🤖 Разбор
Meta опубликовали у себя в блоге большой разбор того, какие они используют языки для разработки, почему и как они их выбирают и как вообще принимаются такого рода решения.
🤖 Разбор
Engineering at Meta
Programming languages endorsed for server-side use at Meta
Supporting a programming language at Meta is a very careful and deliberate decision. We’re sharing our internal programming language guidance that helps our engineers and developers choose the best…
Бесплатные вычислительные ресурсы на исследования
Вычислительный центр Дальневосточного отделения РАН готов предоставить доступ к ресурсам высокопроизводительной системы с гибридной архитектурой NVIDIA DGX A100 для решения научных и научно-технических задач.
Из-за архитектурных особенностей системы приоритет отдается задачам, связанным с использованием методов и технологий машинного обучения, глубокого обучения и искусственного интеллекта.
В настоящее время есть возможность безвозмездного доступа к ресурсам вычислительных систем, рассматриваются варианты предоставления монопольного доступа по отдельным проектам и грантам (условия обсуждаются отдельно).
Ссылка на инструкцию для заполнения заявок
В случае вопросов и предложений можно писать на почту – support@hpc.febras.net
#этополюбви
Вычислительный центр Дальневосточного отделения РАН готов предоставить доступ к ресурсам высокопроизводительной системы с гибридной архитектурой NVIDIA DGX A100 для решения научных и научно-технических задач.
Из-за архитектурных особенностей системы приоритет отдается задачам, связанным с использованием методов и технологий машинного обучения, глубокого обучения и искусственного интеллекта.
В настоящее время есть возможность безвозмездного доступа к ресурсам вычислительных систем, рассматриваются варианты предоставления монопольного доступа по отдельным проектам и грантам (условия обсуждаются отдельно).
Ссылка на инструкцию для заполнения заявок
В случае вопросов и предложений можно писать на почту – support@hpc.febras.net
#этополюбви
Эффективное и точное обнаружение объектов для сотен необычных классов объектов
Meta AI делится новыми исследованиями по использованию визуальных трансформеров (ViT) для обнаружения объектов.
Их подход, ViTDet, превзошел предыдущие альтернативы на их собственном наборе данных Large Vocabulary Instance Segmentation (LVIS) dataset. Для победы на этом датасете, модель должна научиться распознавать гораздо более широкий спектр объектов, чем это могут сделать обычные системы компьютерного зрения.
ViTDet превосходит предыдущие модели на основе ViT в точности распознавания объектов на LVIS, в котором представлены не только стандартные предметы, такие как столы и стулья, но и кормушки для птиц, венки, пончики и многое другое (просто приглядитесь к заглавной картинке повнимательнее).
📖 статья 🤖код 😛блог-пост
Meta AI делится новыми исследованиями по использованию визуальных трансформеров (ViT) для обнаружения объектов.
Их подход, ViTDet, превзошел предыдущие альтернативы на их собственном наборе данных Large Vocabulary Instance Segmentation (LVIS) dataset. Для победы на этом датасете, модель должна научиться распознавать гораздо более широкий спектр объектов, чем это могут сделать обычные системы компьютерного зрения.
ViTDet превосходит предыдущие модели на основе ViT в точности распознавания объектов на LVIS, в котором представлены не только стандартные предметы, такие как столы и стулья, но и кормушки для птиц, венки, пончики и многое другое (просто приглядитесь к заглавной картинке повнимательнее).
📖 статья 🤖код 😛блог-пост
Влияние AlphaFold до настоящего времени
Прошло 12 месяцев после выпуска AlphaFold. Для команды DeepMind успех AlphaFold был особенно заметным.
Продемонстрировав, что ИИ может предсказать форму белка с точностью до атома за считанные минуты, AlphaFold не только обеспечил решение 50-летней задачи, но и стал первым серьезным доказательством тезиса:
искусственный интеллект может значительно ускорить научные открытия и, в свою очередь, способствовать развитию человечества.
На сегодняшний день более 500 000 исследователей из 190 стран мира получили доступ к БД AlphaFold для просмотра более 2 миллионов структур. Структуры, находящиеся в свободном доступе, также были интегрированы в другие публичные базы данных, такие как Ensembl, UniProt и OpenTargets, где миллионы пользователей получают к ним доступ в рамках своих повседневных рабочих процессов.
Таким образом, AlphaFold задал целый вектор развития NN for Science!
Ещё больше рефлексии об AlphaFold в этой заметке.
Прошло 12 месяцев после выпуска AlphaFold. Для команды DeepMind успех AlphaFold был особенно заметным.
Продемонстрировав, что ИИ может предсказать форму белка с точностью до атома за считанные минуты, AlphaFold не только обеспечил решение 50-летней задачи, но и стал первым серьезным доказательством тезиса:
искусственный интеллект может значительно ускорить научные открытия и, в свою очередь, способствовать развитию человечества.
На сегодняшний день более 500 000 исследователей из 190 стран мира получили доступ к БД AlphaFold для просмотра более 2 миллионов структур. Структуры, находящиеся в свободном доступе, также были интегрированы в другие публичные базы данных, такие как Ensembl, UniProt и OpenTargets, где миллионы пользователей получают к ним доступ в рамках своих повседневных рабочих процессов.
Таким образом, AlphaFold задал целый вектор развития NN for Science!
Ещё больше рефлексии об AlphaFold в этой заметке.
Алгоритм, выявляющий сепсис, снижает смертность почти на 20 процентов
За два года алгоритм машинного обучения предупредил тысячи медицинских работников о пациентах с высоким риском сепсиса, что позволило им начать лечение почти на два часа раньше.
Статья в Scientific American
За два года алгоритм машинного обучения предупредил тысячи медицинских работников о пациентах с высоким риском сепсиса, что позволило им начать лечение почти на два часа раньше.
Статья в Scientific American
Object Discovery and representatIon Networks (ODIN)
Self-supervised learning (все ещё не придумали хороший перевод #SSL) может выдавать хорошие описания целых сцен, но не позволяет выделить отдельные объекты. Это изменилось с выходом Odin от DeepMind.
Odin - это новый метод, который одновременно обнаруживает объекты и учится их представлять без какого-либо контроля.
Odin изучает признаки на уровне объектов с помощью контрастной цели и приблизительных масок изображений. Он обнаруживает объекты путем кластеризации этих признаков и передает полученные маски обратно в цель обучения, участвуя в непрерывном цикле представления и качества сегментации.
Наконец, Odin не требует никаких предварительных знаний о структуре объектов в реальных сценах.
📖 Статья
Self-supervised learning (все ещё не придумали хороший перевод #SSL) может выдавать хорошие описания целых сцен, но не позволяет выделить отдельные объекты. Это изменилось с выходом Odin от DeepMind.
Odin - это новый метод, который одновременно обнаруживает объекты и учится их представлять без какого-либо контроля.
Odin изучает признаки на уровне объектов с помощью контрастной цели и приблизительных масок изображений. Он обнаруживает объекты путем кластеризации этих признаков и передает полученные маски обратно в цель обучения, участвуя в непрерывном цикле представления и качества сегментации.
Наконец, Odin не требует никаких предварительных знаний о структуре объектов в реальных сценах.
📖 Статья
В «Яндекс Музыке» появилась сгенерированная алгоритмами «нейромузыка»
“Привет, это Нейромузыка. Я изучила, что вам нравится и написала вашу личную мелодию для концентрации. Готовы?». Так началось мое градиентное погружение в нейросетевую музыку от Яндекса. И хочу сказать что это огонь!
В «Нейромузыке» доступны три режима: «спокойствие», «бодрость» и «вдохновение». Новая функция доступна подписчикам «Музыки» и обладателям «Станции». Последним нужно произнести команду «Алиса, включи Нейромузыку».
И нет, это не реклама. Никто мне не платил за этот пост. Просто крутая штука!
UPD: говорят: «Она изначально генерирует не сильно интересно, но ты переключаешь лайками/дизлайками и, говорят, она от этого быстро настраивается»
“Привет, это Нейромузыка. Я изучила, что вам нравится и написала вашу личную мелодию для концентрации. Готовы?». Так началось мое градиентное погружение в нейросетевую музыку от Яндекса. И хочу сказать что это огонь!
В «Нейромузыке» доступны три режима: «спокойствие», «бодрость» и «вдохновение». Новая функция доступна подписчикам «Музыки» и обладателям «Станции». Последним нужно произнести команду «Алиса, включи Нейромузыку».
И нет, это не реклама. Никто мне не платил за этот пост. Просто крутая штука!
UPD: говорят: «Она изначально генерирует не сильно интересно, но ты переключаешь лайками/дизлайками и, говорят, она от этого быстро настраивается»
An Image is Worth One Word: Personalizing Text-to-Image Generation using Textual Inversion
Ребята из Тель Авивского Университета интересно подошли к проблеме генерации картинок из текста.
Они решили поставить задачу следующим образом: как мы можем использовать модели, управляемые языком, чтобы превратить кошку в картину или представить новый продукт на основе нашей любимой игрушки?
Используя всего 3-5 изображений какой-нибудь концепции, например, объекта или стиля, они научились представлять эту концепцию с помощью новых "слов" в пространстве эмбедингов замороженной модели "текст-изображение". Эти "слова" могут быть составлены в предложения на естественном языке.
Работа основана на общедоступных латентных диффузионных моделях.
На сайте проекта ещё несколько прикольных примеров такой генерации, а ещё понятное и подробнее описание принципов работы модели.
📖 Статья 🤖 Код (обещают soon)
Ребята из Тель Авивского Университета интересно подошли к проблеме генерации картинок из текста.
Они решили поставить задачу следующим образом: как мы можем использовать модели, управляемые языком, чтобы превратить кошку в картину или представить новый продукт на основе нашей любимой игрушки?
Используя всего 3-5 изображений какой-нибудь концепции, например, объекта или стиля, они научились представлять эту концепцию с помощью новых "слов" в пространстве эмбедингов замороженной модели "текст-изображение". Эти "слова" могут быть составлены в предложения на естественном языке.
Работа основана на общедоступных латентных диффузионных моделях.
На сайте проекта ещё несколько прикольных примеров такой генерации, а ещё понятное и подробнее описание принципов работы модели.
📖 Статья 🤖 Код (обещают soon)
⭐️ Больше никакого промпт -инженеринга! ⭐️
Вышла новая работа "Prompt-to-Prompt" - которая позволяет пользователям редактировать изображения, основываясь только на текстовых правках промпта.
Авторы проанализировали Img2Text модели, и заметили, что слои Cross Attention являются ключом к управлению связью между пространственным расположением изображения и каждым словом в промпте.
Кода пока не будет, так как проект построен на основе Imagen (который совсем не опен). Но думаю у умельцев из Stable Diffusion быстро получится реализовать этот функционал.
📖 Статья
Вышла новая работа "Prompt-to-Prompt" - которая позволяет пользователям редактировать изображения, основываясь только на текстовых правках промпта.
Авторы проанализировали Img2Text модели, и заметили, что слои Cross Attention являются ключом к управлению связью между пространственным расположением изображения и каждым словом в промпте.
Кода пока не будет, так как проект построен на основе Imagen (который совсем не опен). Но думаю у умельцев из Stable Diffusion быстро получится реализовать этот функционал.
📖 Статья
Может ли нейробиолог понять микропроцессор?
В нейронауке распространено мнение, что мы в первую очередь ограничены данными, и что получение больших, мультимодальных и сложных наборов данных приведет к фундаментальному пониманию того, как мозг обрабатывает информацию.
Таких наборов данных пока не существует, а если бы они существовали, у нас не было бы возможности оценить, являются ли выводы достаточными или даже правильными.
Авторы этой необычной статьи взяли классический микропроцессор в качестве модельного организма и провели на нем произвольные эксперименты, чтобы увидеть, могут ли популярные методы анализа данных из нейробиологии прояснить то, как микропроцессор обрабатывает информацию.
Они показали, что могут выявить интересную структуру в данных, но при этом не могут получить осмысленного описания иерархии обработки информации в микропроцессоре.
Вывод: существующие аналитические подходы в нейробиологии недостаточны для достижения значимого понимания нейросистем, независимо от объема данных.
В нейронауке распространено мнение, что мы в первую очередь ограничены данными, и что получение больших, мультимодальных и сложных наборов данных приведет к фундаментальному пониманию того, как мозг обрабатывает информацию.
Таких наборов данных пока не существует, а если бы они существовали, у нас не было бы возможности оценить, являются ли выводы достаточными или даже правильными.
Авторы этой необычной статьи взяли классический микропроцессор в качестве модельного организма и провели на нем произвольные эксперименты, чтобы увидеть, могут ли популярные методы анализа данных из нейробиологии прояснить то, как микропроцессор обрабатывает информацию.
Они показали, что могут выявить интересную структуру в данных, но при этом не могут получить осмысленного описания иерархии обработки информации в микропроцессоре.
Вывод: существующие аналитические подходы в нейробиологии недостаточны для достижения значимого понимания нейросистем, независимо от объема данных.
Оказывается моему каналу на днях исполнился 1 год.
У меня было лишь смутное представление о том как вести канал и бесконечное количество энтузиазма, что бы рассказывать о том, что мне кажется важным, интересным и просто прикольным.
Теперь, ~1 год и ~1000 постов спустя, мы сообщество на 4000+ человек и продолжаем развиваться!
Спасибо каждому из вас! Впереди нас ждёт ещё много всего увлекательного 🤩
Пишите свои пожелания и предложения по каналу в комментах!
P.S.: да, у меня наконец то появился доступ к Dall-E 2
У меня было лишь смутное представление о том как вести канал и бесконечное количество энтузиазма, что бы рассказывать о том, что мне кажется важным, интересным и просто прикольным.
Теперь, ~1 год и ~1000 постов спустя, мы сообщество на 4000+ человек и продолжаем развиваться!
Спасибо каждому из вас! Впереди нас ждёт ещё много всего увлекательного 🤩
Пишите свои пожелания и предложения по каналу в комментах!
P.S.: да, у меня наконец то появился доступ к Dall-E 2
Как можно использовать ИИ для открытий в физике?
Энергия, масса, скорость. Эти три переменные составляют знаковое уравнение Эйнштейна E=MC2. Но откуда Эйнштейн вообще узнал об этих понятиях? Прекурсором к пониманию физики является определение соответствующих переменных. Без понятия энергии, массы и скорости даже Эйнштейн не смог бы открыть относительность. Но можно ли обнаружить такие переменные автоматически?
Ученые решили использовать ИИ для поиска минимального набора фундаментальных переменных, которые полностью описывают динамику явления по его видео записи.
Исследователи начали с подачи системе необработанных видеозаписей явлений, для которых они уже знали ответ. Например, они скормили системе видеозапись качающегося двойного маятника, у которого, как известно, есть ровно четыре "переменные состояния" - угол и угловая скорость каждого из двух плеч. После нескольких часов анализа ИИ выдал ответ: 4.7.
О том какие выводы они из этого сделали читайте в блог-посте на phys.org
Энергия, масса, скорость. Эти три переменные составляют знаковое уравнение Эйнштейна E=MC2. Но откуда Эйнштейн вообще узнал об этих понятиях? Прекурсором к пониманию физики является определение соответствующих переменных. Без понятия энергии, массы и скорости даже Эйнштейн не смог бы открыть относительность. Но можно ли обнаружить такие переменные автоматически?
Ученые решили использовать ИИ для поиска минимального набора фундаментальных переменных, которые полностью описывают динамику явления по его видео записи.
Исследователи начали с подачи системе необработанных видеозаписей явлений, для которых они уже знали ответ. Например, они скормили системе видеозапись качающегося двойного маятника, у которого, как известно, есть ровно четыре "переменные состояния" - угол и угловая скорость каждого из двух плеч. После нескольких часов анализа ИИ выдал ответ: 4.7.
О том какие выводы они из этого сделали читайте в блог-посте на phys.org
This media is not supported in your browser
VIEW IN TELEGRAM
GAUDI: A Neural Architect for Immersive 3D Scene Generation
Давненько у нас тут не было новостей от Apple. А они есть.
Apple представили GAUDI, генеративную модель, которая умеет строить трехмерные сцены.
Они декомпозируют генеративную модель на два этапа:
(i) Оптимизация латентного представления 3D-полей сияния (Radiance Fields) и соответствующих поз камеры.
(ii) Обучение мощной генеративной модели на основе латентного пространства.
GAUDI позволяет генерировать 3D-сцены из различных модальностей, таких как текст или RGB-изображения.
📖 статья 🤖 код
P.S.: ну и какое это отношение имеет к науке? Присылайте свои идею как эту технологию можно было бы использовать для науки-науки :)
Давненько у нас тут не было новостей от Apple. А они есть.
Apple представили GAUDI, генеративную модель, которая умеет строить трехмерные сцены.
Они декомпозируют генеративную модель на два этапа:
(i) Оптимизация латентного представления 3D-полей сияния (Radiance Fields) и соответствующих поз камеры.
(ii) Обучение мощной генеративной модели на основе латентного пространства.
GAUDI позволяет генерировать 3D-сцены из различных модальностей, таких как текст или RGB-изображения.
📖 статья 🤖 код
P.S.: ну и какое это отношение имеет к науке? Присылайте свои идею как эту технологию можно было бы использовать для науки-науки :)
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
OWL-ViT by GoogleAI
Давно не говорили о детекции, друзья.
Гугел сделал уверенный шаг в сторону open-vocabulary detection. Это когда у модели нет набора фиксированных классов, но она умеет реагировать на текстовые запросы. Вы вводите в промпт названия нужных объектов, и модель их находит. Попробовать демку можно на хагинфейсе.
По сути, это предобученный CLIP, где к картиночному энкодеру присобачили голову для предсказания координат баундинг боксов. То есть для каждому токена, полученного из картинки, мы предсказываем координаты и эмбеддинг. Далее этот эмбеддинг сравнивает с эмбеддингом заданного имени класса, и мы получаем similarity для класса. Дополнительные головы файнтюнятся лоссом в стиле DETR. Все подробности в статье.
Внизу схема архитектуры и минимальный код для инференса.
@ai_newz
Давно не говорили о детекции, друзья.
Гугел сделал уверенный шаг в сторону open-vocabulary detection. Это когда у модели нет набора фиксированных классов, но она умеет реагировать на текстовые запросы. Вы вводите в промпт названия нужных объектов, и модель их находит. Попробовать демку можно на хагинфейсе.
По сути, это предобученный CLIP, где к картиночному энкодеру присобачили голову для предсказания координат баундинг боксов. То есть для каждому токена, полученного из картинки, мы предсказываем координаты и эмбеддинг. Далее этот эмбеддинг сравнивает с эмбеддингом заданного имени класса, и мы получаем similarity для класса. Дополнительные головы файнтюнятся лоссом в стиле DETR. Все подробности в статье.
Внизу схема архитектуры и минимальный код для инференса.
@ai_newz