MedCLIP
Позволяет осуществлять поиск по медицинским изображениям.
Поиграть можно тут 👉
Онлайн-демо
#CLIP #images #medicine #multimodal #demo
Позволяет осуществлять поиск по медицинским изображениям.
Поиграть можно тут 👉
Онлайн-демо
#CLIP #images #medicine #multimodal #demo
huggingface.co
Medical image retrieval using a CLIP model - a Hugging Face Space by kaushalya
Discover amazing ML apps made by the community
Genji - CoPilot для бедных.
Модель GPT-J (open-source версия GPT-3 от Eluther AI) затюненая на генерацию кода на Python.
Colab
Модель на Huggingface
Spaces
#code #generative #nlp #gpt
Модель GPT-J (open-source версия GPT-3 от Eluther AI) затюненая на генерацию кода на Python.
Colab
Модель на Huggingface
Spaces
#code #generative #nlp #gpt
6b.eleuther.ai
EleutherAI - text generation testing UI
EleutherAI web app testing for language models
Раз уже на то пошло. GPT-J это модель обученная сообществом EutherAI (к которому я скромно тоже немного причастен, правда больше в области генерации картинок).
Онлайн демо open-source версии GPT-3 доступно тут (с телефона работает не всегда, с компа проблем нет)
Colab
Блог-пост
Видео-разбор
#gpt #nlp #generative
Онлайн демо open-source версии GPT-3 доступно тут (с телефона работает не всегда, с компа проблем нет)
Colab
Блог-пост
Видео-разбор
#gpt #nlp #generative
#scientificml #approximation
Статья о том, как DeepMind применяют для получения *приближенного* решения NP-hard проблемы.
Статья интересна в качестве примера на первую лекцию для математиков и прогеров.
Статья о том, как DeepMind применяют для получения *приближенного* решения NP-hard проблемы.
Статья интересна в качестве примера на первую лекцию для математиков и прогеров.
Synced | AI Technology & Industry Review
DeepMind & Google Use Neural Networks to Solve Mixed Integer Programs | Synced
Linear programming is used to maximize or minimize a linear objective function subject to one or more constraints, while mixed integer programming (MIP) adds one additional condition: that at least one of the variables can only take on integer values. MIP…
AI Шеф-повар 👨🍳.
Посмотрите какая крутая штука!!! Выбираете себе повара, даёте ему ингредиенты и он генерирует рецептик и даже показывает, как блюдо будет выглядеть.
🤗 Онлайн-демо (можно играться с телефона)
#generative #images #multimodal #nlp #transformer #demo
Посмотрите какая крутая штука!!! Выбираете себе повара, даёте ему ингредиенты и он генерирует рецептик и даже показывает, как блюдо будет выглядеть.
🤗 Онлайн-демо (можно играться с телефона)
#generative #images #multimodal #nlp #transformer #demo
Huggingface 🤗 Spaces.
Spaces - это простой способ разместить демо приложение ML в интернете.
Поддерживают два замечательных SDK, которые позволяют создавать классные приложения на Python: Streamlit и Gradio.
Документация к Spaces
В настоящее время каждая среда ограничена 16 ГБ ОЗУ и 8 ядрами ЦП.
Для подписчиков hf.co Pro или Organization (план Lab или Startup), Spaces могут получить один GPU T4 на индивидуальной основе.
#demo #resources #gpu
Spaces - это простой способ разместить демо приложение ML в интернете.
Поддерживают два замечательных SDK, которые позволяют создавать классные приложения на Python: Streamlit и Gradio.
Документация к Spaces
В настоящее время каждая среда ограничена 16 ГБ ОЗУ и 8 ядрами ЦП.
Для подписчиков hf.co Pro или Organization (план Lab или Startup), Spaces могут получить один GPU T4 на индивидуальной основе.
#demo #resources #gpu
JAX - что это такое и с чем его едят?
В последнее время много новинок от Google и DeepMind выходит на JAX, вместо привычного PyTorch или TF.
JAX - это новая библиотека в мире машинного обучения (ML), которая обещает сделать программирование ML более интуитивным, структурированным и чистым.
Основная и единственная цель JAX - выполнение числовых операций в высокопроизводительной форме. Это означает, что синтаксис практически идентичен Numpy.
Одним из главных преимуществ JAX является то, что мы можем запускать одну и ту же программу без каких-либо изменений на аппаратных ускорителях, таких как GPU и TPU.
Другой важный момент - это скорость. JAX быстрее. Намного быстрее. Например перемножение двух матриц (1000,1000) в NumPy занимает ~50ms, а в JAX ~1.5ms (на GPU).
В библиотеку встроен автоград. JAX способен дифференцировать всевозможные функции python и NumPy, включая циклы, ветвления, рекурсии и многое другое.
Факторы, делающие JAX таким быстрым:
* ускоренная линейная алгебра (Accelerated Linear Algebra или XLA).
* Just in time compilation (jit) - способ выполнения компьютерного кода, который предполагает компиляцию программы - во время выполнения - а не перед выполнением.
* Репликация вычислений между устройствами с помощью pmap - еще одно преобразование, которое позволяет нам реплицировать вычисления на несколько ядер или устройств и выполнять их параллельно (p в pmap означает parallel).
И ещё много различных трюков и улучшений.
Ещё одной особенностью JAX (и возможно даже более важной чем скорость) является Pseudo-Random number generator. В отличие от NumPy или PyTorch, в JAX состояния случайности должны быть поданы пользователем в качестве аргумента (что делает JAX по умолчанию намного более воспроизводимым).
Ещё больше деталей и примеров кода
Официальный GitHub
#gpu #code #jax
В последнее время много новинок от Google и DeepMind выходит на JAX, вместо привычного PyTorch или TF.
JAX - это новая библиотека в мире машинного обучения (ML), которая обещает сделать программирование ML более интуитивным, структурированным и чистым.
Основная и единственная цель JAX - выполнение числовых операций в высокопроизводительной форме. Это означает, что синтаксис практически идентичен Numpy.
Одним из главных преимуществ JAX является то, что мы можем запускать одну и ту же программу без каких-либо изменений на аппаратных ускорителях, таких как GPU и TPU.
Другой важный момент - это скорость. JAX быстрее. Намного быстрее. Например перемножение двух матриц (1000,1000) в NumPy занимает ~50ms, а в JAX ~1.5ms (на GPU).
В библиотеку встроен автоград. JAX способен дифференцировать всевозможные функции python и NumPy, включая циклы, ветвления, рекурсии и многое другое.
Факторы, делающие JAX таким быстрым:
* ускоренная линейная алгебра (Accelerated Linear Algebra или XLA).
* Just in time compilation (jit) - способ выполнения компьютерного кода, который предполагает компиляцию программы - во время выполнения - а не перед выполнением.
* Репликация вычислений между устройствами с помощью pmap - еще одно преобразование, которое позволяет нам реплицировать вычисления на несколько ядер или устройств и выполнять их параллельно (p в pmap означает parallel).
И ещё много различных трюков и улучшений.
Ещё одной особенностью JAX (и возможно даже более важной чем скорость) является Pseudo-Random number generator. В отличие от NumPy или PyTorch, в JAX состояния случайности должны быть поданы пользователем в качестве аргумента (что делает JAX по умолчанию намного более воспроизводимым).
Ещё больше деталей и примеров кода
Официальный GitHub
#gpu #code #jax
OpenXLA Project
#resources #literature #normalization #optimizer #transformer #nlp #generative #cnn
Наверно, стоит в принципе отметить сайт https://theaisummer.com/
На сайте есть много приятных статей с очень хорошими, часто авторскими, иллюстрациями.
На мой вкус порой они делают порой плохие по качеству рассказа или материала статьи, но фактических ошибок у них не замечал. И такие статьи редки.
Потому сайт является хорошим местом, которое можно посмотреть при подготовке или перед чтением лекции.
Примеры приятных статей:
In-layer normalization techniques for training very deep neural networks
A journey into Optimization algorithms for Deep Neural Networks
Intuitive Explanation of Skip Connections in Deep Learning
How Transformers work in deep learning and NLP: an intuitive introduction
The theory behind Latent Variable Models: formulating a Variational Autoencoder
Best deep CNN architectures and their principles: from AlexNet to EfficientNet
Наверно, стоит в принципе отметить сайт https://theaisummer.com/
На сайте есть много приятных статей с очень хорошими, часто авторскими, иллюстрациями.
На мой вкус порой они делают порой плохие по качеству рассказа или материала статьи, но фактических ошибок у них не замечал. И такие статьи редки.
Потому сайт является хорошим местом, которое можно посмотреть при подготовке или перед чтением лекции.
Примеры приятных статей:
In-layer normalization techniques for training very deep neural networks
A journey into Optimization algorithms for Deep Neural Networks
Intuitive Explanation of Skip Connections in Deep Learning
How Transformers work in deep learning and NLP: an intuitive introduction
The theory behind Latent Variable Models: formulating a Variational Autoencoder
Best deep CNN architectures and their principles: from AlexNet to EfficientNet
AI Summer
AI Summer | Learn Deep Learning and Artificial Intelligence
AI Dungeon 👹
Текстовая ролевая игра типа Dungeon & Dragons, только вместо гейм-мастера человека - гейм-мастер GPT-3.
У вас есть полная свобода действий. Можно делать вообще что угодно! Игра очень захватывает, а если что-то идет не так - можно последние действия отменить или даже резетнуть GPT.
Играть тут
#nlp #game #gpt #demo
Текстовая ролевая игра типа Dungeon & Dragons, только вместо гейм-мастера человека - гейм-мастер GPT-3.
У вас есть полная свобода действий. Можно делать вообще что угодно! Игра очень захватывает, а если что-то идет не так - можно последние действия отменить или даже резетнуть GPT.
Играть тут
#nlp #game #gpt #demo
AI Для Всех pinned «Тэги доступные в канале на данный момент: #alphafold2, #astronomy, #audio, #augmentation, #automl, #bayes, #biology, #botany, #captioning, #categorical, #chemistry, #classification, #clip, #cnn, #code, #community, #competition, #compression, #conference, …»
VideoGPT: Video Generation using VQ-VAE and Transformers
Концептуально простая архитектура для масштабирования генеративного моделирования на основе правдоподобия (likelihood modeling) на естественное видео.
VideoGPT использует VQ-VAE, который выучивает латентные представления исходного видео с пониженной дискретизацией (downsampled), используя 3D-свертки и осевой self-attention.
Затем простая архитектура, типа #GPT, используется для авторегрессионного моделирования дискретных латентных представлений с помощью пространственно-временных позиционных кодировок (spatio-temporal position encodings).
Сеть способна генерировать видосы, конкурентоспособные с современными #GAN-моделями для генерации видео.
ArXiv
Проект
Colab
#video #generative
Концептуально простая архитектура для масштабирования генеративного моделирования на основе правдоподобия (likelihood modeling) на естественное видео.
VideoGPT использует VQ-VAE, который выучивает латентные представления исходного видео с пониженной дискретизацией (downsampled), используя 3D-свертки и осевой self-attention.
Затем простая архитектура, типа #GPT, используется для авторегрессионного моделирования дискретных латентных представлений с помощью пространственно-временных позиционных кодировок (spatio-temporal position encodings).
Сеть способна генерировать видосы, конкурентоспособные с современными #GAN-моделями для генерации видео.
ArXiv
Проект
Colab
#video #generative
Статья про предсказание энергии молекулы нейросетью.
В принципе - работает. Зачем нужно - в молдинамике часть расчетов опирается на энергию, которую и пытается предсказать нейросеть. Предсказания можно засовывать вместо времязатратных алгоритмов и за счет этого ускорять работу молдинамики.
У нейросети очень простая архитектура - предобработанные признаки кормятся в многослойный персептрон. Единственная выгода по сравнению с обычным бустингом - можно дообучить на интересующий вас класс веществ.
Почему-то авторы до сих пор не пытаются делать GNN - учитывая простоту действа, по-видимому, что-то тривиальное из графовых нейронок не работает лучше. Вполне возможно, ибо признаки хитроватые и придуманные не из головы, а на основе подходов до этого.
Статья
#ScientificML #chemistry #MLP
В принципе - работает. Зачем нужно - в молдинамике часть расчетов опирается на энергию, которую и пытается предсказать нейросеть. Предсказания можно засовывать вместо времязатратных алгоритмов и за счет этого ускорять работу молдинамики.
У нейросети очень простая архитектура - предобработанные признаки кормятся в многослойный персептрон. Единственная выгода по сравнению с обычным бустингом - можно дообучить на интересующий вас класс веществ.
Почему-то авторы до сих пор не пытаются делать GNN - учитывая простоту действа, по-видимому, что-то тривиальное из графовых нейронок не работает лучше. Вполне возможно, ибо признаки хитроватые и придуманные не из головы, а на основе подходов до этого.
Статья
#ScientificML #chemistry #MLP
ACS Publications
TorchANI: A Free and Open Source PyTorch-Based Deep Learning Implementation of the ANI Neural Network Potentials
This paper presents TorchANI, a PyTorch-based program for training/inference of ANI (ANAKIN-ME) deep learning models to obtain potential energy surfaces and other physical properties of molecular systems. ANI is an accurate neural network potential originally…
Evaluating CLIP: Towards Characterization of Broader Capabilities and Downstream Implications
В новой статье OpenAI анализирует #CLIP. CLIP снижает потребность в обучающих данных для конкретной задачи, что потенциально открывает многие нишевые задачи для автоматизации. CLIP также позволяет пользователям гибко задавать классы классификации изображений на естественном языке, что, как выяснили авторы, может изменить характер проявления баесов.
Результаты дополняют растущее число работ, призывающих изменить понятие "лучшей" модели - перейти от простого определения более высокой точности, к более широкому понятию "лучше", которое учитывает критически важные особенности инференса, такие как различные контексты использования и людей, которые взаимодействуют с моделью.
Статья
#generative #multimodal #images #nlp
В новой статье OpenAI анализирует #CLIP. CLIP снижает потребность в обучающих данных для конкретной задачи, что потенциально открывает многие нишевые задачи для автоматизации. CLIP также позволяет пользователям гибко задавать классы классификации изображений на естественном языке, что, как выяснили авторы, может изменить характер проявления баесов.
Результаты дополняют растущее число работ, призывающих изменить понятие "лучшей" модели - перейти от простого определения более высокой точности, к более широкому понятию "лучше", которое учитывает критически важные особенности инференса, такие как различные контексты использования и людей, которые взаимодействуют с моделью.
Статья
#generative #multimodal #images #nlp
ILVR: Conditioning Method for Denoising Diffusion Probabilistic Models.
Диффузионно-вероятностные модели (DDPM) показали замечательную производительность при отменном в качестве генерации изображений. Однако из-за стохастичности процесса генерации в DDPM сложно генерировать изображения с желаемой семантикой.
В данной работе предлагается итеративное уточнение латентных переменных (ILVR) - метод, позволяющий направлять генеративный процесс для создания высококачественных изображений на основе заданного эталонного изображения. Это улучшение позволяет одному DDPM выбирать изображения из различных наборов, определяемых эталонном.
Управляемость метода позволяет адаптировать DDPM без дополнительного обучения к различным задачам генерации изображений, таким как генерация с различными коэффициентами понижения дискретизации (downsampling), перевод изображений в несколько областей, раскраска изображения и редактирование с помощью каракулей.
Статья
#generative #diffusion #images
Диффузионно-вероятностные модели (DDPM) показали замечательную производительность при отменном в качестве генерации изображений. Однако из-за стохастичности процесса генерации в DDPM сложно генерировать изображения с желаемой семантикой.
В данной работе предлагается итеративное уточнение латентных переменных (ILVR) - метод, позволяющий направлять генеративный процесс для создания высококачественных изображений на основе заданного эталонного изображения. Это улучшение позволяет одному DDPM выбирать изображения из различных наборов, определяемых эталонном.
Управляемость метода позволяет адаптировать DDPM без дополнительного обучения к различным задачам генерации изображений, таким как генерация с различными коэффициентами понижения дискретизации (downsampling), перевод изображений в несколько областей, раскраска изображения и редактирование с помощью каракулей.
Статья
#generative #diffusion #images
Интерактивная книга Deep Learning for Molecules and Materials.
Глубокое обучение становится стандартным инструментом в химии и материаловедении. Классический пример - соединение активности и структуры молекулы. Недавний пример - значительное ускорение квантовых расчетов до такой степени, что вы можете достичь точности уровня DFT с помощью быстрого дифференцируемого расчета. Что делает глубокое обучение особенно актуальным, так это его способность генерировать новые данные.
В Веб-книге куча интерактивных примеров с кодом для различных задач.
#ScientificML #books #chemistry #resources
Глубокое обучение становится стандартным инструментом в химии и материаловедении. Классический пример - соединение активности и структуры молекулы. Недавний пример - значительное ускорение квантовых расчетов до такой степени, что вы можете достичь точности уровня DFT с помощью быстрого дифференцируемого расчета. Что делает глубокое обучение особенно актуальным, так это его способность генерировать новые данные.
В Веб-книге куча интерактивных примеров с кодом для различных задач.
#ScientificML #books #chemistry #resources
MolGpka: A Web Server for Small Molecule pKa Prediction Using a Graph-Convolutional Neural Network
Точная и быстрая оценка pKa малых молекул жизненно важна в процессе поиска лекарств. Авторы представляют MolGpKa, веб-сервер для предсказания pKa с помощью граф-конволюционной нейросетевой модели.
Модель работает путем автоматического изучения химических паттернов, связанных с pKa, и построения надежных предикторов с использованием изученных характеристик.
UPDATE
В то время как как возможный пример применения статья подходит, сама по себе она сделана максимально халтурно.
Самое главное - предсказываются не сами pKa, а pKa, которые уже ПРЕДСКАЗАНЫ. Ибо экспериментальных данных мало, ага.
Валидируются они на экспериментальных датасетах, где, внезапно, показывают качество похожее на качество уже известных методов предсказания pKa (не правда ли - удивительно(( ).
При этом разбиение на train и test оставляет вопросы. Они пишут, что удалили вещества, которые есть в тесте из датасета. Но удалили ли они вещества, отличающиеся на один незначимый заместитель? Из их текста это не следует, построенные гистограммы расстояний ввеществ из экспериментального датасета до обучения неинформативны - их никак не отнормировали на тот факт, что есть огромное число веществ, которые непохожи на тест.
В итоге хвост распределения - сколько похожих - не видно. А хватит и по одному на каждое вещество из теста.
Эта работа позволяет получить дифференцируемое предсказание, казалось бы. Но на вход-то нейросеть принимает описание, которое составляется детерминированным алгоритмом, который еще и исходную структуру модифицирует пуутем удаления части фрагментов.
Потому приделать эту нейросеть в качестве дискриминатора для случая, когда вы хотите генерить вещества с заданным pKa тоже не получится.
Статья
Веб-Сервер
#ScientificML #chemistry #graphs
Точная и быстрая оценка pKa малых молекул жизненно важна в процессе поиска лекарств. Авторы представляют MolGpKa, веб-сервер для предсказания pKa с помощью граф-конволюционной нейросетевой модели.
Модель работает путем автоматического изучения химических паттернов, связанных с pKa, и построения надежных предикторов с использованием изученных характеристик.
UPDATE
В то время как как возможный пример применения статья подходит, сама по себе она сделана максимально халтурно.
Самое главное - предсказываются не сами pKa, а pKa, которые уже ПРЕДСКАЗАНЫ. Ибо экспериментальных данных мало, ага.
Валидируются они на экспериментальных датасетах, где, внезапно, показывают качество похожее на качество уже известных методов предсказания pKa (не правда ли - удивительно(( ).
При этом разбиение на train и test оставляет вопросы. Они пишут, что удалили вещества, которые есть в тесте из датасета. Но удалили ли они вещества, отличающиеся на один незначимый заместитель? Из их текста это не следует, построенные гистограммы расстояний ввеществ из экспериментального датасета до обучения неинформативны - их никак не отнормировали на тот факт, что есть огромное число веществ, которые непохожи на тест.
В итоге хвост распределения - сколько похожих - не видно. А хватит и по одному на каждое вещество из теста.
Эта работа позволяет получить дифференцируемое предсказание, казалось бы. Но на вход-то нейросеть принимает описание, которое составляется детерминированным алгоритмом, который еще и исходную структуру модифицирует пуутем удаления части фрагментов.
Потому приделать эту нейросеть в качестве дискриминатора для случая, когда вы хотите генерить вещества с заданным pKa тоже не получится.
Статья
Веб-Сервер
#ScientificML #chemistry #graphs
ACS Publications
MolGpka: A Web Server for Small Molecule pKa Prediction Using a Graph-Convolutional Neural Network
pKa is an important property in the lead optimization process since the charge state of a molecule in physiologic pH plays a critical role in its biological activity, solubility, membrane permeability, metabolism, and toxicity. Accurate and fast estimation…
Датасет мировой смертности
World Mortality Dataset содержит еженедельные, ежемесячные или ежеквартальные данные о смертности от всех причин из 103 стран и территорий. Он содержит данные о смертности от всех причин на уровне стран в 2015-2021 годах, собранные из различных источников.
Датасет
#ScientificML #social #datasets
World Mortality Dataset содержит еженедельные, ежемесячные или ежеквартальные данные о смертности от всех причин из 103 стран и территорий. Он содержит данные о смертности от всех причин на уровне стран в 2015-2021 годах, собранные из различных источников.
Датасет
#ScientificML #social #datasets
STanford EArthquake Dataset (STEAD): A Global Data Set of Seismic Signals for AI
Сейсмология - это наука, богатая данными. Применение машинного обучения для добычи новых знаний из сейсмических данных является быстро развивающейся подобластью сейсмологии. Доступность большого количества сейсмических данных и вычислительных ресурсов, а также развитие передовых методов могут способствовать созданию более надежных моделей и алгоритмов для обработки и анализа сейсмических сигналов.
Набор данных в его нынешнем состоянии содержит две категории: (1) сигналы локальных землетрясений (записанные на "местных" расстояниях в пределах 350 км от землетрясений) и (2) сигналы сейсмического шума, не содержащие сигналов землетрясений. Вместе эти данные составляют ~1,2 миллиона временных рядов (time series) или более 19 000 часов записей сейсмических сигналов.
Статья
Датасет
#ScientificML #earthscience #datasets
Сейсмология - это наука, богатая данными. Применение машинного обучения для добычи новых знаний из сейсмических данных является быстро развивающейся подобластью сейсмологии. Доступность большого количества сейсмических данных и вычислительных ресурсов, а также развитие передовых методов могут способствовать созданию более надежных моделей и алгоритмов для обработки и анализа сейсмических сигналов.
Набор данных в его нынешнем состоянии содержит две категории: (1) сигналы локальных землетрясений (записанные на "местных" расстояниях в пределах 350 км от землетрясений) и (2) сигналы сейсмического шума, не содержащие сигналов землетрясений. Вместе эти данные составляют ~1,2 миллиона временных рядов (time series) или более 19 000 часов записей сейсмических сигналов.
Статья
Датасет
#ScientificML #earthscience #datasets