AI Для Всех
12.2K subscribers
1.04K photos
130 videos
10 files
1.32K links
Канал, в котором мы говорим про искусственный интеллект простыми словами

Главный редактор и по рекламе: @crimeacs

Иногда пишут в канал: @GingerSpacetail, @innovationitsme
Download Telegram
What Do We Maximize in Self-Supervised Learning?

Вышла статья за авторством в том числе Лекуна, в которой рассуждают о том что такое self-supervised learning (#SSL) и почему оно работает.

В статье рассматриваются методы SSL обучения, в частности VICReg. Делают следующее:
1. Демонстрируют, как SSL можно сделать для детерминированной сети, предлагая возможную альтернативу предыдущим работам, которые полагаются на стохастические модели.

2. Это позволяет авторам нам продемонстрировать, как VICReg может быть (пере)обнаружен из первых принципов и его предположений о распределении данных.

3. Эмпирически демонстрируют обоснованность своих предположений, подтверждая понимание VICReg.

4. Постулируют что их метод может быть обобщен на многие другие методы SSL, открывая новые пути для теоретического и практического понимания SSL и transfer learning.

Другое дело, что пусть сначала продемонстрируют, а там и поговорим :)

Статья

(1) Изображение сгенерировано проектом Simulacra

(
2) За наводку спасибо @j_links
Почему древовидные модели все еще превосходят глубокое обучение на табличных данных?

Нейросети не очень хорошо умеют в табличные данные.

Авторы статьи провели тестирование стандартных и новых методов глубокого обучения, а также моделей на основе деревьев, таких как XGBoost и Random Forests, на большом количестве наборов данных и комбинаций гиперпараметров. Они определили стандартный набор из 45 наборов данных из различных областей с четкими характеристиками табличных данных и методологию бенчмаркинга, учитывающую как подгонку моделей, так и поиск хороших гиперпараметров.

Результаты показывают, что модели на основе деревьев работают лучше на данных среднего размера (∼10K выборок) даже без учета их скорости.

Авторы задают вопрос - почему так? Чем деревья лучше нейронок? И сами же на него отвечают. NN для таблиц должны стать:

1. Более устойчивыми к неинформативным признакам,
2. сохранять ориентацию данных и
3. Более способными легко обучаться нерегулярным функциям.

📖Статья
Generative AI

Последние месяцы на поляне Generative AI праздник за праздником.

Начнём с генерации картинок.

Пока OpenAI со своим DALLE-2 медленно распиаривался, под боком возник быстрорастущий офигенный сервис Midjourney, забивший на сайт, API и всё такое, и предоставивший доступ к своим моделям через бота в Discord. Midjourney очень правильно начал работать с коммьюнити, набрал популярность и вышел в законодатели мод на этом рынке.

В отличие от OpenAI, Midjourney не требовал исключительных прав на все творения, оставляя все права пользователю и беря себе лицензию на их использование. Midjourney также разрешил коммерческое использование творений. У них есть пара оговорок касающихся бесплатного плана, а также компаний с выручкой больше $1M, но это всё очень reasonable. Оно у них, конечно, менялось и уточнялось по ходу дела, но явно было более либерально в отличие от terms OpenAI, где всё их, только private use, и всё такое.

И это кстати отдельный интересный вопрос этического плана — нормально ли, что система, обученная на результатах труда множества людей, присваивает весь производный результат себе, включая кстати и труд других людей по придумыванию правильных prompt'ов и селекции результатов. Где тот современный Маркс, который напишет Капитал 2.0?

Midjourney на днях вышел из закрытой беты в открытую https://www.facebook.com/intentoco/photos/a.1093842744008324/5486357671423454/) и OpenAI вынужден был последовать той же дорогой -- сразу прекратили играть в тщательно фильтруемые инвайты и тоже вышли в public beta, а также изменили terms на более коммерчески пригодные (https://www.facebook.com/intentoco/photos/a.1093842744008324/5493404720718749/).

Если бы не Midjourney, уверен, OpenAI бы ещё полгода свою илитность эксплуатировали. Конкуренция -- это прекрасно. И это только начало.

Также из области генерации картинок недавно широко разошлась новость (https://www.facebook.com/story.php?story_fbid=pfbid035HKtaMKL9ibTW2BH66cMecbCvj7RCXusf7w5yGkFP9xVHpg64Y4BcYCmv4Ea7x7Fl&id=4) про мартовскую работу Make-A-Scene (https://arxiv.org/abs/2203.13131), где при генерации картинки дополнительно к тексту можно давать эскиз с семантической маской. Это позволяет точно контролировать где на картинке что должно быть. В каком-то смысле это продолжение истории с аналогичным графическим редактором от Nvidia.

В генерации текстов тоже большое достижение -- опубликована модель BLOOM (https://www.facebook.com/intentoco/posts/pfbid02TEHE1sQYf78pXu9ZWEXcbfJ1DfZKQrCVSnB5PFEntSSQRFJW98CCSevGegWYCib2l) проекта BigScience и HuggingFace. Модель полностью открытая, на 176B параметров, мультиязычная с поддержкой 46 человеческих и 13 программистских языков.

Кстати, OpenAI Codex вроде ещё в private beta, инвайты как-то продолжают раздавать, мне даже с месяц назад прислали. Но зато можно попробовать построенный на нём GitHub Copilot (https://github.com/features/copilot/). А также в июне вышел Amazon CodeWhisperer (https://aws.amazon.com/blogs/machine-learning/introducing-amazon-codewhisperer-the-ml-powered-coding-companion/). Интересно, насколько BLOOM здесь будет хорош.

По части мультиязычности большое достижение — это публикация модели NLLB-200, способной переводить напрямую между 200 языками (https://www.facebook.com/intentoco/photos/a.1093842744008324/5452925358100019/).

Также сравнительно недавно Яндекс выпустил в опенсорс свою YaLM на 100B параметров (https://www.facebook.com/intentoco/posts/pfbid02MNduVaBTRv2ZnBgjEiWyuSst7zFnpRbXxcDXQ5oKWENtFmNdvvx8JFkshwgxgmEul), на тот момент самую большую опенсорсную GPT-like модель.

А ещё до этого Гугл выложил в опенсорс (https://www.facebook.com/intentoco/photos/a.1093842744008324/5409287722463783/) свой Switch Transformer на 1.6T параметров (https://t.me/gonzo_ML/472).

В общем, поляна расцветает буйным цветом. Bessemer Venture Partners недавно опубликовали хороший пост про то, что generative AI — это новая платформенная революция (https://www.bvp.com/atlas/is-ai-generation-the-next-platform-shift).
Awesome self-supervised learning

С увеличением количества немаркированных данных в Интернете, появляется множество преимуществ в разработке методов, которые позволяют нам использовать немаркированные данные. Self-supervised learning (#SSL) - один из таких методов.

Нашёл хороший репозиторий, в котором собраны статьи, блоги и доклады по SSL.
Сыграем в игру

Промпт для Dall-E 2 или реальное фото? Чур не гуглить. Ответы в комменты
У ребят из Сберлоги очень часто бывают интересные онлайн-семинары по data science и биоинформатике: я тут как-то уже писала об одном из выступлений. И в этот четверг у них будет очередной интересный доклад о применении нейронок в генетике.

Тема: «DeepCT: Cell type-specific interpretation of noncoding variants using deep learning methods»
Спикеры: М. Синдеева и Н. Чеканов (Институт искусственного интеллекта AIRI)
Время: 28.07, четверг, 18:00 МСК

Анонс:
В последнее время все большую популярность приобретают ML-подходы, способные предсказать эпигенетические свойства клеток на основе последовательности ДНК. Новейшие модели Google и университета Стэндфорда, опубликованные за последний год, показывают высокую точность и могут использоваться для предсказания эффектов геномных вариантов некодирующих последовательностей ДНК. Однако эти подходы не могут обобщать предсказания по типам клеток, и применяются только к тем клеткам, в которых данные уже были получены экспериментально. Мы поговорим о новом подходе к задаче предсказания эпигенетических изменений, который позволяет выучить сложные зависимости между несколькими эпигенетическими характеристиками и предсказать их для любого входа, одновременно с этим выучив биологически значимые векторные представления типов клеток.

Ссылка на зум будет доступна на канале: @sberlogabig перед началом доклада. Там же можно найти записи предыдущих выступлений, и следить за анонсами будущих семинаров.
Курс "Нейронные сети и их применение в научных исследованиях" (весна 2022) выложен в открытый доступ

Этой весной, я читал в МГУ свой собственный курс, теперь он полностью в открытом доступе под лицензией CC0.

В настоящее время, одним из самых перспективных методов машинного обучения считается глубокое обучение (нейронные сети). За последние несколько лет глубокое обучение нашло применение практически во всех областях науки, от биологии и физики до лингвистики и философии.

Этот курс из 12 лекций даст студентам высокоуровневый обзор современных методов искусственного интеллекта и их применения в различных научных областях. Изучив курс, студенты смогут разобраться, что возможно в настоящее время и что, вероятно, будет возможно в ближайшем будущем.

🎥 Смотреть курс тут

Буду признателен за максимальное распространение, я потратил много времени и усилий и мне будет очень приятно, если курс увидит как можно больше людей!
Рубрика Ночные беседы

Кто уже смотрел мой курс, расскажите что думаете? Можно хвалить и критиковать
Если у вас есть огроменный tar архив используйте флаг -P для его разархивации за разумное время.

Почему? Читайте в этой заметке
Forwarded from Neural Shit
А вот это нереально круто ❤️!

Персонажи Южного парка на максималках.

Сгенерированно в midjourney.

(не моё, нашел в твитторе)
Улучшаем результаты Dall-E

С помощью DALL-E 2 можно создавать очень крутые AI-изображения, а с помощью 12 бесплатных инструментов можно сделать их намного лучше.

Коротенькая заметка для тех, кто хочет сделать крутоту
Моя новая статья: Seismoacoustic Study of Thunder and Lightning Using the AlpArray

Совсем не про машинное обучение, но зато моя собственная :)

Слышали поговорку «Гром гремит - земля трясётся»?

Ну так вот, мы (с командой Венского университета) решили изучить а правда ли трясётся, и если да, то как именно и насколько сильно.

Следите за руками:
Мы взяли датчики, которые измеряют землетрясения ->
разложили их по всей Австрии ->
подождали пока рядом с каждым из них случится гроза ->
посмотрели, а не трясёт ли гроза землю ->
оказалось, что трясёт ->
изучили данные внимательнее ->
оказалось, что то насколько сильно гром трясёт землю, хорошо коррелирует с силой тока в молнии.

Вывод: чем громче гром, тем большая сила тока была у молнии ⚡️

📖
Статья
Forwarded from Denis Sexy IT 🤖
Уже целый год прошел с тех пор, как мы с вами живём в мире, где есть AlphaFold, и даже если вы не знаете что это, AlphaFold знает о нас всех гораздо больше.

Я вот тут делал подробный пост об этой нейронке, в двух словах — это опенсорсная нейросеть, которая с точностью 90% (вплоть до атома) предсказывает исходную структуру молекулы белка, что раньше было ну очень сложно предсказать.

Так вот, новость заключается в том, что спустя год учёные опубликовали предсказанные структуры почти всех известных науке белков, с почти 1 млн. структур год назад до 200 млн (!) сейчас, там и растения, и бактерии, и животные и куча других организмов, представьте какие исследования можно проводить.

Но самое крутое это доступность всего этого, то есть все 200 с лишним миллионов структур будут доступны для загрузки через Google Cloud Public Datasets, а это открытость для всего учёного мира, я бы сказал священный грааль биологов. В прямом смысле сила ИИ, которая может спасти кучу жизней и разгадать кучу биологических тайн, и создать новые угрозы всему живому.

Сейчас порядка 500 000 исследователей из 190 стран получили доступ к базе данных AlphaFold с более чем 2 миллионами структур, и за такой короткий промежуток времени инструмент стал прямо необходимостью.

Как пример, недавно AlphaFold помог собрать воедино комплекс ядерной поры — это она из самых сложных головоломок в биологии, гигантская структура, состоящая из сотен белковых частей, которая контролирует всё, что проходит через клеточное ядро. Как раз тонкая структура этого ядра была раскрыта.

На видео внизу пример, как нейронка справляется с предсказаниями 🧬

@Denis
Поддерживаемые языки программирования в Meta

Meta опубликовали у себя в блоге большой разбор того, какие они используют языки для разработки, почему и как они их выбирают и как вообще принимаются такого рода решения.

🤖 Разбор
Бесплатные вычислительные ресурсы на исследования

Вычислительный центр Дальневосточного отделения РАН готов предоставить доступ к ресурсам высокопроизводительной системы с гибридной архитектурой NVIDIA DGX A100 для решения научных и научно-технических задач.

Из-за архитектурных особенностей системы приоритет отдается задачам, связанным с использованием методов и технологий машинного обучения, глубокого обучения и искусственного интеллекта.

В настоящее время есть возможность безвозмездного доступа к ресурсам вычислительных систем, рассматриваются варианты предоставления монопольного доступа по отдельным проектам и грантам (условия обсуждаются отдельно).

Ссылка на инструкцию для заполнения заявок
В случае вопросов и предложений можно писать на почту – support@hpc.febras.net

#этополюбви
Ребятушки, покидайте каналы на YouTube на которые вы залипаете?
Эффективное и точное обнаружение объектов для сотен необычных классов объектов

Meta AI делится новыми исследованиями по использованию визуальных трансформеров (ViT) для обнаружения объектов.

Их подход, ViTDet, превзошел предыдущие альтернативы на их собственном наборе данных Large Vocabulary Instance Segmentation (LVIS) dataset. Для победы на этом датасете, модель должна научиться распознавать гораздо более широкий спектр объектов, чем это могут сделать обычные системы компьютерного зрения.

ViTDet превосходит предыдущие модели на основе ViT в точности распознавания объектов на LVIS, в котором представлены не только стандартные предметы, такие как столы и стулья, но и кормушки для птиц, венки, пончики и многое другое (просто приглядитесь к заглавной картинке повнимательнее).

📖 статья 🤖код 😛блог-пост
Влияние AlphaFold до настоящего времени

Прошло 12 месяцев после выпуска AlphaFold. Для команды DeepMind успех AlphaFold был особенно заметным.

Продемонстрировав, что ИИ может предсказать форму белка с точностью до атома за считанные минуты, AlphaFold не только обеспечил решение 50-летней задачи, но и стал первым серьезным доказательством тезиса:

искусственный интеллект может значительно ускорить научные открытия и, в свою очередь, способствовать развитию человечества.

На сегодняшний день более 500 000 исследователей из 190 стран мира получили доступ к БД AlphaFold для просмотра более 2 миллионов структур. Структуры, находящиеся в свободном доступе, также были интегрированы в другие публичные базы данных, такие как Ensembl, UniProt и OpenTargets, где миллионы пользователей получают к ним доступ в рамках своих повседневных рабочих процессов.

Таким образом, AlphaFold задал целый вектор развития NN for Science!

Ещё больше рефлексии об AlphaFold в этой заметке.
Алгоритм, выявляющий сепсис, снижает смертность почти на 20 процентов

За два года алгоритм машинного обучения предупредил тысячи медицинских работников о пациентах с высоким риском сепсиса, что позволило им начать лечение почти на два часа раньше.

Статья в Scientific American
Object Discovery and representatIon Networks (ODIN)

Self-supervised learning (все ещё не придумали хороший перевод #SSL) может выдавать хорошие описания целых сцен, но не позволяет выделить отдельные объекты. Это изменилось с выходом Odin от DeepMind.

Odin - это новый метод, который одновременно обнаруживает объекты и учится их представлять без какого-либо контроля.

Odin изучает признаки на уровне объектов с помощью контрастной цели и приблизительных масок изображений. Он обнаруживает объекты путем кластеризации этих признаков и передает полученные маски обратно в цель обучения, участвуя в непрерывном цикле представления и качества сегментации.

Наконец, Odin не требует никаких предварительных знаний о структуре объектов в реальных сценах.

📖 Статья