Data Secrets
78.8K subscribers
6.42K photos
667 videos
20 files
2.71K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Google такие: «Нечестно, OpenAI специально сделали свою презентацию за день до нашей»
Также Google: опенсорсят конкурента Gradio прямо в день выхода новой версии

Gradio – это тулза для билда ML-приложений из ноутбуков или из проекта. Новый Mesop от Google – в точности то же самое. Даже лендинг похож на игру «найди 10 отличий».

Тем не менее, достойно внимания: гитхаб
32🤨11🕊6👍3💘2
Найден идеальный стул для программирования на… чем?

❤️ - PyTorch
👍 - TensorFlow
🔥- JAX
179👍117🔥58🙈123😁3
Forwarded from XOR
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Китайцы создали свой аналог SORA — Kling.

Что известно:

🟢Может снимать видео до двух минут с разрешением 1080p и 30 кадров в секунду. В Sora до одной минуты.

🟢Open Access

🟢Но воспользоваться пока нельзя

🟢Зато можно встать в лист ожидания. Так как сначала выпустят тест для небольшого количества пользователей

🟢Правда встать в лист ожидания сложно: нужно скачать китайское приложение «快影» и зарегистрироваться на китайский номер телефона. Что делаем? Учим язык?

@xor_journal
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥27😁136👍5🕊1🌭1
Vision-LSTM – новая фундаментальная CV-модель на основе xLSTM

Да, надстройки над xLSTM не заставили себя долго ждать. Vision-LSTM (ViL), в первую очередь, удивила всех скоростью. Модель быстрее, чем Vision-Mamba (тоже sequential модель) даже без ядр CUDA.

Под капотом: двунаправленные mLSTM блоки, которые обрабывают patch-токены изображения. При этом, в отличие от Vision-Mamba, где каждый блок обрабатывает последовательность сразу в двух направлениях, здесь направления чередуются между четными и нечетными блоками. За счет этого и скорость.

По метрикам на ImageNet1K тоже лучше, чем Vision-Mamba. Однако, как говорят сами авторы, так как оптимизированной реализации для xLSTM пока нет, для больших моделей все еще лучше подходит ViT (трансформер).

Выглядит многообещающе. Советуем прочитать статью полностью здесь. А еще авторы выложили код.
👍2710🔥10
Вау! Событие из красной книги: у OpenAI вышла статья с открытым кодом

В числе авторов Илья Суцкевер, и, как вы возможно уже поняли, статья про интерпретируемость. Подход идейно повторяет недавнюю работу Anthropic. Ресерчеры OpenAI также используют разреженный автоэнкодер и с помощью него выделяют в поведении модели "фичи" - интерпретируемые паттерны активаций (о них можно думать, как о темах).

Утверждается, однако, что заявленный подход масштабируется лучше, чем остальные существующие. Из GPT-4 удалось достать 16 миллионов фичей. Есть клевая визуализация. В опенсорсе показали подход на примере GPT-2.

Про управление фичами (в отличие от Anthropic) пока ничего особенного, оставляют на дальнейшие исследования.
26👍18🔥13
А что, просто пихать везде нейросети нельзя?
😁17636👍144
Apple решили, что теперь AI – это не Artificial Intelligence, а Apple Intelligence.

Да, именно так они назвали свою новую SIRI. Общество на такой гениальный ребрендинг отреагировало незамедлительно, и Интернет уже полон шуток – мы отобрали лучшие.

Новую систему AI в iOS 18 компания представит на конференции WWDC 2024, то есть через несколько дней.
😁8321🔥92👍2🤪1
А что мы, хуже Apple? Давайте тоже придумаем свою расшифровку AI.

Пиши идеи в комментарии 👇
Please open Telegram to view this post
VIEW IN TELEGRAM
👍29🔥103🗿2
Раньше ученые предсказывали, на сколько нам хватит нефти. Теперь просчитывают, на сколько хватит данных

Спойлер: данные кончатся быстрее, чем нефть. По крайней мере, так говорит новый отчет Epoch AI. Данные из интернета, как они сообщили, истощатся уже к 2028.

Какие у нас есть выходы:

⚪️Мультимодальные данные, например видео или музыка.

⚪️Синтетические данные. Однако тут есть очевидная проблема с качеством.

⚪️ Соцсети. Тут непонятно, что делать с конфиденциальностью.

Вообще, там целая статья на arXiv с обсуждениями и выводами. Отличное чтиво на выходные.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍467🔥6😁3
Amazon, возможно, тайно предоставляла российским силовым структурам доступ к технологии распознавания лиц

Об этом сообщает бывший сотрудник компании Чарльз Форрест, которого уволили якобы из-за невыполнения трудовых обязанностей. Сам же Чарльз утверждает, что был уволен из-за того, что пытался повлиять на политику компании в отношении России.

В своем иске он заявил, что после начала конфликта на Украине Amazon, вопреки санкциям Великобритании, продолжал предоставлять России доступ к Amazon Rekognition через подставную компанию в Нидерландах.

Amazon отвергает обвинения, утверждая, что они необоснованы и будут оспорены в суде.
😁61🤪22🔥7🤯6😎5🤔32👍2
Любое обновление ОС и железа последний год:
😁15415🔥1071
Audio
Мы тут нагенерировали для вас треков про ML в новом Suno

Для тех, кто сегодня отдыхает – бодрая версия.
Audio
Для тех, кто работает – не расстраивайтесь, для вас плаксивая лирическая.

Новая версия действительно приятно удивила. Послушайте и оцените сами. Тексты оставим в комментариях.

Кстати, вы тоже можете погенерить: в Suno доступно достаточное количество фри кредитов
🔥25👍86
А вы читали "Понедельник начинается в субботу"?

Это повесть братьев Стругацких 1965 года – о программисте, который попал в сказочную реальность. Вообще, книга считается фантастической. Хотя, в 2024 так кажется все меньше...

Как думаете, они что-то знали?
😁91🔥43👍24🤯96❤‍🔥1🤪1
Андрей Карпаты выложил 4-часовое видео о том, как воспроизвести GPT-2 с нуля на Python

4 часа??? Да, видео начинается с пустого файла, и вы своими глазами видите, как из него рождается LLM, при этом Андрей подробно объясняет каждый шаг (вот у кого точно выходные прошли продуктивно).

В комплекте не только написание самой архитектуры, но и оптимизация кода, и настройка гиперпараметров, и оценка метрик. Ну вы поняли, маствотч.

Кстати, Карпаты – вообще большой любитель образовательного контента. Вот другие лекции и имплементации от ученого:

➡️ Лекция «Введение в большие языковые модели»
➡️ Код GPT-2 на чистом C
➡️ Большая лекция про токенизацию в LLM и реализация BPE с нуля
➡️ Лекция про обучение ChatGPT
➡️ Лекция-интервью про будущее ИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥171👍2417115🤯2🦄1
Современные LLM не могут решить простейшую детскую загадку

Об этом рассказали немецкие ученые из Юлиха в статье "Alice in Wonderland: Simple Tasks Showing Complete Reasoning Breakdown in State-Of-the-Art Large Language Models".

Alice in Wonderland – это название той самой загадки. Она звучит так: "У Алисы есть N братьев, а также M сестер. Сколько сестер у брата Алисы?". Правильный ответ прост, но большинство протестированных в статье LLM (включая GPT-3.5/4, Claude, Gemini, LLaMA, Mistral) с загадкой не справляются.

Исследователи даже попробали давать моделям подсказки, задавать вопрос в другой вариации, просили их "подумать еще раз" и применяли прочие промпт-фокусы, но ничего не улучшило ситуацию. Даже когда модель случайно давала правильный ответ, она не могла нормально его объяснить.

Основной вывод статьи: нам нужны новые бенчмарки. Существующие ризонинг тесты (MMLU, ARC, Hellaswag и др) не отражают реальных способностей модели к рассуждению и, более того, завышают их.

Ян Лекун прокомментировал исследование так: "Это лишь еще одно доказательство, что здравый смысл и интеллект не следует путать со способностью хранить и приблизительно восстанавливать информацию."
🔥103👍3915😁5🤝2