Эпсилон
7.54K subscribers
254 photos
487 videos
39 files
609 links
▪️Компьютерная безопасность
▪️Программирование
▪️Взломы и уязвимости
▪️Хакинг
▪️Способы заработка в сети
▪️Полезные ссылки и лайфхаки
▪️Игры и GameDev
▪️Компьютерная графика

Чат и обсуждение: @hack_cpp

Связь: @physicist_i
Download Telegram
👾 Есть ли emergent properties у LLM?

Emergent properties или возникающиие свойства — новые способности нейросети к решению новых задач, возникающие без заведомо заложенных данных во время обучения. У языковых моделей emergent properties обычно связываются с промпт инжинирингом и способностью легко подстраиваться под новые сложные задачи, например, машинный перевод или игру в шахматы, после модели на большом корпусе. Впервые свойства были замечены в статье GPT-2, где описаны способности моделей решать совершенно новые задачи при наличии нескольких примеров в затравке (few-shot learning, in-context learning).

🟣Но существуют ли emergent properties вообще?
Вполне возможно, что нет. Может быть, в огромных веб-корпусах уже были все возможные форматы задач, и этого совершенно достаточно, чтобы никаких обобщений навыков от нейросети не требовалось вообще? С какого процента качества на задаче, размера нейросети и объема данных вообще проводить границу и считать, что новое свойство "возникло"?

🟣Аргументы против
— Разговоры во многом напоминают 17 век, когда считалось, мухи на мясе "самозарождались". Эмерджентностью в нейронауках и эволюционной психологии иногда объясняют возникновение языка и даже сознания, но фальсифицировать это, конечно, затруднительно. Чего не скажешь о нейросетях! Многое можно смоделировать и проверить.
— Работа "Searching for Needles in a Haystack" на примере задаич машинного перевода и PaLM наглядно показала, что если тщательно профильтровать корпус и удалить все примеры параллельного переовода из данных, а затем повторить обучение модели, то способность к машинному переводу значительно ухудшается.
— Насколько сильное влияние на конечный результат оказывают few-shot (примеры в затравках) и instruction tuning базовых моделей? Эксперименты с их исключением показывают, что именно few-shot примеры и in-context learning вносят основной вклад в итоговое качество на новых задачах. Instruction tuning не оказывает такого существенного влияния, а только улучшает уже имевшиеся ранее у моделей способности.
— Работа "Data Distributional Properties Drive Emergent In-Context Learning in Transformers" показывает, что обобщение у языковых моделей хорошо работает на уровне токенов, не увиденных при обучении, но способность не подтверждается для новых последовательностей, т.е. новых формулировок задач.
— Многие заявленные примеры из работы "Sparks of Artificial General Intelligence" сообществу не удалось воспрозвести от слова совсем.

🟣Аргументы за
— С момента выхода первых крупных языковых моделей было заявлено 137 emergent properties для разных архитектур: GPT-3, PaLM, Chinchilla, бенчмарк BigBench... от игры в шахматы до пословиц на суахили — языковые модели показывали способности к обобщению на новых тематиках, областях знаний, языках, задачах.
— Многие заявленные emergent properties завязаны не только на работу с затравками: это и способности к факт-чекингу (Gopher 7B), и ризонинг (PaLM, LaMDa), и построение индекса информации (T5) — чего нельзя объяснить запоминанием примеров изобучения.
— Нестабильность качества объясняется воспроизведением распределения самих людей — кто-то отвечает лучше, кто-то хуже, в зависимости от подготовки и мотивации.
#nlp #про_nlp #nlp_papers #ai_alignment #ИИ #AI #машинное_обучение #искусственный_интеллект

🔵 Эпсилон
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🤔1👨‍💻1
Media is too big
VIEW IN TELEGRAM
🖥 Sora AI — долгожданный инструмент от OpenAI. Анонсировалось, что эта нейросеть представит новый уровень генерации видео и создания контента. Самые главные ожидания — реалистичность и качество. Заявляется, что главное отличие Sora AI от других генераторов видео заключается в её подходе к созданию контента. Вместо генерации видео по кадрам, как это делают другие модели, Sora использует диффузионную модель, которая формирует видеоролик целиком. Это позволяет сохранить связность сюжета и целостность объектов, избегая искажений или некорректного воспроизведения деталей.

Плюсы:
▪️ Реалистичные видео: качество до 1080p и длина до 20 сек (в подписке Pro).
▪️ Универсальность: Работает с текстом, изображениями и видео.
▪️ Точность деталей: Минимизирует деформацию объектов, характерную для аналогичных моделей.
▪️ Быстрая генерация.
▪️ Создание видео в режиме раскадровки.

Минусы:
▪️ Проблемы с доступом: Доступна Sora не во всех регионах. Первую неделю из-за повышенного интереса невозможно было создать аккаунт.
▪️ Стоимость: Подписка Plus крайне ограничена в возможностях. Более полноценная стоит 200$ в месяц.

А пробовали ли наши подписчики создавать свои нейросети с генерацией видео? Расскажите об этом в комментариях.

#AI #искусственный_интеллект #нейронные_сети #машинное_обучение #artifical_intelligent

🔵 Эпсилон // @epsilon_h
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍3🔥2😱1