This media is not supported in your browser
VIEW IN TELEGRAM
Роботы Unitree в подтанцовке, где-то в Китае. Через два года везде. Вроде прикольно, но всё-равно криповато как-то :)
This media is not supported in your browser
VIEW IN TELEGRAM
>2017, нейрослоп с психоделическими картинками
>2019, нейрослоп с продолжениями стишков
>2022, нейрослоп который умеет чатиться
>2023, шестипальцевый нейрослоп
>2024, нейрослоп который только двигает пиксели
>2025, консистентный 10-секундный нейрослоп со звуком в 1К
>ВЫ ЗДЕСЬ
>2026, консистентный 30-секундный нейрослоп с голливудскими актерами
>2027, нейрослоп, стримищийся на Нетфликсе
>2028, трехчасовой нейрослоп, взявший оскар
>2029, диснеевская нейрослоповая киновселенная с супергероями, которых играют умершие актеры
>2030, 5 432 авторские нейрослоповые версии Драйвера, где Гослинг не умер разными способами
>2031, 17 847 авторских нейрослоповых версий ГТА 7
>2030-е, нейрослоповые сериалы/кино/игры/порно с вашим собственным участием в главной роли
>2040-е, нейрослоповая сингулярность, во вселенной больше не существует не нейрослопа
>2019, нейрослоп с продолжениями стишков
>2022, нейрослоп который умеет чатиться
>2023, шестипальцевый нейрослоп
>2024, нейрослоп который только двигает пиксели
>2025, консистентный 10-секундный нейрослоп со звуком в 1К
>ВЫ ЗДЕСЬ
>2026, консистентный 30-секундный нейрослоп с голливудскими актерами
>2027, нейрослоп, стримищийся на Нетфликсе
>2028, трехчасовой нейрослоп, взявший оскар
>2029, диснеевская нейрослоповая киновселенная с супергероями, которых играют умершие актеры
>2030, 5 432 авторские нейрослоповые версии Драйвера, где Гослинг не умер разными способами
>2031, 17 847 авторских нейрослоповых версий ГТА 7
>2030-е, нейрослоповые сериалы/кино/игры/порно с вашим собственным участием в главной роли
>2040-е, нейрослоповая сингулярность, во вселенной больше не существует не нейрослопа
💯3👍1
Теперь у нас есть послойная генерация картинок, как в Фотошопе
Команда Qwen (Alibaba Cloud) выпустила по-настоящему революционную модель Qwen-Image-Layered, которая полностью меняет подход к генерации и редактированию изображений. Главная фишка модели кроется в концепции «Inherent Editability» (врожденная редактируемость): нейросеть больше не создает просто «плоскую» картинку, где все пиксели склеены намертво. Вместо этого она генерирует изображение сразу как набор независимых RGBA-слоев, наподобие того, как это устроено в профессиональных проектах Photoshop. Это означает, что каждый объект, персонаж или элемент фона изначально отделен от остальных, имеет прозрачность и, что самое важное, является полностью автономным.
Технологически это гигантский скачок по сравнению с привычными инструментами вроде Segment Anything Model (SAM). Если SAM просто создает маску (выделяет объект), оставляя на его месте «дырку» или артефакты, то Qwen-Image-Layered генерирует полноценные слои с восстановленным фоном. Нейросеть «дорисовывает» то, что находится за объектом, даже если на оригинальном изображении этого не было видно. Благодаря этому вы можете спокойно передвинуть персонажа, удалить его или изменить размер, и за ним окажется чистый, логичный фон, а не пустота. Это решает главную боль дизайнеров и редакторов, избавляя от необходимости вручную замазывать удаленные области.
Еще одной киллер-фичей стала рекурсивная декомпозиция. Модель не ограничивается фиксированным набором слоев (обычно от 3 до 8), она позволяет углубляться в детализацию практически бесконечно. Вы можете выделить любой уже сгенерированный слой и попросить нейросеть разложить его на составляющие подслои. Это дает невероятный контроль: можно начать с разделения «персонаж — фон», затем разложить персонажа на «тело — одежда — аксессуары», а затем редактировать каждый элемент отдельно, меняя цвета, текстуры или форму без влияния на соседние пиксели.
Модель построена на архитектуре Qwen2.5-VL и распространяется под максимально открытой лицензией Apache 2.0, что делает ее доступной для коммерческого использования и интеграции. Разработчики уже выложили веса на Hugging Face и ModelScope, а также предоставили поддержку в ComfyUI, что моментально делает инструмент готовым для профессиональных пайплайнов. По сути, Qwen-Image-Layered превращает процесс генерации изображений из лотереи в управляемое инженерное творчество, где структура становится важнее простого набора пикселей.
Наконец-то это сделали!
Поиграться
Команда Qwen (Alibaba Cloud) выпустила по-настоящему революционную модель Qwen-Image-Layered, которая полностью меняет подход к генерации и редактированию изображений. Главная фишка модели кроется в концепции «Inherent Editability» (врожденная редактируемость): нейросеть больше не создает просто «плоскую» картинку, где все пиксели склеены намертво. Вместо этого она генерирует изображение сразу как набор независимых RGBA-слоев, наподобие того, как это устроено в профессиональных проектах Photoshop. Это означает, что каждый объект, персонаж или элемент фона изначально отделен от остальных, имеет прозрачность и, что самое важное, является полностью автономным.
Технологически это гигантский скачок по сравнению с привычными инструментами вроде Segment Anything Model (SAM). Если SAM просто создает маску (выделяет объект), оставляя на его месте «дырку» или артефакты, то Qwen-Image-Layered генерирует полноценные слои с восстановленным фоном. Нейросеть «дорисовывает» то, что находится за объектом, даже если на оригинальном изображении этого не было видно. Благодаря этому вы можете спокойно передвинуть персонажа, удалить его или изменить размер, и за ним окажется чистый, логичный фон, а не пустота. Это решает главную боль дизайнеров и редакторов, избавляя от необходимости вручную замазывать удаленные области.
Еще одной киллер-фичей стала рекурсивная декомпозиция. Модель не ограничивается фиксированным набором слоев (обычно от 3 до 8), она позволяет углубляться в детализацию практически бесконечно. Вы можете выделить любой уже сгенерированный слой и попросить нейросеть разложить его на составляющие подслои. Это дает невероятный контроль: можно начать с разделения «персонаж — фон», затем разложить персонажа на «тело — одежда — аксессуары», а затем редактировать каждый элемент отдельно, меняя цвета, текстуры или форму без влияния на соседние пиксели.
Модель построена на архитектуре Qwen2.5-VL и распространяется под максимально открытой лицензией Apache 2.0, что делает ее доступной для коммерческого использования и интеграции. Разработчики уже выложили веса на Hugging Face и ModelScope, а также предоставили поддержку в ComfyUI, что моментально делает инструмент готовым для профессиональных пайплайнов. По сути, Qwen-Image-Layered превращает процесс генерации изображений из лотереи в управляемое инженерное творчество, где структура становится важнее простого набора пикселей.
Наконец-то это сделали!
Поиграться
huggingface.co
Qwen Image Layered - a Hugging Face Space by Qwen
This app lets you upload a picture (and optionally add a short text prompt) and then splits the picture into several separate layer images. You can view the layers in a gallery and download them al...
🔥2
Forwarded from ArtGourieff
Собрал недавно рабочую схему для Комфи (доступна на civitai) для увеличения изображений вышедшей почти месяц назад столь нашумевшей моделькой Z-Image Turbo (она же Зима, Зетка, Зитка). В схеме ничего сверхъестественного нет, постарался сделать её сбалансированной под данную задачу, и результат в целом радует 👌
По детализации Зетка при апскейле немного уступает Флаксу первому, но проблема апскейла Флаксом в том, что Флакс даже при небольшом денойзе стремится поменять черты лица🙂
Зетка лишена этого недостатка и поэтому вполне годится именно для целей апскейла в высокое разрешение📸
Пример выше — результат увеличения с 4.3МП до 17.1МП (3392x5056, файл в полном размере оставлю в 💬)
Не спрашивайте, почему Сейлор Мун 🤷♂️ так вышло, что выбрал для демо случайно попавшуюся картинку, сделанную когда-то ранее в Imagen3 (любопытно было, как справится Imagen с отрисовкой в оригинальном стиле героини мультсериала 90-х, справилась на все💯 ), прогнал картинку в Nano 🍌 чтобы перевести в реализм и далее увеличил Зеткой, детализация получилась 🔥
Ещё каких-то пару лет назад я бы не поверил, что так рисует нейросеть🤖
На самом деле мой внутренний фотограф обеспокоен такой тенденцией, ведь может получится так, что когда-то (надеюсь, что нет) придётся ещё и доказывать, что это ты и именно сам что-то сфотографировал/нарисовал/написал/сочинил, а не сгенерировал с помощью нейронки 🤖 Казалось бы, и то и другое это есть творчество, только "кисти" разные — но разница всё же есть. И чем "умнее" становятся нейросети, тем больше эта разница проявляется. Но это, пожалуй, другая тема, на которую можно порассуждать в одном из следующих постов 📝
#модели #картинки #полезное
@artgourieff
По детализации Зетка при апскейле немного уступает Флаксу первому, но проблема апскейла Флаксом в том, что Флакс даже при небольшом денойзе стремится поменять черты лица
Зетка лишена этого недостатка и поэтому вполне годится именно для целей апскейла в высокое разрешение
Пример выше — результат увеличения с 4.3МП до 17.1МП (3392x5056, файл в полном размере оставлю в 💬)
Не спрашивайте, почему Сейлор Мун 🤷♂️ так вышло, что выбрал для демо случайно попавшуюся картинку, сделанную когда-то ранее в Imagen3 (любопытно было, как справится Imagen с отрисовкой в оригинальном стиле героини мультсериала 90-х, справилась на все
Ещё каких-то пару лет назад я бы не поверил, что так рисует нейросеть
На самом деле мой внутренний фотограф обеспокоен такой тенденцией, ведь может получится так, что когда-то (надеюсь, что нет) придётся ещё и доказывать, что это ты и именно сам что-то сфотографировал/нарисовал/написал/сочинил, а не сгенерировал с помощью нейронки 🤖 Казалось бы, и то и другое это есть творчество, только "кисти" разные — но разница всё же есть. И чем "умнее" становятся нейросети, тем больше эта разница проявляется. Но это, пожалуй, другая тема, на которую можно порассуждать в одном из следующих постов 📝
#модели #картинки #полезное
@artgourieff
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3🔥2
Media is too big
VIEW IN TELEGRAM
Всё ещё уверен, что через 5 лет нас ждут фильмы, сгенерированные по запросу. Просто отвечаешь на 5 вопросов и через 20 минут у тебя фильм с твоими любимыми актёрами с интересным сюжетом.
А рекап очень классный.
А рекап очень классный.
У нас революция в локальных моделях и она угрожает трансформерам
В мире нейросетей произошло событие, которое, возможно, станет поворотным моментом для всей индустрии. Команда Liquid AI выпустила экспериментальную модель LFM2-2.6B, и она показывает удивительные результаты. Главное здесь даже не сухие цифры бенчмарков, хотя они впечатляют, а то, что находится «под капотом». Это первая за долгое время серьезная архитектура, которая бросает успешный вызов привычным трансформерам, на которых построены все известные нам GPT, Gemini, Grok, Claude, Qwen, Deepseek etc.
Суть технологического прорыва кроется в невероятной эффективности. В отличие от стандартных моделей, которым требуется экспоненциально больше памяти с каждым новым словом контекста, архитектура Liquid AI использует динамическую память с почти константным потреблением ресурсов. Это означает, что обработка огромного документа на десятки тысяч токенов потребует практически столько же оперативной памяти, сколько и чтение короткой заметки. Для сферы, привыкшей сжигать гигабайты видеопамяти ради длинного контекста, это звучит как очень элегантное инженерное решение.
На практике эта «малютка» весом всего в 2.6 миллиарда параметров в тестах обходит куда более тяжелых конкурентов вроде Llama 3.2 или Phi-3.5. Разумеется, она не заменит флагманские модели в решении сложнейших задач, но для запуска умных локальных ассистентов на обычных ноутбуках или даже телефонах это практически идеальный кандидат.
Мы наблюдаем важный сдвиг от простого наращивания грубой вычислительной силы в сторону поиска более умных, биологически-инспирированных алгоритмов.
В мире нейросетей произошло событие, которое, возможно, станет поворотным моментом для всей индустрии. Команда Liquid AI выпустила экспериментальную модель LFM2-2.6B, и она показывает удивительные результаты. Главное здесь даже не сухие цифры бенчмарков, хотя они впечатляют, а то, что находится «под капотом». Это первая за долгое время серьезная архитектура, которая бросает успешный вызов привычным трансформерам, на которых построены все известные нам GPT, Gemini, Grok, Claude, Qwen, Deepseek etc.
Суть технологического прорыва кроется в невероятной эффективности. В отличие от стандартных моделей, которым требуется экспоненциально больше памяти с каждым новым словом контекста, архитектура Liquid AI использует динамическую память с почти константным потреблением ресурсов. Это означает, что обработка огромного документа на десятки тысяч токенов потребует практически столько же оперативной памяти, сколько и чтение короткой заметки. Для сферы, привыкшей сжигать гигабайты видеопамяти ради длинного контекста, это звучит как очень элегантное инженерное решение.
На практике эта «малютка» весом всего в 2.6 миллиарда параметров в тестах обходит куда более тяжелых конкурентов вроде Llama 3.2 или Phi-3.5. Разумеется, она не заменит флагманские модели в решении сложнейших задач, но для запуска умных локальных ассистентов на обычных ноутбуках или даже телефонах это практически идеальный кандидат.
Мы наблюдаем важный сдвиг от простого наращивания грубой вычислительной силы в сторону поиска более умных, биологически-инспирированных алгоритмов.
🔥2
современные нейросети 🤝 старые мемы
🔥2
Мда, Хигсфилд по ходу решил выстрелить себе в ногу. Я не то, чтобы пользовался им, но теперь точно не буду.
https://t.me/strangedalle/1386
https://t.me/strangedalle/1386
Telegram
Ai molodca
Хиггсфилд и Рождественский Гринч: что известно.
Пока вы готовили оливье, Higgsfield готовил массовые баны. Подписчик @generatio_ai в Threads провел расследование, плюс вы накидали в комментарии — получается интересно.
Официальная версия: виноваты посредники…
Пока вы готовили оливье, Higgsfield готовил массовые баны. Подписчик @generatio_ai в Threads провел расследование, плюс вы накидали в комментарии — получается интересно.
Официальная версия: виноваты посредники…
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Вы все начались с этого
Ребята из MIT опубликовали видео момента оплодотворения яйцеклетки. Сразу после проникновения сперматозоида внутрь нее, по ее мембране начинают распространяться вихреобразные волны.
Ребята из MIT опубликовали видео момента оплодотворения яйцеклетки. Сразу после проникновения сперматозоида внутрь нее, по ее мембране начинают распространяться вихреобразные волны.
🔥2
Всех с наступающим!
Лично у меня есть цель на следующий год и состоит она в релизе MVP текстовой геометрической модели. Работа уже кипит, ну а результаты по ней будут выкладываться, в первую очередь, здесь.
Подробности будут на новогодних каникулах :)
Лично у меня есть цель на следующий год и состоит она в релизе MVP текстовой геометрической модели. Работа уже кипит, ну а результаты по ней будут выкладываться, в первую очередь, здесь.
Подробности будут на новогодних каникулах :)
🔥2
У ChatGPT в эти дни появилась активная функция «Ваш год». Открывается через плюсик, там где роутер моделей. И на удивление...
Это довольно интересная штука. Если вы общались на протяжении года с моделькой плюс-минус также часто, как я, то попросите её дать не обычную статистику вашего общения, а что-то более глубокое. Например, психологическую характеристику, указать на слабые или сильные стороны. И она сделает это пугающе точно. Это может как вдохновить, так иоскорбить указать на точки роста :)
Это довольно интересная штука. Если вы общались на протяжении года с моделькой плюс-минус также часто, как я, то попросите её дать не обычную статистику вашего общения, а что-то более глубокое. Например, психологическую характеристику, указать на слабые или сильные стороны. И она сделает это пугающе точно. Это может как вдохновить, так и
Forwarded from Алексей Колпиков
Сейчас уже хер поймёшь, кто куда чего. У кого-то контекст (GPT), у кого-то качество (Banana), у кого-то богатая стилистика (всё ещё MJ), кто-то точнее с антуражем (Reve), кто-то быстрее (Grok), кто-то дешевле (Qwen). И всё стремительно меняется. Вчерашний король MJ (ещё осенью все на нём сидели) вполне может вернуться, ка вот внезапно Gemini, а потом Reve и GPT c Грёком себе отвоевали обратно свои куски. Нейрогенеративный мир очень пока сложный, крайне насыщенный, и главное - тут не будет конкурентной гонки по правилам. Тут будут все против всех. И никто никогда никого не съест. Ибо такая широкая и длинная дорожка. Любой может забежать, подсожрать своего ништяка и увильнуть вовремя. И стопиццот других будут бежать, отставать, догонять… Дорожку эту обильно маслицем помыли. Там нет финишной ленты.
💯3❤1
This media is not supported in your browser
VIEW IN TELEGRAM
В крайней версии Хиггсфилда появился инструмент AI Relight, который позволяет менять направление света, его цвет и мягкость в видео.
Наконец-то можно будет посмотреть «Ранетки» в цветокоре Виндинга Рёфна.
Наконец-то можно будет посмотреть «Ранетки» в цветокоре Виндинга Рёфна.
🔥2😁1
Forwarded from Neural Shit
Наткнулся на интересную статью. Это буквально самый тупой (и одновременно гениальный) промпт-хак.
Исследователи из Google Research выяснили, что если нейронка тупит, не надо придумывать сложные цепочки рассуждений или молиться духам машины. Нужно просто повторить промпт два раза подряд. Буквально CTRL+C —> CTRL+V.
Почему? Почти все современные LLM читают слева направо. Токены в начале промпта "не видят" токенов в конце. А когда вы дублируете запрос, вторая копия промпта через механизм внимания может смотреть на первую копию целиком. Получается, что модель сразу видит весь контекст и лучше понимает задачу.
Протестили на Gemini, GPT-4o, Claude 3 и DeepSeek. По цифрам из статьи:
— Метод победил в 47 из 70 тестов (0 поражений, остальные — ничья).
— В задачах на поиск инфы в тексте точность взлетала с убогих 21% до 97%!
— Время генерации не растет
И да, работает это только на моделях с выключенным режимом размышлений, ибо модели в reasoning режиме сами повторяют себе запрос в процессе.
Промпт-инжиниринг, который мы заслужили
тут статья
Исследователи из Google Research выяснили, что если нейронка тупит, не надо придумывать сложные цепочки рассуждений или молиться духам машины. Нужно просто повторить промпт два раза подряд. Буквально CTRL+C —> CTRL+V.
Почему? Почти все современные LLM читают слева направо. Токены в начале промпта "не видят" токенов в конце. А когда вы дублируете запрос, вторая копия промпта через механизм внимания может смотреть на первую копию целиком. Получается, что модель сразу видит весь контекст и лучше понимает задачу.
Протестили на Gemini, GPT-4o, Claude 3 и DeepSeek. По цифрам из статьи:
— Метод победил в 47 из 70 тестов (0 поражений, остальные — ничья).
— В задачах на поиск инфы в тексте точность взлетала с убогих 21% до 97%!
— Время генерации не растет
И да, работает это только на моделях с выключенным режимом размышлений, ибо модели в reasoning режиме сами повторяют себе запрос в процессе.
Промпт-инжиниринг, который мы заслужили
тут статья
arXiv.org
Prompt Repetition Improves Non-Reasoning LLMs
When not using reasoning, repeating the input prompt improves performance for popular models (Gemini, GPT, Claude, and Deepseek) without increasing the number of generated tokens or latency.
🔥1