Нейронутые | ИИ (Егор Апполонов)
13.6K subscribers
1.19K photos
286 videos
1 file
345 links
Я — Егор Апполонов, эксперт по ии-видео. Победитель 3 международных конкурсов ии-фильмов. Связь @egorevna

Портфолио: https://egorappolonov.ru/ и @aigencydigital

Курс по ии-видео: https://aifilm.online/

РКН https://clck.ru/3NNPKh
Download Telegram
«Инсульт жизни» или страх перед технологиями?

Хаяо Миядзаки, гений анимации, назвал буквально вчера искусство, созданное ИИ, «оскорблением жизни». Дело было так: сотрудники студии пришли к маэстро и сказали: уважаемый сенсей, а почему мы не используем ИИ в работе? Ответ Миядзаки резонирует как эхо из прошлого:

«Я никогда не включу эту технологию в свою работу».

Окей, мастер, мы услышали. Но давайте разберемся. В одном углу ринга — Миядзаки, человек, который создал легендарные миры, полные души и деталей. В другом — ИИ, инструмент, который может генерировать целые миры за считанные минуты. Да, «обезличенные» работы пугают тех, кто привык к человеческому прикосновению. Но разве эволюция искусства всегда была гладкой?

Помните, как все негодовали, когда фотография «убила» живопись, или когда синтезаторы заменили оркестры? ИИ — это не конец искусства. Это новый инструмент. Настоящие художники не боятся кистей, которые они еще не держали в руках.

Так что, вместо того чтобы предсказывать конец времен, может, стоит дать этому инструменту шанс? Или бояться, что машины не только заменят художников, но и обнажат их настоящие страхи — потерю уникальности?

Давайте будем честны: нытье про «ИИ заменит нас всех» — это больше похоже на страх тех, кто не хочет учиться новому. Всегда проще кричать «катастрофа!», чем признать, что, может быть, дело не в ИИ, а в твоем упорном нежелании развиваться. Кто боится, что ИИ заберет работу? Те, кто давно перестал делать что-то действительно стоящее.

И да, Миядзаки не в счет — он свою гениальность уже доказал.

ИИ — это инструмент, а не враг. Настоящие профессионалы всегда найдут способ использовать его себе на пользу. Если ты мастер своего дела, ни одна нейросеть тебя не заменит. А если тебя можно заменить алгоритмом, то, возможно, стоит задуматься: проблема ли это технологий, или это ты сам превратился в шаблон?

Кстати, ИИ вполне неплохо справляется с копированием стиля Миядзаки. А мой самый любимый проект из тех, что я делал в стиле Миядзаки — «Унесенные ежиками».
👍17👎3💩3
Google наконец-то обновила NotebookLM, и теперь это чудо поддерживает русский язык (спойлер — подкасты на русском делать сервис пока так и не научился).

Зачем это нужно?

1. Сокращаем YouTube-видео до понятного конспекта. Загружаете ссылку и получаете конспект.

2. Встроенный чат-бот отвечает на ваши вопросы по контенту как эксперт. Нейронка работает на максималках.

Для доступа нужно… Ну сами знаете что. Три буквы. Иначе скажет «Ваша страна не поддерживается».

Итак, запускаем, тестим, кайфуем.
👍9🔥4
Большое обновление Kling: немного плюшек под конец года

KOLOРS 1.5: Новый уровень генерации изображений. Максимальная точность к описанию и еще более реалистичные визуалы.

AI Model: Создавайте качественные AI-модели по текстовым подсказкам. Замените дорогие фотосессии простыми текстами.

Kling AI 1.5: Наконец появился профессиональный режим (HD-качество) создания 10-секундных видео с функцией End Frame — идеально для эффектных переходов и фокусировки на продукте.

Голоса + Эмоции: добавлено 2 новых профессиональных голоса и 7 эмоций.
👍4
Собственно, вот что выдает Kolops 1.5

Промт: A cute baby girl with big eyes wearing sunglasses, walking in garden of pear trees the Gucci brand's new spring collection show at Paris Fashion Week. She is dressed in an emerald green silk dress and carrying a small Chanel bag. Her hair is styled in long, wavy red curls. High-quality photography. showing her full body
👍10👎1
Ну и тот же промт. Крупный план — Midjourney, общий выдал Flux.
👍10👎1
Media is too big
VIEW IN TELEGRAM
Последнее видео от меня в этом году. Пока жду GTA 6, решил сделать свой трейлер с геймплеем. Цель ролика — получить максимум контроля над Sora. Я понял, как с ней работать так, чтобы она не выдавала дичь (хотя инструмент, объективно говоря, все же еще сырой). И однако же - все автомобильные сцены сделал в Sora (и много других).

Ну и еще: я конечно же перевернул римскую шестерку: потому что ровно это там и написано AI. Vice City стал AICE city - они как будто для меня там все подготовили.

Музыка оригинальная. 4К версия — по этой ссылке.
👍13🔥8
Внимание: мертвый интернет теперь официально под управлением Цукерберга.

Ну что, думали, что видели все? Ошиблись. Meta начала запускать профили пользователей, полностью сгенерированных нейронками. Да, теперь у вас в ленте не только тетя Галя с ее бесконечными фотками борща, но и «официальные» ИИ-шные эксперты по собакам, многодетные мамы и фанаты крафтового хендмейда, созданные ради того, чтобы забить ваши ленты контентом.

И тут — хоба — это не просто фейковые аккаунты, это «запатентованные» ИИ-профили от самой Meta. В биографии пишут, что эта сущность — швея, мама и собачница, а контент, соответственно, весь про шитье, детей и собачьи хвосты. И даже в личку этому персонажу написать можно — и он ответит. Скучаете по человеческому общению? Ну, поздравляем, теперь вам его заменит робот.

Что это вообще такое?

1 Контент от людей больше не тянет. Meta решила, что кожаные сами уже не справляются с производством инфопотока. Видимо, каждый из нас недостаточно активен для алгоритмов.

2. Теория мертвого интернета живее всех живых. Теперь мы официально не знаем, кто нам пишет, кто выкладывает сторис и кто ставит лайки. А может, это давно не мы?

3. Ваши «френды» — это код. Вечернее обсуждение «какая собака лучше — бигль или корги» теперь с алгоритмом, а не с реальным человеком.

И главное: смеялись над теорией мертвого интернета? Теперь официально можно перестать. Потому что живые постепенно выходят из чата, а Цукерберг просто добивает последние остатки человечности в сети. «Собачники и мать пятерых детей» теперь будет вести вас к будущему, где все мы живем в сети, созданной для ИИ, а не для людей.

Ну что, кому в друзья запрос отправлять: многодетной мамаше или собачнице?

p.s. Напомню, что МЕТА (и все ее производные) признана экстремистской организацией в РФ.
🤣9👍6🙈2
Помните, я наехал на Sora и сказал, что это очень серой релиз. Частично беру свои слова обратно. Sora оказалась не такой уж бесполезной. Да, инструмент все еще сырой, но я заставил себя углубиться, сидел с сорой сутки напролет, изучил вдоль и поперек, и что-то щелкнуло. Полноценное видео, сделанное ТОЛЬКО в Sora, доказало мне, что если знать подход, результат может быть достойным. Вот что я понял:

Преимущества:

1. Датасет. Видео получаются живыми и динамичными, так бы фиксировала события камера на плече оператора, который реально там был.

2. Контроль. Да, он есть. Пока не супергибкий, но выжать что-то стоящее все же можно. Немного терпения — и начинается магия.

3. Киношный лук. Картинка и главное — движение камеры — круто. Выглядит так, будто видео снял амбициозный выпускник киношколы, а не сгенерировал ИИ. И да — в зависимости от промта, камера будет вести себя совершенно по-разному. Тут как раз ОЧЕНЬ нужны знания работы с камерой и операторский бэкграунд (режиссерский тоже будет крутым плюсом), чтобы точно сказать нейросети, что ты хочешь видеть на выходе.

Недостатки:

Физика? Какая физика? Объекты могут вести себя так, как будто законы природы давно отменили. Не ждите идеального следования вашему промту. Плавание и легкая атлетика — если хотите повеселить друзей, то, да, вам сюда.

Понимание промта. Пока Sora на 100% не делает того, что просишь. Иногда чувствуешь себя в диалоге с капризным (а может даже и туповатым) художником, который типа лучше знает, что тебе нужно.

Резюмирую: я понял, как работать с этим инструментом. Sora — это как сложная камера: если не знаешь, куда нажимать, получишь мыло. Если научишься управлять — открываются совершенно новые горизонты.

Так что от своих первых впечатлений частично откатываюсь назад. Sora не идеальна, но уже сейчас может удивлять. А если ее еще доведут, кто знает — может, станет новым эталоном.

Ну и вишенка на торте: сделать такое видео, как в примере ниже можно будет лишь при подписке $200 в месяц (напомню, что в конце декабря Альтман дал всем — совершенно правильный маркетинговый ход — безлимитные генерации до середины января). Для примера ниже я сделал порядка 200-300 видео (много брака, тестов и тд).

При подписке $20 в месяц вы сможете сгенерить 5-6 видео в месяц. Поэтому Sora играет на территории корпораций, рекламных агентств, видеопродакншов и тех, кто профессионально занимается ИИ-видео. Любителям с таким дорогим инструментом будет работать просто нерентабельно.

В следующем посте видео, которое я целиком сделал в Sora (принципиально работал в формате text-to-video и не давал на ввод ни одного изображения, сгенеренного в сторонних ИИ)
👍6🔥2
Media is too big
VIEW IN TELEGRAM
100% Sora, text-to-video.

Начнем 2025-й год бодренько
🔥22🤣1
ИИ в Fable решил, что он — новый критик New York Times, только с резкостью токсичного комментатора.

Вместо дружелюбных итогов года, пользователи книжного сервиса получили высмеивание за свой выбор книг. И это не милое «читали меньше в этом году?», а настоящий шквал треша: расистские комментарии, вопросы в духе «когда ты последний раз думал, как белый мужчина?» и даже насмешки над ориентацией.

Fable, вдохновившись трендом Spotify Wrapped, хотели, видимо, сделать весело. А сделали скандал. Сначала ИИ обидел кучу людей, потом компанию заставили извиняться с дрожащими руками, после чего, естественно, отключили функцию.

Ну разве не очевидно, что такая штука должна была пройти тестирование?

Проблема тут не в ИИ, а в его хозяевах, которые думали, что можно просто накидать API OpenAI, подождать пару дней и все полетит. Нет, ребята, это как оставить ребенка за рулем Tesla (без автопилота). Пока Fable собирает осколки репутации, пользователи удаляют аккаунты и смеются в соцсетях. Корпорация мечты порадовала мемами, но потеряла доверие.

Мораль проста: если ваш ИИ оскорбляет клиентов, это не просто «неприятный баг», это провал на всех уровнях. Хотите быть модными и использовать ИИ? Учитесь, как это делать ответственно. Или готовьтесь извиняться в соцсетях под грустную музыку.
🔥10
В скором времени вы будете видеть в соцсетях аватары самих себя. Нет, это не шутка. Это будет персонализированная реклама. Вы сами будете себе рекламировать то, что вам не нужно.

Написал об этом в «Снобе».
🙈5
Точка невозврата пройдена

Видео ниже я сделал, чтобы показать вам одну простую, но тревожную истину: верить глазам больше нельзя.

Итак, ловите фейковый новостной репортаж. Каждая деталь — голоса, мимика, интонации, документальная съемка — пугающе реалистична. И знаете что? Даже я, создатель этого видео, с трудом отличаю его от реальности.

И как будто они там договорились: ровно сегодня Марк Цукерберг заявил, что Meta отключает факт-чекинг: фактчекинговые организации, сотрудничающие с Meta*, заявили, что они не имели никакого влияния на то, как компания обрабатывала контент, прошедший проверку.

Марк Цукерберг, глава Meta, в ответ обвинил своих партнеров в излишней политической предвзятости, заявив, что их работа «разрушила больше доверия, чем создала».

Выступая на сцене Chase Center в Сан-Франциско, Цукерберг объявил о переходе на новую программу — Community Notes, где вместо сторонних организаций проверкой фактов займутся сами пользователи. В суде бы таких назвали «ненадежные свидетели».

Окей, я закидываю пользователям свое видео на проверку и они... говорят, что видео достоверно.

Так сможет ли система пользовательского фактчекинга вернуть доверие в эпоху цифрового недоверия?

В общем, мы пришли туда, где грань между «настоящим» и «фейковым» стала иллюзией. Да, технологии дают безграничные возможности, но это и вызов. Делитесь своими мыслями: куда, по-вашему, нас это приведет?

Видео ниже 👇👇👇

*МЕТА признана экстремистской организацией в РФ.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🙈2
Постоянный персонаж в видео? Наконец-то эта проблема решена. Хорошая новость от Minimax — с сегодняшнего дня доступна функция Hailuo Subject Reference.

Итак, представлена модель S2V-01, которая решает одну из главных проблем индустрии: поддержание постоянных, реалистичных черт лица и идентичности персонажа в динамичном видеоконтенте, независимо от ракурсов камеры и движений. Как говорят сами создатели — это «революционный подход к обеспечению постоянства персонажей при создании видео»

Почему это меняет правила игры:

Передовая технология: как говорят создатели — это первая в своем роде технология, обеспечивающая постоянство персонажей при генерации динамичного видео, превосходящая по производительности даже тонко настроенные модели.

Минимум информаци, максимум эффекта: видео с постоянным персонажем создается на основе всего лишь одного исходного изображения. По словам создателей «каждый кадр с непревзойденной точностью и надежностью сохраняет исходную идентичность».

Расширенные возможности: можно регулировать не только черты лица, но и осанку, выражения, освещение и многое другое с помощью простых текстовых запросов.

И ложечка дегтя: несмотря на то, что новая модель повышает постоянство персонажа, она может иногда менее точно следовать запросам, чем T2V или I2V, меняя окружение. Несмотря на эти проблемы начального этапа, Hailuo Subject Reference «знаменует собой значительный скачок в генерации видео с помощью ИИ».

Что дальше? Отвечают создатели MiniMax: мы стремимся к постоянному совершенствованию, включая поддержку нескольких исходных персонажей, объектов и сложных многослойных сцен.

Пока смотрите демку 👇 А я пойду поделаю тесты и вернусь с обратной связью.
👍9
Media is too big
VIEW IN TELEGRAM
Постоянный персонаж от MiniMax
🔥6🙈1
Media is too big
VIEW IN TELEGRAM
Итак, протестировал функцию «постоянный герой» от MiniMax, о которой написал вот тут.

Как и ожидалось — пока сыровато, но лучше, чем ничего. На удивление неплохо «держит» персонажа. Мне не нравится качество картинки и мыльная мультяшность (а все потому MiniMax до сих пор не научился делать HD-видео и способен выдавать только 1280х720).

Сделал серию генераций, здесь нет никакой истории. Просто показал, как сервис цепляет внешность с 1-й загруженной фотографии. Заметьте, что как только дело дошло до бикини на пляже, дама заметно схуднула. В общем, это хороший тренд — осталось не так много времени, когда постоянство персонажа станет стандартом индустрии.
👍17🔥2
Media is too big
VIEW IN TELEGRAM
Когда ел за себя и за того парня.
🔥10
И еще одна приятная новость. Kling выпустили приложение для ios. Забираем тут. Пользователи Android – придется пока подождать.

И еще крутые обновления самого Kling: теперь lipsynс доступен для видео, которые вы загружаете. Также добавлен словарь промтов (вы можете не придумывать, а брать из базы).
👍8
Media is too big
VIEW IN TELEGRAM
И продолжая тему липсинга — еще один важный апдейт. Разработчики sync.so выкатили модель lipsync-1.9.0-beta, смотрите демку.

Работает только на платных планах. Но подписка начинается с $5, так что можете идти и пробовать.
🔥6👍1
Google опять пытается делать из нас зомби. Теперь — с помощью Daily Listen.

Итак, вместо того чтобы читать новости, гугл предлагает нам их слушать. Автоматически сгенерированные ИИ подкасты на основе вашего Discover-фида. Да, звучит мило. Но давайте разберемся, что тут реально происходит.

Пять минут на «думать»? Серьезно?

Весь выпуск — до пяти минут. Типа, вот тебе пять минут на все, что тебя должно волновать в этом мире. Глубина? Ноль. Анализ? Ноль. Но зато с приятным голосом ИИ-хоста.

Персонализация или манипуляция?

Google, конечно, мило говорит, что все «персонализировано». Но давайте не будем наивными. Это просто способ держать вас в экосистеме Google еще дольше. Никакого сюрприза: ИИ говорит то, что ты хочешь услышать, чтобы ты остался слушать дальше.

Отказ от мыслей? В комплекте.

Ежедневное аудио с ленивыми новостями в стиле «быстрее-проглоти-забудь» — это билет в эпоху полного отказа от критического мышления. Зачем думать, если ИИ уже все пережевал за тебя?

Вместо финала:

Google продает не информацию, а иллюзию, что ты в курсе событий. Пять минут поверхностного бла-бла-бла — и все, можно дальше листать мемы. Если вы хотели понять, как человечество превращается в цифровых ленивцев, вот оно.

Так что, друзья, Daily Listen — это не про расширение кругозора. А о том, как превратить нас в идеальных потребителей контента: ленивых, зависимых и готовых съесть любую инфо-кашу, если она упакована красиво.
👍8👎1