Нейронутые | ИИ (Егор Апполонов)
13.6K subscribers
1.19K photos
286 videos
1 file
344 links
Я — Егор Апполонов, эксперт по ии-видео. Победитель 3 международных конкурсов ии-фильмов. Связь @egorevna

Портфолио: https://egorappolonov.ru/ и @aigencydigital

Курс по ии-видео: https://aifilm.online/

РКН https://clck.ru/3NNPKh
Download Telegram
Помните, я наехал на Sora и сказал, что это очень серой релиз. Частично беру свои слова обратно. Sora оказалась не такой уж бесполезной. Да, инструмент все еще сырой, но я заставил себя углубиться, сидел с сорой сутки напролет, изучил вдоль и поперек, и что-то щелкнуло. Полноценное видео, сделанное ТОЛЬКО в Sora, доказало мне, что если знать подход, результат может быть достойным. Вот что я понял:

Преимущества:

1. Датасет. Видео получаются живыми и динамичными, так бы фиксировала события камера на плече оператора, который реально там был.

2. Контроль. Да, он есть. Пока не супергибкий, но выжать что-то стоящее все же можно. Немного терпения — и начинается магия.

3. Киношный лук. Картинка и главное — движение камеры — круто. Выглядит так, будто видео снял амбициозный выпускник киношколы, а не сгенерировал ИИ. И да — в зависимости от промта, камера будет вести себя совершенно по-разному. Тут как раз ОЧЕНЬ нужны знания работы с камерой и операторский бэкграунд (режиссерский тоже будет крутым плюсом), чтобы точно сказать нейросети, что ты хочешь видеть на выходе.

Недостатки:

Физика? Какая физика? Объекты могут вести себя так, как будто законы природы давно отменили. Не ждите идеального следования вашему промту. Плавание и легкая атлетика — если хотите повеселить друзей, то, да, вам сюда.

Понимание промта. Пока Sora на 100% не делает того, что просишь. Иногда чувствуешь себя в диалоге с капризным (а может даже и туповатым) художником, который типа лучше знает, что тебе нужно.

Резюмирую: я понял, как работать с этим инструментом. Sora — это как сложная камера: если не знаешь, куда нажимать, получишь мыло. Если научишься управлять — открываются совершенно новые горизонты.

Так что от своих первых впечатлений частично откатываюсь назад. Sora не идеальна, но уже сейчас может удивлять. А если ее еще доведут, кто знает — может, станет новым эталоном.

Ну и вишенка на торте: сделать такое видео, как в примере ниже можно будет лишь при подписке $200 в месяц (напомню, что в конце декабря Альтман дал всем — совершенно правильный маркетинговый ход — безлимитные генерации до середины января). Для примера ниже я сделал порядка 200-300 видео (много брака, тестов и тд).

При подписке $20 в месяц вы сможете сгенерить 5-6 видео в месяц. Поэтому Sora играет на территории корпораций, рекламных агентств, видеопродакншов и тех, кто профессионально занимается ИИ-видео. Любителям с таким дорогим инструментом будет работать просто нерентабельно.

В следующем посте видео, которое я целиком сделал в Sora (принципиально работал в формате text-to-video и не давал на ввод ни одного изображения, сгенеренного в сторонних ИИ)
👍6🔥2
Media is too big
VIEW IN TELEGRAM
100% Sora, text-to-video.

Начнем 2025-й год бодренько
🔥22🤣1
ИИ в Fable решил, что он — новый критик New York Times, только с резкостью токсичного комментатора.

Вместо дружелюбных итогов года, пользователи книжного сервиса получили высмеивание за свой выбор книг. И это не милое «читали меньше в этом году?», а настоящий шквал треша: расистские комментарии, вопросы в духе «когда ты последний раз думал, как белый мужчина?» и даже насмешки над ориентацией.

Fable, вдохновившись трендом Spotify Wrapped, хотели, видимо, сделать весело. А сделали скандал. Сначала ИИ обидел кучу людей, потом компанию заставили извиняться с дрожащими руками, после чего, естественно, отключили функцию.

Ну разве не очевидно, что такая штука должна была пройти тестирование?

Проблема тут не в ИИ, а в его хозяевах, которые думали, что можно просто накидать API OpenAI, подождать пару дней и все полетит. Нет, ребята, это как оставить ребенка за рулем Tesla (без автопилота). Пока Fable собирает осколки репутации, пользователи удаляют аккаунты и смеются в соцсетях. Корпорация мечты порадовала мемами, но потеряла доверие.

Мораль проста: если ваш ИИ оскорбляет клиентов, это не просто «неприятный баг», это провал на всех уровнях. Хотите быть модными и использовать ИИ? Учитесь, как это делать ответственно. Или готовьтесь извиняться в соцсетях под грустную музыку.
🔥10
В скором времени вы будете видеть в соцсетях аватары самих себя. Нет, это не шутка. Это будет персонализированная реклама. Вы сами будете себе рекламировать то, что вам не нужно.

Написал об этом в «Снобе».
🙈5
Точка невозврата пройдена

Видео ниже я сделал, чтобы показать вам одну простую, но тревожную истину: верить глазам больше нельзя.

Итак, ловите фейковый новостной репортаж. Каждая деталь — голоса, мимика, интонации, документальная съемка — пугающе реалистична. И знаете что? Даже я, создатель этого видео, с трудом отличаю его от реальности.

И как будто они там договорились: ровно сегодня Марк Цукерберг заявил, что Meta отключает факт-чекинг: фактчекинговые организации, сотрудничающие с Meta*, заявили, что они не имели никакого влияния на то, как компания обрабатывала контент, прошедший проверку.

Марк Цукерберг, глава Meta, в ответ обвинил своих партнеров в излишней политической предвзятости, заявив, что их работа «разрушила больше доверия, чем создала».

Выступая на сцене Chase Center в Сан-Франциско, Цукерберг объявил о переходе на новую программу — Community Notes, где вместо сторонних организаций проверкой фактов займутся сами пользователи. В суде бы таких назвали «ненадежные свидетели».

Окей, я закидываю пользователям свое видео на проверку и они... говорят, что видео достоверно.

Так сможет ли система пользовательского фактчекинга вернуть доверие в эпоху цифрового недоверия?

В общем, мы пришли туда, где грань между «настоящим» и «фейковым» стала иллюзией. Да, технологии дают безграничные возможности, но это и вызов. Делитесь своими мыслями: куда, по-вашему, нас это приведет?

Видео ниже 👇👇👇

*МЕТА признана экстремистской организацией в РФ.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🙈2
Постоянный персонаж в видео? Наконец-то эта проблема решена. Хорошая новость от Minimax — с сегодняшнего дня доступна функция Hailuo Subject Reference.

Итак, представлена модель S2V-01, которая решает одну из главных проблем индустрии: поддержание постоянных, реалистичных черт лица и идентичности персонажа в динамичном видеоконтенте, независимо от ракурсов камеры и движений. Как говорят сами создатели — это «революционный подход к обеспечению постоянства персонажей при создании видео»

Почему это меняет правила игры:

Передовая технология: как говорят создатели — это первая в своем роде технология, обеспечивающая постоянство персонажей при генерации динамичного видео, превосходящая по производительности даже тонко настроенные модели.

Минимум информаци, максимум эффекта: видео с постоянным персонажем создается на основе всего лишь одного исходного изображения. По словам создателей «каждый кадр с непревзойденной точностью и надежностью сохраняет исходную идентичность».

Расширенные возможности: можно регулировать не только черты лица, но и осанку, выражения, освещение и многое другое с помощью простых текстовых запросов.

И ложечка дегтя: несмотря на то, что новая модель повышает постоянство персонажа, она может иногда менее точно следовать запросам, чем T2V или I2V, меняя окружение. Несмотря на эти проблемы начального этапа, Hailuo Subject Reference «знаменует собой значительный скачок в генерации видео с помощью ИИ».

Что дальше? Отвечают создатели MiniMax: мы стремимся к постоянному совершенствованию, включая поддержку нескольких исходных персонажей, объектов и сложных многослойных сцен.

Пока смотрите демку 👇 А я пойду поделаю тесты и вернусь с обратной связью.
👍9
Media is too big
VIEW IN TELEGRAM
Постоянный персонаж от MiniMax
🔥6🙈1
Media is too big
VIEW IN TELEGRAM
Итак, протестировал функцию «постоянный герой» от MiniMax, о которой написал вот тут.

Как и ожидалось — пока сыровато, но лучше, чем ничего. На удивление неплохо «держит» персонажа. Мне не нравится качество картинки и мыльная мультяшность (а все потому MiniMax до сих пор не научился делать HD-видео и способен выдавать только 1280х720).

Сделал серию генераций, здесь нет никакой истории. Просто показал, как сервис цепляет внешность с 1-й загруженной фотографии. Заметьте, что как только дело дошло до бикини на пляже, дама заметно схуднула. В общем, это хороший тренд — осталось не так много времени, когда постоянство персонажа станет стандартом индустрии.
👍17🔥2
Media is too big
VIEW IN TELEGRAM
Когда ел за себя и за того парня.
🔥10
И еще одна приятная новость. Kling выпустили приложение для ios. Забираем тут. Пользователи Android – придется пока подождать.

И еще крутые обновления самого Kling: теперь lipsynс доступен для видео, которые вы загружаете. Также добавлен словарь промтов (вы можете не придумывать, а брать из базы).
👍8
Media is too big
VIEW IN TELEGRAM
И продолжая тему липсинга — еще один важный апдейт. Разработчики sync.so выкатили модель lipsync-1.9.0-beta, смотрите демку.

Работает только на платных планах. Но подписка начинается с $5, так что можете идти и пробовать.
🔥6👍1
Google опять пытается делать из нас зомби. Теперь — с помощью Daily Listen.

Итак, вместо того чтобы читать новости, гугл предлагает нам их слушать. Автоматически сгенерированные ИИ подкасты на основе вашего Discover-фида. Да, звучит мило. Но давайте разберемся, что тут реально происходит.

Пять минут на «думать»? Серьезно?

Весь выпуск — до пяти минут. Типа, вот тебе пять минут на все, что тебя должно волновать в этом мире. Глубина? Ноль. Анализ? Ноль. Но зато с приятным голосом ИИ-хоста.

Персонализация или манипуляция?

Google, конечно, мило говорит, что все «персонализировано». Но давайте не будем наивными. Это просто способ держать вас в экосистеме Google еще дольше. Никакого сюрприза: ИИ говорит то, что ты хочешь услышать, чтобы ты остался слушать дальше.

Отказ от мыслей? В комплекте.

Ежедневное аудио с ленивыми новостями в стиле «быстрее-проглоти-забудь» — это билет в эпоху полного отказа от критического мышления. Зачем думать, если ИИ уже все пережевал за тебя?

Вместо финала:

Google продает не информацию, а иллюзию, что ты в курсе событий. Пять минут поверхностного бла-бла-бла — и все, можно дальше листать мемы. Если вы хотели понять, как человечество превращается в цифровых ленивцев, вот оно.

Так что, друзья, Daily Listen — это не про расширение кругозора. А о том, как превратить нас в идеальных потребителей контента: ленивых, зависимых и готовых съесть любую инфо-кашу, если она упакована красиво.
👍8👎1
Юваль Ной Харари прогнозы на 2025 год: искусственный интеллект меняет игру

Инопланетный интеллект среди нас. Юваль Ной Харари предупреждает: искусственный интеллект — это больше, чем просто технология. Харари сравнивает его с «инопланетным интеллектом», способным проникать в системы общества и трансформировать их изнутри. Уже к 2025 году ИИ станет невидимым, но незаменимым звеном управления — от правительств до корпораций.

Прогноз: ИИ не захватит мир грубой силой, как в фильмах, а превратится в инструмент, управляющий через алгоритмы, данные и тонкую манипуляцию. Решения, которые люди считают своими, будут подсказаны машинами.

Эра нарративов под управлением ИИ. Человечество — это «животное, рассказывающее истории», уверен Харари. Сегодня мифы и легенды продолжают объединять или разделять нас, а в 2025 году эта сила усилится благодаря ИИ. Технологии позволят генерировать нарративы с невероятной точностью, которые будут буквально определять нашу реальность.

Прогноз: ИИ станет не просто наблюдателем, а активным участником «войн нарративов». Создание идеологических мифов и контента для поляризации общества выйдет на новый уровень. Соцсети превратятся в арену сражений, где каждая аудитория получит свою дозу информации, усиливая разрыв.

Виртуальная реальность как новая реальность. По мнению Харари, ИИ уже способен создавать иллюзии, затмевающие реальность. К 2025 году мы войдем в эпоху виртуальных миров, которые будут доминировать над физической реальностью.

Прогноз:

Культура будет перерождаться под влиянием ИИ, создающего произведения искусства, литературы и музыки. Эти шедевры покажутся гениальными, но на деле будут продуктом алгоритмов.

Люди начнут доверять «цифровым оракулам», а их собственное критическое мышление начнет угасать.

Мир как архипелаг субкультур. ИИ и соцсети уже разрушают общественную сферу, предупреждает Харари. В 2025 году этот процесс достигнет пика.

Прогноз:

Социальная фрагментация усилится. Люди будут жить в своих «информационных пузырях», где каждая группа видит только свою реальность.

Политическая поляризация станет нормой, так как индивидуализированные нарративы ИИ разрушат общую картину мира.

Эмоциональная связь с машиной. Одно из самых тревожных предупреждений Харари — это способность ИИ устанавливать эмоциональные связи с человеком. Люди будут доверять машинам больше, чем друзьям или экспертам, что открывает огромные возможности для манипуляции.

Прогноз:

В 2025 году виртуальные отношения с ИИ станут обыденностью. Многие будут воспринимать машины как личных советников, друзей или даже партнеров.

Это приведет к влиянию на поведение, выборы и покупки, а также к психологическим последствиям: отчуждению и снижению критического мышления.

Кто такой Юваль Ной Харари?

Израильский ученый, историк-медиевист и автор мировых бестселлеров: «Sapiens: Краткая история человечества», «Homo Deus: Краткая история завтрашнего дня» и «21 урок для XXI века». Его прогнозы — это вызов, от которого сложно отвернуться.

С какими прогнозами вы согласны? И как вы видите 2025-й год с точки зрения развития ИИ?

Нейронутые
👍8💯8
Сделал подборку тортов для тех, кому надоела обыденность. Внимание, 18+

Нейронутые
👎9🤣4👍3