Шаляпин | про AI, хайтек и финтех
257 subscribers
195 photos
107 videos
3 files
161 links
Журналист/медиа-дженералист.

More than meets the AI про futuretech, финансы, ИИ

Пост-знакомство:https://t.me/alexandershalyapin/377
Download Telegram
😏 Походил по сообществу Sora и собрал немного прикольных генераций и промпты к ним. Их скинул в отдельную телеграф-страницу, ибо не помещаются в пост. Некоторые картинки и трендовые серии, уверен, скоро можно увидеть в сети с заголовками "Нейросеть изобразила...".

🤔 Пока никак не могу разобраться с логикой цензуры в картиночном генераторе от OpenAI. Во-первых: генерить картинки можно в двух местах - в самом ChatGPT и на Sora.com (логинка по тем же реквизитам, что для чатджпт). И, кажется, это две разные настройки цензуры. Более жесткая - в Chat GPT. Например, он там люто агрится на любые "телесные" промпты. Вот в подборке есть картинки с девицами - похоже, что такое через интерфейс чата вообще нереально сделать. Как только ChatGPT увидит вот это вот "her chest big" в одном из промптов - вызовет полицию, уверен.

При этом в Sora если написать "в стиле Симпсонов" - отказывается генерить, типа "нарушает политику". А в чате как раз всё ок - генерит без проблем 🤷‍♂️

P.S. Про кепку Трампа прям хорошо, актуалочка!

https://telegra.ph/Sora-Imgen-Prompt-Vault-Vypusk-1-04-10
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
ChatGPT проапдейтили память

Он теперь может помнить все из всех предыдущих чатов и ссылаться на инфу в них.

Это значит, что в новом диалоге будет учитываться контекст старых, ответы будут более персонализированными.

Память можно отключить в любой момент.

Ну кайф, чо.

P.S. Улучшенная память в ChatGPT доступна с сегодняшнего дня всем пользователям Plus и Pro, за исключением Великобритании, Швейцарии, Норвегии, Исландии и Лихтенштейна. Если заходите из-под оттуда - не будет фичи.
Сегодня чего-то много постов было. Последнее на сегодня:
"Деревня дураков" как аниме опенинг от мастера анимешных стилизаций Александра Доброкотова @strangedalle. Каеф, как всегда. Олдскулы приятно сводит 💟

Пайплайн у него тут: ChatGPT 4o + Flux + Photoshop + Luma Ray 2 / Kling 1.6 / Gen-4 + Suno + CapCut.

https://t.me/strangedalle/1169
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Больше года назад в жизни добавилось тишины. Одна - там, где раньше звучал голос. Другая - внутри, отчего даже любимые занятия кажутся чуждыми. Обработка музыки/аудио, генеративные нейротреки - это ремесленное, механистичное, оно за этот год случалось. Но новую музыку не сочиняю с тех пор.

А последняя работа была над инструменталом “Brüder im Sturm”, для немецкой певицы и стримерши SoulHikers.

Мариновался трек долго, но вышел. С примесью нордического эпоса - о сплочённости и внутренней силе — с тагельхарпой, этническими инструментами, перкуссией, но в более модерновом тоне, нежели принято в северном фолке. Лиричная, эпичная и вдохновляющая композиция получилась. 🛡🪓

p.s. клип, конечно, мил наивностью продакшна вне студийного глянца и духом реконструкторской романтики)
Please open Telegram to view this post
VIEW IN TELEGRAM
И на сон грядущий такая история: покойный композитор Элвин Люсье «продолжает сочинять музыку» с помощью выращенного из его клеток мини-мозга, подключённого к аудиосистеме. Наткнулся на статью об этом в Guardian.

Учёные использовали кровь Люсье для создания стволовых клеток, а затем вырастили из них церебральные органоиды — кластеры нейронов, имитирующие человеческий мозг. До самой кончины композитора они обсуждали с ним детали будущего проекта. 64-канальная нейросетка регистрирует импульсы от органоида и передаёт их в аудиосистему.

Так «мини-мозг» сочиняет посмертную партитуру прямо на глазах у посетителей художественной галереи Западной Австралии.

Ну, правду говоря, музыкой в привычном смысле это сложно назвать: шумы, щелчки, пульсации, гудки. Ближе всего к экспериментальной электронике.

Звук конвертируется обратно в сигнал и "мозг" реагирует — изменяет свою активность, как будто «слушает» и подстраивается.

Проект показывает, как живая материя может быть не просто объектом исследования, а самостоятельным медиа.

Кому-то покажется спорным, но одно очевидно — чувак был рок-н-рольный до самого конца. 😄
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Пора на уикендный контент-детокс. Как говорится в меме - My Job Here Is Done. Пойду Veo 2 помучаю. Обнял! 😘❤️
Please open Telegram to view this post
VIEW IN TELEGRAM
GPT-4 теперь можно воссоздать с минимальной командой - от 5 до 10 человек вместо сотен. GPT-4.5 участвует в анализе, обучении и структурировании предыдущих моделей. Такой вот внутренний рефакторинг.

🟢Переход от "модельного гигантизма" к эффективному обучению совпадает с трендом на меньше параметров, больше смысла — например, как у Mistral и Anthropic.

🟢Новый виток конкуренции: ускорится разработка "узких" ИИ с высокой специализацией.

🟢Рост интереса к малым, модульным ИИ, которые легче тренировать и использовать.

https://www.businessinsider.com/openai-chatgpt-gpt4-rebuild-breakthroughs-sam-altman-2025-4
Please open Telegram to view this post
VIEW IN TELEGRAM
На этой неделе в ИИшках будет всякое новьё.

🟢Сегодня вечером OpenAI запланировала анонс. И всю неделю будут чего-то показывать. Комьюнити ждёт, что выкатят "мини" и "нано" версии. И тогда точно обычный консьюмер начнет путаться, чего ему включать и для каких задач.

🟢А завтра видеогенератор Kling собирается выкатить 2.0 и это мы ждём. Из всех моделей Клинг отличается особой кинематографичностью, хорошим пониманием промпта и сравнительно умеренной цензурой. Всё Запретграммные видео с хуманизированными животными, девами, шагающими в слоу-мо, - из Клинга.

🟢А еще новая китайская видеомодель нарисовалась - Seaweed-7B от ByteDance. В целом, рост китайских генеративных моделей это очень хорошо, ибо некоторые в опенсорс утекают. Пока Seaweed-7B остаётся закрытым проектом без доступа к исходному коду и весам модели.

УТП заявленное - "в достижении производительности, сопоставимой или превосходящей более крупные модели, при значительно меньших вычислительных затратах и лёгкой адаптации к различным задачам генерации видео". Поглядим, любопытно. Видеодемка в прикреплении.

Некоторые фичи:

Consistent Storytelling — связный сюжет между сценами
High-Resolution Generation — апскейл до 2K
Real-Time Generation — генерация 24fps в реальном времени
World Exploration — камера движется внутри сцены
Physically-Consistent Generation — реалистичная физика и движения

🟢А наш GigaChat теперь умеет искать информацию в интернете, делать краткие обзоры по материалам сайтов, сравнивать статьи на одну тему, распознавать картинки на веб-страницах и обрабатывать с них видео.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Ну вот OpenAI и анонсировали серию 4.1. Ориентированы на прогеров, с большим контекстом (1 млн токенов), дешевые.

— 4.1 следует инструкциям почти на уровне o3-mini, то есть очень хорошо

— 4.1 есть в размерах nano и mini, работает быстрее, но падает качество

GPT‑4.1, GPT‑4.1 mini и GPT‑4.1 nano выпускают только в API для разработчиков. В чате этих моделей не будет.
Forwarded from Ai molodca (Dobrokotov)
Как многие вчера догадались — да, мы тестировали новый Kling 2.0 💥, который я гоняю уже где-то неделю в рамках партнёрской программы.

Что могу сказать? Он очень хорош: понимание промта, количество движения, последовательность — отлично.

😑 Первое видео — тест img-to-video из случайных кадров (включая ваши генерации и, конечно же, Уилла Смита с пастой).

😳 Второе, более интересное — новый режим Multi-Elements (на версии 1.6), который подрезали у Pika, но сделали гораздо лучше. Загружаете видео, референс, пишете что-то вроде "замени/удали/добавь [объект] из футажа на [объект 2] из референса" — и готово.

В целом, что нового:

1. Модель KLING 2.0 с улучшенными базовыми возможностями
Пока что только базовые режимы Text to Video и Image to Video, 720p, без дополнительных контролов (но, возможно, скоро подъедет другая версия 2.0).

2. Multi-Elements (v1.6)
Добавление, замена, удаление объектов в видеосцене — удобно, гибко, быстро.

3. Motion Control (v1.6)
Кастомная анимация персонажей на изображении по промту или референсу.

4. KOLORS 2.0 — обновлённая генерация изображений
Большие улучшения по сравнению с версией 1.5 — по качеству, цвету, деталям.

5. Restyle (KOLORS 2.0)
Смена стилистики изображения — работает чисто и разнообразно.

6. Редактирование изображений
Новые функции Inpaint и Expand для креативного редактирования.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Это видео примечательно не только и не столько тем, что его сделали в Kling 2. На его производство автор потратил более 1200 долларов. Ибо стоимость генерации в новом Клинге возросла в разы, как и качество видосов. Примерно доллар за 5 секунд видео.

Это все еще дешевле, чем снимать такой ролик обычным продакшном, но довольно немало относительно конкурентов типа Runway. Учитывая, что это все еще не 100% удачные генерации и некоторое количество видосов отправляется в корзину.

488 клипов за 2 дня. Пайплайн из Midjourney 7 + Kling и чатджипити для промптов. Автор пишет, что промпты для камеры простые типа “push in”, “camera orbit”, “push out”. Отдельно отмечается, что слоу-мо эффекта, которым ранее грешили нейровидео, нет.

Я пока не засел за Клинг, скоро буду тестить и жечь кредиты😭😭
Forwarded from Denis Sexy IT 🤖
Мальчик:
Набрасывает на миллирдеров и их бизнес в купленной соц сети

Мужчина:
Строит свою соц сеть с нуля и набрасывает в ответ
OpenAI представила две новых модели — o3 и o4-mini, которые умеют анализировать изображения и использовать инструменты ChatGPT.

Основное из анонса:

🟢Максимум интеллекта, минимум ресурсоёмкости: o4-mini — лёгкий, но мощный ИИ с почти 100% результатом на математическом AIME.
🟢o3 называют самой продвинутой reasoning-моделью OpenAI на сегодня.
🟢Обе модели умеют работать с изображениями, в том числе масштабировать, кадрировать и поворачивать их.
🟢Модели не просто "видят" — они мыслят через изображения, включая визуальные элементы в логику.
🟢Они сами решают, когда и как использовать инструменты: могут, например, запустить браузер, чтобы проверить гипотезу.
🟢Даже o4-mini способен решать сложные задачи по коду и математике с минимальным объёмом ресурсов.
🟢Уже доступны: пользователям ChatGPT Plus, Pro и Team.

https://openai.com/index/introducing-o3-and-o4-mini/
Please open Telegram to view this post
VIEW IN TELEGRAM
Нейминг моделей в OpenAi это кромешный ад и звездец! И они это знают. И все знают. Ну, или догадываются. Я сейчас посмотрел в селектор моделей и тоже начал неиллюзорно клиниться от 4о и о4, 4o mini и o4 mini. А еще есть mini-high, 4.5 и недавно 4.1 была… Аааааа! 😿Только упоротейший гик может сходу назвать, кто зачем, для чего.

А вот сам ChatGPT - не может! Он вспоминает и Turbo какую-то, считает самой топовой и дорогой моделью 4о, не знает о существовании 4.5, и в целом не вдупляет, что происходит. Это новые o3, o4, o4 mini-high.

😎Короче, так как этот зоопарк моделей еще с нами, вот шпаргалка:

Как не путаться с «o»:

🟢Цифра → o → Omni (смотрит и слушает).
🟢o → цифра → Reasoning (долго думает и размышляет над своим базаром).
🟢Приставка mini → экономия
🟢Приставка high добавляет тщательности за счёт снижения скорости.

👉

🟢Хочешь ассистента на ежедневные задачи и Гибли-картинки — бери GPT‑4o.

🟢Нужна строгая математика, исследования или код — зови o3 либо o4‑mini.

P.S. Если ты APIшный чертила — на тебе 4.1

Never hallucinate!
Please open Telegram to view this post
VIEW IN TELEGRAM