Адаптация к будущему
3.39K subscribers
62 photos
7 videos
1 file
39 links
Канал Григория Мастридера про внедрение нейросетей и адаптацию к стремительно наступающему будущему

Обо мне: https://t.me/mustreads/4337
Мой основной канал "Мастриды": @mustreads
Download Telegram
Всем привет! Это Мастридер. В этом канале буду рассказывать про свой опыт внедрения нейронок и других прорывных технологий в жизнь. Делиться личным опытом, лайфхаками и интересными ресурсами, которые нахожу. И анонсировать свои проекты в этой сфере.

Ближайший из них — третий поток образовательной группы "Адаптация", встречи которого начнутся в понедельник, 27 октября. Ссылку на запись в группу вы увидите здесь одними из первых. Всего будет 30 мест, из них 5 уже заняли до публичного анонса друзья учеников предыдущих потоков. В прошлых двух потоках были солд-ауты, так что не пропустите анонс, если хотите записаться в этот раз.
👍87😱3🦄1
Делюсь инструкцией по настройке локальных нейронок, если вы захотели это сделать (про то, какие это нейронки и зачем они нужны, писал сегодня на "Мастридах").

Итак, я делал всё через приложение LM Studio. У меня Мак, но на Винду это приложение тоже есть. Вот сайт, оно бесплатное: https://lmstudio.ai/download?os=mac

Что дальше? После установки LM Studio выбираете внутри нужный вам уровень сложности (я выбрал Power User) и качаете нужные вам нейронки прямо внутри приложения. Либо можете скачать их с сайта разработчика, а потом внутри LM Studio вручную вставить ссылку на конкретную папку, где лежит файл с нейронкой (имхо, первый вариант проще).

Если качаете модель Qwen типа instruct (как я), можете выставить такие настройки в ней (копирую инструкцию от ЧатГПТ — пятая итерация, предыдущие четыре у меня нормально не сработали):

1) Context (вкладка справа сверху)
В поле System вставь ровно:

English by default. 1–2 sentences unless I say “longer”. No emojis. No role-play. Don’t ask me questions back unless I ask. Don’t show chain-of-thought; answer only.

(Примечание от меня: можно и на русском эту модель просить отвечать. Я прошу инглиш, т.к. есть ощущение, что на английском она меньше тупит).

Больше ничего в Context не заполняй.

2) Model → Settings
• Temperature: 0.5
• Limit Response Length: ON → 200
• Context Overflow: Truncate Middle
• Stop Strings: пусто

3) Model → Sampling
• Top-p: 0.9
• Top-k: 40
• Repeat Penalty: 1.15
• Min-P: выключить

4) Preset
Нажми Save (или Save As New… → назови Qwen short).

5) Новый диалог
В левой колонке + → New Chat, убедись, что сверху выбрана qwen2.5-7b-instruct, и активен пресет Qwen short.

6) Тест
Напиши: Hey, how’s it going?

Кто сделает это всё успешно, напишите — поделитесь своим опытом! А кто уже пользуется локальными нейронками, напишите — какими. Открыл в рамках эксперимента комменты в этом канале. Если будет много спама, закрою :)
❤‍🔥9🔥73😁2🙏2
И небольшой прикол: сначала я скачал свою первую локальную нейронку через приложение "Терминал" Мака. Всё прошло успешно, кроме того, что она распознала какие-то команды из терминала как промпт для самой себя и начала выдавать лютые галлюцинации :)

Как мне потом объяснила ГПТшка, дело в том, что медицинская нейронка Meditron запрограммирована отвечать только на промпты на английском (хотя отвечать может и на русском, если ей дать правильный системный промпт). А ещё в том, что это только медицинский консультант. И, если ей задавать общие вопросы о жизни, она начинает пороть какую-то чушь.

И третья причина: на тот момент я просто скачал нейронку и не задал в ней никакие настройки. А нужно было поправить температуру (параметр параметр, который определяет степень "импровизации" нейронки: насколько её ответы на один и тот же промпт могут отличаться в разных диалогах), плюс параметр Repeat Penalty и максимальную длину ответа в токенах.

Всё это, как я понял, можно настраивать и в терминале, но это не особо удобно, так что LM Studio — наш с вами выбор.

Интересен такой контент? Делиться такой внутрянкой?
👍47🤯5😁1
Сейчас мы с командой выпускаем в моей инсте серию роликов, сгенерированных через нейронку Sora 2 от OpenAI. Она пока что доступна только в США и Канаде, но с VPN можно протестировать её и из других стран (либо через тг-ботов).

Единственное, что главная прорывная опция — генерация роликов со своим лицом — доступна только в мобильном приложении. А для этого нужно, чтобы эпп-стор у вас был американский (на американскую симку). У меня такой есть (создавал для своих англоязычных проектов), поэтому начали на днях с командой генерировать видосы с моим лицом в разных забавных сеттингах.

Поделюсь тем, что уже опубликовали в инсте и других вертикальных соцсетях, и парочкой пока не опубликованных роликов. Как вам?
🔥19😁112👍2👎2
Адаптация к будущему
Сейчас мы с командой выпускаем в моей инсте серию роликов, сгенерированных через нейронку Sora 2 от OpenAI. Она пока что доступна только в США и Канаде, но с VPN можно протестировать её и из других стран (либо через тг-ботов). Единственное, что главная прорывная…
Кстати, обратите внимание на разницу в качестве отдельных роликов из предыдущего поста. Первые два (со священником) я сгенерировал в первые минуты работы с Sora, вообще не заморачиваясь с промптом (просто несколько слов написал), а для остальных уже мы с командой стали писать более подробные промпты вместе с другой нейронкой (ChatGPT-5 thinking). Яркость, чёткость, качество картинки сильно улучшились.

В целом это релевантно для любых генеративных нейросетей — что текстовых, что картинок, что видео, что аудио. Чем лучше и продуманнее промпт — тем лучше результат. Некачественный промпт, написанный "левой пяткой" — некачественный результат.

Как говорят англичане, garbage in — garbage out ("мусор на входе — мусор на выходе").
👍15💯52
Наглядный пример того, как мы с командой используем нейронки на всех этапах цикла выпуска контента — этот ролик: youtube.com/shorts/-TpFF-I89UU

Кто не в курсе, есть в интернете такой феномен — итальянские "брейнрот-животные". Причудливая смесь представителей фауны, флоры и кулинарии с итальянскими кринжовыми названиями. Например, Бомдардилло Крокодилло, Балерина Капучино или Шимпанзини Бананини.

В марте этого года, увидев тренд, я решил попробовать адаптировать его для своего англоязычного шахматного контента и сделать шортс/рилз/тикток с "брейнротными" шахматными фигурами. В качестве эксперимента решил попробовать использовать нейронки на ВСЕХ ЭТАПАХ процесса.

Как это работало:

1) вместе с ChatGPT (кажется, это была версия 4.5) придумали концепцию ролика, а затем — конкретных персонажей, совмещающих в себе животный мир, итальянскую кухню и шахматные фигуры. Пришлось долго докручивать промпт, помогать нейронке исправлять её ошибки мышления, терпеливо объяснять, что не так с исходными генерациями. Но в итоге получилось 6 забавных персонажей (по одному на каждый тип шахматной фигуры)

2) дальше с ChatGPT мы отрисовали каждого персонажа (тоже потребовалось несколько итераций и докрутка промптов до того момента, как мы с командой не были довольны результатом)

3) дальше в нейронке Runaway мы всё анимировали: превратили картинки в видео

4) вместе с ChatGPT сгенерировали текст для озвучки (в стиле оригинального брейнрот-контента: на итальянском, но с примесью словечек из других языков)

5) сделали озвучку через нейронку OpenAI fm.

Важно: тогда не было более современных видеонейронок вроде Veo 3 или Sora 2. Сегодня мы бы сгенерировали всё через них и процесс наверняка был бы короче. Но в любом случае всегда нужно иметь терпение и быть готовым заново генерировать одно и то же с небольшими "докрутками" по несколько раз.

Этот и многие другие свои кейсы применения нейронок я подробно и по шагам, с демонстрацией своего экрана и всех промптов, разбирать на новом потоке группы "Адаптация к будущему", встречи которой начнутся в конце этого месяца. Продажи откроем в ближайшие дни в этом канале — не пропустите. Мест всего 30.
🔥74😁21🙏1
Ещё один пример использования нейронок в генерации видеоконтента — музыкальный клип от моего товарища, экспериментального рэпера, выступающего под псевдонимом 21 palec.

Музыка написана самим исполнителем (без ИИ), а весь визуал клипа — дело рук нейронок.

1) Картинки, которые потом анимировались, мой кореш сделал в нейронке Flux

2) Потом оживлял их в нейронке Hedra (она далеко не лучшая по анимации, зато там удобно раскадровку делать и автоматический липсинк — сопоставление губ с текстом). Цитата моего товарища: "Там удобная функция сториборда, грузишь фото персонажа, описываешь сеттинг, добавляешь трек. Он сам генерит всё"

3) Плюс вставки с танцами генерировались в Kling 2.5 (неплохая китайская видеонейронка).

Sora 2 на момент подготовки клипа ещё не вышла, но это не остановило "Пальца". Оцените клип — на мой взгляд, классный психоделичный стиль! Тот случай, когда технологии не убивают творчество, а помогают ему, снижая порог входа в индустрию. Сегодня странно даже представить, что когда-то выпустить музыкальный клип могли позволить себе только самые успешные артисты лейблов.

https://www.youtube.com/watch?v=KWWEyMJRZZ0

АПД: товарищ написал, что сториборд — это функция агрегатора openart.ai, в котором он всё генерировал через эти нейронки. Включаете сториборд-режим. Изображения: флакс / сидрим. Оживление: хедра.
❤‍🔥62🤣1😎1
И напоследок на сегодняшний вечер — немного фана и угара для вас.

На днях устроил спонтанную фристайл-сессию для членов своего закрытого сообщества "Клуб Мастридера", и один из подписчиков попросил пофристайлить про риски ИИ (см. скриншот).

Получился забавный фристик, решил с вами тоже поделиться, чтобы разбавить полезный серьёзный контент развлекательным. Предупреждаю: в треке есть мат, да и вообще это фристайл (текст придумывается на ходу, бит я слышу впервые), так что не судите строго :)

Кстати, как вам идея прямого эфира, на котором я бы генерировал биты для фристайлов вместе с нейронкой Suno, а потом фристайлил под них? Посмотрели бы такое?
🔥8👍2🤣2🦄2😎1