Охренеть, +1 удивительный сценарий для генератора изображений за $20
GPT-4o может превратить фоторобот преступника в фотографию!
1. Убийца Зодиак
Убийца, который дразнил полицию загадочными письмами и так и не был пойман. Все еще остается загадкой 50+ лет спустя.
2. ДБ Купер
Мужчина угнал самолет в 1971 году, выпрыгнул с парашютом с $200 тыс. и исчез. Никто не знает, кем он был и куда отправился.
3. Черный Георгин
В 1947 году в Лос-Анджелесе была найдена зверски убитой молодая актриса. Ее дело потрясло всю страну и до сих пор не раскрыто.
4. Монстр Флоренции
Убийца преследовал пары в Италии в 70-х и 80-х годах. До сих пор не раскрыт. Вдохновил на книги и фильмы.
GPT-4o может превратить фоторобот преступника в фотографию!
1. Убийца Зодиак
Убийца, который дразнил полицию загадочными письмами и так и не был пойман. Все еще остается загадкой 50+ лет спустя.
2. ДБ Купер
Мужчина угнал самолет в 1971 году, выпрыгнул с парашютом с $200 тыс. и исчез. Никто не знает, кем он был и куда отправился.
3. Черный Георгин
В 1947 году в Лос-Анджелесе была найдена зверски убитой молодая актриса. Ее дело потрясло всю страну и до сих пор не раскрыто.
4. Монстр Флоренции
Убийца преследовал пары в Италии в 70-х и 80-х годах. До сих пор не раскрыт. Вдохновил на книги и фильмы.
🔥2
Вышла MidJourney v7 💥
Прошлая версия вышла аж два года назад, в 2023!
Тезисно, про новую версию одной из самых классных нейросетей для картинок:
— это не мультимодальная модель и применение тут не то же самое, что в ChatGPT и Gemini
— модель стала точнее в генерации по описаниям, характеристикам и тд
— появилась персонализация — надо пройти тест из выбора 200 картинок
— появился draft-режим для быстрой визуализации
— голосовое управление! голосом говоришь нейросети а она быстро в draft визуализирует
Разработчики обещают обновления для v7 каждую неделю-две, и сейчас, думаю, будут быстро стремиться догнать GPT-4o.
Прошлая версия вышла аж два года назад, в 2023!
Тезисно, про новую версию одной из самых классных нейросетей для картинок:
— это не мультимодальная модель и применение тут не то же самое, что в ChatGPT и Gemini
— модель стала точнее в генерации по описаниям, характеристикам и тд
— появилась персонализация — надо пройти тест из выбора 200 картинок
— появился draft-режим для быстрой визуализации
— голосовое управление! голосом говоришь нейросети а она быстро в draft визуализирует
Разработчики обещают обновления для v7 каждую неделю-две, и сейчас, думаю, будут быстро стремиться догнать GPT-4o.
👍2
Олег Лупиков
Вышла MidJourney v7 💥 Прошлая версия вышла аж два года назад, в 2023! Тезисно, про новую версию одной из самых классных нейросетей для картинок: — это не мультимодальная модель и применение тут не то же самое, что в ChatGPT и Gemini — модель стала точнее…
✨ aesthetic ✨
Уровень реализма зашкаливает
Уровень реализма зашкаливает
🔥4 2
ночное 💭
я вот не слышал ни одной песни Паши Техника и все, что о нем знаю — это видел какие-то reels с ним и на протяжении нескольких лет про то как он ложится в рехабы и выходит из них
в целом к любым видам наркотиков и употребляющим их людям я отношусь отрицательно
но конкретно эта ситуация вызывает у меня какую-то тоску и грусть
наркотики — зло и этого человека правда жалко потому что он, судя по тому что было в новостях за последние лет 5, сам себе оказался не в состоянии помочь. это очень грустно
в целом к любым видам наркотиков и употребляющим их людям я отношусь отрицательно
но конкретно эта ситуация вызывает у меня какую-то тоску и грусть
наркотики — зло и этого человека правда жалко потому что он, судя по тому что было в новостях за последние лет 5, сам себе оказался не в состоянии помочь. это очень грустно
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5
Media is too big
VIEW IN TELEGRAM
Что, если бы актеры могли сделать селфи со своими персонажами?
—
Как мило, что нейросети позволяют визуализировать самые разные фантазии. Так, например, в Reddit на днях удивлялись тому, что GPT-4o позволяет увидеть, как на самом деле выглядели египетские пирамиды, когда их только построили!
А вы уже визуализировали что-нибудь нереальное?
—
Как мило, что нейросети позволяют визуализировать самые разные фантазии. Так, например, в Reddit на днях удивлялись тому, что GPT-4o позволяет увидеть, как на самом деле выглядели египетские пирамиды, когда их только построили!
А вы уже визуализировали что-нибудь нереальное?
❤3
Олег Лупиков
Кто еще считает, что второй TRON — величайший фильм? 🍿 Большая радость, что съемки третьего уже идут
Я 15 лет ждал этого. Вышел трейлер фильма TRON: Ares 💥 в кинотеатрах — 10 октября 2025
Предыдущая часть, TRON Legacy — это один из моих самых любимых фильмов, который в целом на мое мировоззрение повлиял.
Предыдущая часть, TRON Legacy — это один из моих самых любимых фильмов, который в целом на мое мировоззрение повлиял.
YouTube
Tron: Ares | Official Trailer
This October, worlds will collide.
Tron: Ares. Only in theaters 10.10.25
SUBSCRIBE to get notified when new Disney videos are posted: http://di.sn/Subscribe
Get even more from Disney!
Instagram: http://Instagram.com/Disney
Twitter: http://Twitter.com/Disney…
Tron: Ares. Only in theaters 10.10.25
SUBSCRIBE to get notified when new Disney videos are posted: http://di.sn/Subscribe
Get even more from Disney!
Instagram: http://Instagram.com/Disney
Twitter: http://Twitter.com/Disney…
1🔥5❤1
Сэм Альтман не просто СЕО OpenAI, но еще и гений
И я щас расскажу тебе, как онвас нас всех на**бал
Да, именно тебя с твоим аниме-портретиком в сторис.
Все видели этот тренд с анимешными фотками в стиле Студии Гибли, фанки поп и экшн игрушками, саус парк едитами и манга комиксами. Выглядит круто!
А теперь слушай внимательно⚠️
Это — маскировка сбора обучающих данных под видом хайпа.
Смотри как это работает:
1. OpenAI запускает новый генератор картинок в GPT-4o.
2. Вбрасывает в инфопространство тренд с Гибли через неких инфлюенсеров.
3. Люди начинают массово загружать свои фотки → генерить по 20-50 картинок каждый → делиться ими повсюду.
4. Что получает OpenAI?
— МИЛЛИОНЫ размеченных изображений.
— Тонны данных «до и после»: твое лицо и то, как ты хочешь выглядеть.
— Идеальный датасет для тонкой настройки персонализированной генерации.
Ты думал, что просто балуешься? А теперь у OpenAI десятки твоих личных фотографий тебя, твоей девушки, твоих детей, твоей собаки и бог ещё знает что ты загружал в ChatGPT, генерируя «крутую аниме аватарку»
(лично я точно около сотни фотографий отправил Сэму)
Если интересно — ставим реакции и я расскажу правила взаимодействия с нейросетями, чтобы никаких чувствительных данных не украли и ты однажды не обнаружил то, что никому не положено знать 😂
И я щас расскажу тебе, как он
Да, именно тебя с твоим аниме-портретиком в сторис.
Все видели этот тренд с анимешными фотками в стиле Студии Гибли, фанки поп и экшн игрушками, саус парк едитами и манга комиксами. Выглядит круто!
А теперь слушай внимательно
Это — маскировка сбора обучающих данных под видом хайпа.
Смотри как это работает:
1. OpenAI запускает новый генератор картинок в GPT-4o.
2. Вбрасывает в инфопространство тренд с Гибли через неких инфлюенсеров.
3. Люди начинают массово загружать свои фотки → генерить по 20-50 картинок каждый → делиться ими повсюду.
4. Что получает OpenAI?
— МИЛЛИОНЫ размеченных изображений.
— Тонны данных «до и после»: твое лицо и то, как ты хочешь выглядеть.
— Идеальный датасет для тонкой настройки персонализированной генерации.
Ты думал, что просто балуешься? А теперь у OpenAI десятки твоих личных фотографий тебя, твоей девушки, твоих детей, твоей собаки и бог ещё знает что ты загружал в ChatGPT, генерируя «крутую аниме аватарку»
Если интересно — ставим реакции и я расскажу правила взаимодействия с нейросетями, чтобы никаких чувствительных данных не украли и ты однажды не обнаружил то, что никому не положено знать 😂
Please open Telegram to view this post
VIEW IN TELEGRAM
КАК ПИСАТЬ ПРОМТЫ ПРАВИЛЬНО — понимание механизмов работы LLM позволит использовать нейросети на 100%.
Короче, промт-инжиниринг — это не просто «напиши вот это». Тут психология, сценарий, чёткое ТЗ и понимание того как работают LLM. Сейчас объясню, почему важно указывать роль, формат, контекст и стиль.
Почему надо задавать роль:
Потому что LLM (любая большая языковая модель) — это имитация мышления. Она не «знает», как быть крутым маркетологом или продавцом, пока ты ей не скажешь, что она им является.
Чтобы модель не тупила и думала сама (ведь думать она не умеет), ты говоришь: «Пиши дерзко», «Формат — пост в Telegram, 5 абзацев, с юмором».
Вообще-то, LLM — это не база знаний, не Google и не Википедия. Это предсказательная машина, которая смотрит на твой промт и пытается угадать «что дальше должно быть логично».
Вот универсальный шаблон, который можно использовать везде:
Это не логика и не база данных, а мощный имитатор того, как должен выглядеть «разумный ответ» в зависимости от входа.
Когда ты говоришь «Ты — дерзкий стартап-основатель», LLM активирует шаблоны, фразы, паттерны, которые она видела в текстах, написанных таким тоном, такой ролью.
Это как:
— Говоришь «будь врачом» — модель начнёт использовать медицину, терминологию, паттерны.
— Говоришь «будь TikTok-маркетологом» — модель «вытаскивает» тональность и форму из инфополя TikTok кейсов, инструкций и постов.
Фактически, ты даёшь ей маршрут, по какому слою знаний идти.
Именно поэтому, когда ты говоришь «ты — опытный маркетолог», модель выдаст тот слой знаний, который фигурировал в текстах от опытных маркетологов. Не задашь роль — она и не выдаст знания оттуда.
Контекст = ограничение поиска
Контекст — это фильтр, который подсказывает, какую именно информацию «доставать» из всей модели.
Пример:
— Если ты просто скажешь: «Напиши стратегию роста», то модель будет гадать — для кого, куда, какой рынок?
— Если ты скажешь: «Стартап на рынке ИИ, целевая аудитория — основатели и CTO, канал привлечения — Telegram», — она ограничит зону поиска до шаблонов, где фигурируют ИИ, Telegram, B2B-аудитория.
Что происходит внутри при генерации:
1. Ты пишешь промт:
«Ты — TikTok-маркетолог. Напиши вирусный скрипт про ИИ, чтобы набрать 100к просмотров. Стиль — дерзкий, с матом, в формате сторителлинга.»
2. Модель разбивает его на токены, запускает их в attention-механизм, где каждый слой модели (а их сотни) взвешивает, что важно: роль? стиль? цель?
3. Эти веса складываются в вектор представления (embedding), по сути, это координаты в многомерном смысле, где уже заранее «висят» похожие куски знаний.
4. На основе этих координат модель ищет ближайшие по смыслу куски данных, которые похожи на то, что ты просишь. Но не «ищет» буквально — она предсказывает следующий токен, который максимально логично вписывается в заданный паттерн.
5. Выходной текст — это не просто ответ, а предсказание того, что «наилучший ответ на этот вход будет вот такой», с учётом всего: роли, формата, цели.
Базовое понимание того, как работает LLM позволит тебе использовать ее на 100% и получать предсказуемые и качественные результаты. Без контекста нейросеть выдает воду в 70%, с контекстом — хороший ответ будет в 90%.
Сохраняй, изучай и делись этим!
Короче, промт-инжиниринг — это не просто «напиши вот это». Тут психология, сценарий, чёткое ТЗ и понимание того как работают LLM. Сейчас объясню, почему важно указывать роль, формат, контекст и стиль.
Почему надо задавать роль:
Потому что LLM (любая большая языковая модель) — это имитация мышления. Она не «знает», как быть крутым маркетологом или продавцом, пока ты ей не скажешь, что она им является.
Чтобы модель не тупила и думала сама (ведь думать она не умеет), ты говоришь: «Пиши дерзко», «Формат — пост в Telegram, 5 абзацев, с юмором».
Вообще-то, LLM — это не база знаний, не Google и не Википедия. Это предсказательная машина, которая смотрит на твой промт и пытается угадать «что дальше должно быть логично».
Вот универсальный шаблон, который можно использовать везде:
Ты — [роль или персонаж].
Твоя задача — [основная цель].
Контекст: [описание проекта, ЦА, ситуации, бизнес-цель].
Требования к стилю: [тон, настроение, вайб, юмор, мат, эмодзи и т.д.].
Формат: [таблица, список, пост, код, mindmap и т.п.].
Это не логика и не база данных, а мощный имитатор того, как должен выглядеть «разумный ответ» в зависимости от входа.
Когда ты говоришь «Ты — дерзкий стартап-основатель», LLM активирует шаблоны, фразы, паттерны, которые она видела в текстах, написанных таким тоном, такой ролью.
Это как:
— Говоришь «будь врачом» — модель начнёт использовать медицину, терминологию, паттерны.
— Говоришь «будь TikTok-маркетологом» — модель «вытаскивает» тональность и форму из инфополя TikTok кейсов, инструкций и постов.
Фактически, ты даёшь ей маршрут, по какому слою знаний идти.
Именно поэтому, когда ты говоришь «ты — опытный маркетолог», модель выдаст тот слой знаний, который фигурировал в текстах от опытных маркетологов. Не задашь роль — она и не выдаст знания оттуда.
Контекст = ограничение поиска
Контекст — это фильтр, который подсказывает, какую именно информацию «доставать» из всей модели.
Пример:
— Если ты просто скажешь: «Напиши стратегию роста», то модель будет гадать — для кого, куда, какой рынок?
— Если ты скажешь: «Стартап на рынке ИИ, целевая аудитория — основатели и CTO, канал привлечения — Telegram», — она ограничит зону поиска до шаблонов, где фигурируют ИИ, Telegram, B2B-аудитория.
Что происходит внутри при генерации:
1. Ты пишешь промт:
«Ты — TikTok-маркетолог. Напиши вирусный скрипт про ИИ, чтобы набрать 100к просмотров. Стиль — дерзкий, с матом, в формате сторителлинга.»
2. Модель разбивает его на токены, запускает их в attention-механизм, где каждый слой модели (а их сотни) взвешивает, что важно: роль? стиль? цель?
3. Эти веса складываются в вектор представления (embedding), по сути, это координаты в многомерном смысле, где уже заранее «висят» похожие куски знаний.
4. На основе этих координат модель ищет ближайшие по смыслу куски данных, которые похожи на то, что ты просишь. Но не «ищет» буквально — она предсказывает следующий токен, который максимально логично вписывается в заданный паттерн.
5. Выходной текст — это не просто ответ, а предсказание того, что «наилучший ответ на этот вход будет вот такой», с учётом всего: роли, формата, цели.
Базовое понимание того, как работает LLM позволит тебе использовать ее на 100% и получать предсказуемые и качественные результаты. Без контекста нейросеть выдает воду в 70%, с контекстом — хороший ответ будет в 90%.
Сохраняй, изучай и делись этим!
👍9❤3🔥3