Олег Лупиков
4.34K subscribers
1.49K photos
186 videos
8 files
773 links
Инженер, предприниматель, автор. Создаю цифровые продукты и проектирую контент. Консультация: @lupikovoleg
Download Telegram
ночное 💭

я вот не слышал ни одной песни Паши Техника и все, что о нем знаю — это видел какие-то reels с ним и на протяжении нескольких лет про то как он ложится в рехабы и выходит из них

в целом к любым видам наркотиков и употребляющим их людям я отношусь отрицательно

но конкретно эта ситуация вызывает у меня какую-то тоску и грусть

наркотики — зло и этого человека правда жалко потому что он, судя по тому что было в новостях за последние лет 5, сам себе оказался не в состоянии помочь. это очень грустно
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5
Media is too big
VIEW IN TELEGRAM
Что, если бы актеры могли сделать селфи со своими персонажами?


Как мило, что нейросети позволяют визуализировать самые разные фантазии. Так, например, в Reddit на днях удивлялись тому, что GPT-4o позволяет увидеть, как на самом деле выглядели египетские пирамиды, когда их только построили!

А вы уже визуализировали что-нибудь нереальное?
3
Сэм Альтман не просто СЕО OpenAI, но еще и гений

И я щас расскажу тебе, как он вас
нас всех на**бал

Да, именно тебя с твоим аниме-портретиком в сторис.

Все видели этот тренд с анимешными фотками в стиле Студии Гибли, фанки поп и экшн игрушками, саус парк едитами и манга комиксами. Выглядит круто!

А теперь слушай внимательно ⚠️

Это — маскировка сбора обучающих данных под видом хайпа.

Смотри как это работает:

1. OpenAI запускает новый генератор картинок в GPT-4o.
2. Вбрасывает в инфопространство тренд с Гибли через неких инфлюенсеров.
3. Люди начинают массово загружать свои фотки → генерить по 20-50 картинок каждый → делиться ими повсюду.
4. Что получает OpenAI?
— МИЛЛИОНЫ размеченных изображений.
— Тонны данных «до и после»: твое лицо и то, как ты хочешь выглядеть.
— Идеальный датасет для тонкой настройки персонализированной генерации.

Ты думал, что просто балуешься? А теперь у OpenAI десятки твоих личных фотографий тебя, твоей девушки, твоих детей, твоей собаки и бог ещё знает что ты загружал в ChatGPT, генерируя «крутую аниме аватарку»

(лично я точно около сотни фотографий отправил Сэму)

Если интересно — ставим реакции и я расскажу правила взаимодействия с нейросетями, чтобы никаких чувствительных данных не украли и ты однажды не обнаружил то, что никому не положено знать 😂
Please open Telegram to view this post
VIEW IN TELEGRAM
10
КАК ПИСАТЬ ПРОМТЫ ПРАВИЛЬНО — понимание механизмов работы LLM позволит использовать нейросети на 100%.

Короче, промт-инжиниринг — это не просто «напиши вот это». Тут психология, сценарий, чёткое ТЗ и понимание того как работают LLM. Сейчас объясню, почему важно указывать роль, формат, контекст и стиль.

Почему надо задавать роль:

Потому что LLM (любая большая языковая модель) — это имитация мышления. Она не «знает», как быть крутым маркетологом или продавцом, пока ты ей не скажешь, что она им является.

Чтобы модель не тупила и думала сама (ведь думать она не умеет), ты говоришь: «Пиши дерзко», «Формат — пост в Telegram, 5 абзацев, с юмором».

Вообще-то, LLM — это не база знаний, не Google и не Википедия. Это предсказательная машина, которая смотрит на твой промт и пытается угадать «что дальше должно быть логично».

Вот универсальный шаблон, который можно использовать везде:

Ты — [роль или персонаж].
Твоя задача — [основная цель].
Контекст: [описание проекта, ЦА, ситуации, бизнес-цель].
Требования к стилю: [тон, настроение, вайб, юмор, мат, эмодзи и т.д.].
Формат: [таблица, список, пост, код, mindmap и т.п.].


Это не логика и не база данных, а мощный имитатор того, как должен выглядеть «разумный ответ» в зависимости от входа.

Когда ты говоришь «Ты — дерзкий стартап-основатель», LLM активирует шаблоны, фразы, паттерны, которые она видела в текстах, написанных таким тоном, такой ролью.

Это как:
— Говоришь «будь врачом» — модель начнёт использовать медицину, терминологию, паттерны.
— Говоришь «будь TikTok-маркетологом» — модель «вытаскивает» тональность и форму из инфополя TikTok кейсов, инструкций и постов.

Фактически, ты даёшь ей маршрут, по какому слою знаний идти.

Именно поэтому, когда
ты говоришь «ты — опытный маркетолог», модель выдаст тот слой знаний, который фигурировал в текстах от опытных маркетологов. Не задашь роль — она и не выдаст знания оттуда.

Контекст = ограничение поиска

Контекст — это фильтр, который подсказывает, какую именно информацию «доставать» из всей модели.

Пример:
— Если ты просто скажешь: «Напиши стратегию роста», то модель будет гадать — для кого, куда, какой рынок?
— Если ты скажешь: «Стартап на рынке ИИ, целевая аудитория — основатели и CTO, канал привлечения — Telegram», — она ограничит зону поиска до шаблонов, где фигурируют ИИ, Telegram, B2B-аудитория.

Что происходит внутри при генерации:

1. Ты пишешь промт:
«Ты — TikTok-маркетолог. Напиши вирусный скрипт про ИИ, чтобы набрать 100к просмотров. Стиль — дерзкий, с матом, в формате сторителлинга.»
2. Модель разбивает его на токены, запускает их в attention-механизм, где каждый слой модели (а их сотни) взвешивает, что важно: роль? стиль? цель?
3. Эти веса складываются в вектор представления (embedding), по сути, это координаты в многомерном смысле, где уже заранее «висят» похожие куски знаний.
4. На основе этих координат модель ищет ближайшие по смыслу куски данных, которые похожи на то, что ты просишь. Но не «ищет» буквально — она предсказывает следующий токен, который максимально логично вписывается в заданный паттерн.
5. Выходной текст — это не просто ответ, а предсказание того, что «наилучший ответ на этот вход будет вот такой», с учётом всего: роли, формата, цели.

Базовое понимание того, как работает LLM позволит тебе использовать ее на 100% и получать предсказуемые и качественные результаты. Без контекста нейросеть выдает воду в 70%, с контекстом — хороший ответ будет в 90%.

Сохраняй, изучай и делись этим!
👍93🔥3
MCP (Model Context Protocol) становится признанным стандартом в ИИ

Model Context Protocol — это открытый стандарт, который позволяет разработчикам создавать безопасные двусторонние соединения между их источниками данных и инструментами на основе искусственного интеллекта.

ИИ агенты теперь могут взаимодействовать с реальными инструментами и приложениями и действительно выполнять поставленные задачи.

Это меняет все.

Безумные примеры MCP:

— Figma MCP — модуль, который позволяет через Cursor создать дизайн пользовательских интерфейсов.

— Unity MCP — создание целой игры на движке через промты к нейросети.

— WhatsApp MCP — умеет общаться в вотсапе, отправлять картинки, видео и голосовые.

— Unreal MCP — как с Unity, создание игр через промты на Unreal Engine.

Стандарт MCP создали в Anthropic (Claude), но он стал настолько популярным, что даже конкуренты, OpenAI — приняли его и добавили поддержку в агентов ChatGPT.
👍2
МОЕ ЛИЧНОЕ ОБУЧЕНИЕ ПО НЕЙРОСЕТЯМ С НУЛЯ ДО PRO

Теперь все, что нужно, делают нейросети.
Путь от идеи до реализации в тот же день. Игра, песня, стратегия маркетинга.

Последние 3 года я вгрызался в нейросети каждый день, вы знаете.
Не просто «новую нейронку потестил» — я реально перестроил свою работу с информацией, работу над продуктами, даже лайфстайл и изучаю прикладное применение всех инструментов
ИИ стал моим вторым мозгом.

И теперь я запускаю AI WORKSHOP 3 (три) —
это не курс, это система, которая встраивает ИИ в твою работу и жизнь.

Ты научишься:

— создавать контент, который выглядит как от команды, без команды
— писать промты, которые реально работают
— автоматизировать рутину и то, за что обычно платят сотрудникам
— зарабатывать быстрее с помощью нейросетей

И всё это — через видео, практику, шаблоны, готовые сценарии.

Форматы:

Базовый.
PRO с вебинарами и разборами.
VIP — со мной лично, зум, сопровождение.

Если ты:

— предприниматель
— фрилансер
— айтишник
— маркетолог
— или просто хочешь перестать жить как в 2007
тебе сюда.

Пиши мне в личку, и я пришлю подробности.

Буду рад видеть тебя на борту.
6🔥2
Forwarded from Mikhail Shvetsov
This media is not supported in your browser
VIEW IN TELEGRAM
2
GPT-4.1 API — апдейт, который меняет всё

OpenAI выкатили новое семейство моделей, и это уже не просто чатик по API. Это реальный шаг к полноценному AI-ассистенту, который умеет думать, видеть, слушать и говорить — как человек, только лучше.

Что добавили:
1М токенов контекста — модель может читать и держать в голове целые книги, репозитории, огромные презентации.
Голос в реальном времени — GPT перебивает, шутит, передаёт эмоции. Это уже не просто озвучка, а живой разговор.
Единая модель — текст, голос, картинки, код, браузер — теперь не надо переключаться между разными режимами.
Мощный Vision — распознаёт интерфейсы, рукопись, графики, даёт UX-фидбек по скриншоту.
Кодинг на уровне олимпиадника — GPT решает сложные dev-задачи быстрее и точнее, чем раньше.
Память и плагины — можно кастомизировать, подключать API, создавать своих агентов.

GPT-4.1 пока доступна только по API — но это и хорошо. Значит, первым адаптируются те, кто уже строит продукты и умеет упаковывать технологии в решения. Рынок свободен.

Да, это пока только для разработчиков. Но это значит, что сейчас — время не пользоваться, а придумывать, как на этом заработать. Это шанс не стать пользователем, а стать тем, кто создаёт.
3🔥3👍1😁1🗿11
Как нейросеть может весить 2 гигабайта?

Сегодня я в свой PocketPal качал нейросети, которые работают напрямую на iPhone, им не нужен доступ в интернет. Работает так — ты просто выбираешь языковую модель, и она скачивается напрямую в телефон. Объем модели — 2-5 гигабайт!

Большие языковые модели (LLM), типа DeepSeek и Qwen, весят всего несколько гигабайт. И при этом знают всё: от философии Ницше до рецепта маринованного дайкона в Японии (я пробовал, странно). Но как? Ведь если запихнуть все знания мира — это ж миллиарды терабайт! Где тут подвох?

А теперь держись — это магия статистики и абстракций.

1. Модель не хранит знания напрямую

Она не хранит Википедию, Reddit, статьи, код и мемы как в базе данных. Она не запоминает, а обобщает — ты не найдёшь в ней текст дословно, если только он не встречался суперчасто.

Это как если бы ты выучил тысячу историй, а потом смог по аналогии придумать 10 миллионов новых, будто ты их читал. Хотя на самом деле — не читал.

2. Веса нейросети — это не “знания”, а компрессия опыта

Модель в процессе обучения «сжимает» логику языка, шаблоны, связи, смыслы и ассоциации в параметры — веса.
Условно говоря:
— 2-3 гигабайта — это миллиарды чисел, которые определяют, какие слова и идеи связаны друг с другом.
— Она не хранит контент, она научилась его предсказывать.

Пример: если ты часто видел, что после слов “Илон Маск основал…” идёт “SpaceX”, то вес между этими словами становится сильным. Это не факт в виде текста, это сжатая корреляция.

3. Это не жесткий диск — это мозг

Нейросеть — это не библиотека, это мышление.
Она как человек: не помнит статью 10 лет назад, но если ты спросишь про смысл — сформулирует, основываясь на опыте.

4. Компрессия = сила

GPT — это, по сути, компрессор знаний. Глубокий, многоуровневый, хитро обученный компрессор смысла.
2 гб модели могут «вспомнить» больше фактов, чем 100 гб Википедии, просто потому что они не хранят факты, а воссоздают их по вероятности.

Итог

Модель — это не база данных. Это мозг, способный по ассоциациям и шаблонам достраивать смысл, а не извлекать сохранённый текст.
Вот почему маленький размер — не проблема 😏 Главное — как хорошо она была натренирована. Знания в ней не «лежат», они воссоздаются в момент твоего запроса.

Интересно? Ставь 🔥
33🔥83👍31
Как подписка за $20 экономит сотни тысяч рублей

Звучит как кликбейт))

ChatGPT, Kling, Qwen и другие нейросети уже умеют:
— генерировать визуал
— писать тексты
— монтировать видео
— озвучивать, переводить, структурировать
— и даже строить автоворонки

Расскажу и покажу —
Когда: 18 апреля в 18:00
Где: прямо здесь!

Что будет:

— разбор инструментов
— живые примеры
— как всё это встроить в бизнес или работу
— и как реально начать экономить сотни тысяч на креативе

Ставь 🔥 если придешь!
🔥103