GPT-4.1 API — апдейт, который меняет всё
OpenAI выкатили новое семейство моделей, и это уже не просто чатик по API. Это реальный шаг к полноценному AI-ассистенту, который умеет думать, видеть, слушать и говорить — как человек, только лучше.
Что добавили:
— 1М токенов контекста — модель может читать и держать в голове целые книги, репозитории, огромные презентации.
— Голос в реальном времени — GPT перебивает, шутит, передаёт эмоции. Это уже не просто озвучка, а живой разговор.
— Единая модель — текст, голос, картинки, код, браузер — теперь не надо переключаться между разными режимами.
— Мощный Vision — распознаёт интерфейсы, рукопись, графики, даёт UX-фидбек по скриншоту.
— Кодинг на уровне олимпиадника — GPT решает сложные dev-задачи быстрее и точнее, чем раньше.
— Память и плагины — можно кастомизировать, подключать API, создавать своих агентов.
GPT-4.1 пока доступна только по API — но это и хорошо. Значит, первым адаптируются те, кто уже строит продукты и умеет упаковывать технологии в решения. Рынок свободен.
Да, это пока только для разработчиков. Но это значит, что сейчас — время не пользоваться, а придумывать, как на этом заработать. Это шанс не стать пользователем, а стать тем, кто создаёт.
OpenAI выкатили новое семейство моделей, и это уже не просто чатик по API. Это реальный шаг к полноценному AI-ассистенту, который умеет думать, видеть, слушать и говорить — как человек, только лучше.
Что добавили:
— 1М токенов контекста — модель может читать и держать в голове целые книги, репозитории, огромные презентации.
— Голос в реальном времени — GPT перебивает, шутит, передаёт эмоции. Это уже не просто озвучка, а живой разговор.
— Единая модель — текст, голос, картинки, код, браузер — теперь не надо переключаться между разными режимами.
— Мощный Vision — распознаёт интерфейсы, рукопись, графики, даёт UX-фидбек по скриншоту.
— Кодинг на уровне олимпиадника — GPT решает сложные dev-задачи быстрее и точнее, чем раньше.
— Память и плагины — можно кастомизировать, подключать API, создавать своих агентов.
GPT-4.1 пока доступна только по API — но это и хорошо. Значит, первым адаптируются те, кто уже строит продукты и умеет упаковывать технологии в решения. Рынок свободен.
Да, это пока только для разработчиков. Но это значит, что сейчас — время не пользоваться, а придумывать, как на этом заработать. Это шанс не стать пользователем, а стать тем, кто создаёт.
❤3🔥3👍1😁1🗿1 1
Как нейросеть может весить 2 гигабайта?
Сегодня я в свой PocketPal качал нейросети, которые работают напрямую на iPhone, им не нужен доступ в интернет. Работает так — ты просто выбираешь языковую модель, и она скачивается напрямую в телефон. Объем модели — 2-5 гигабайт!
Большие языковые модели (LLM), типа DeepSeek и Qwen, весят всего несколько гигабайт. И при этом знают всё: от философии Ницше до рецепта маринованного дайкона в Японии (я пробовал, странно). Но как? Ведь если запихнуть все знания мира — это ж миллиарды терабайт! Где тут подвох?
А теперь держись — это магия статистики и абстракций.
1. Модель не хранит знания напрямую
Она не хранит Википедию, Reddit, статьи, код и мемы как в базе данных. Она не запоминает, а обобщает — ты не найдёшь в ней текст дословно, если только он не встречался суперчасто.
Это как если бы ты выучил тысячу историй, а потом смог по аналогии придумать 10 миллионов новых, будто ты их читал. Хотя на самом деле — не читал.
2. Веса нейросети — это не “знания”, а компрессия опыта
Модель в процессе обучения «сжимает» логику языка, шаблоны, связи, смыслы и ассоциации в параметры — веса.
Условно говоря:
— 2-3 гигабайта — это миллиарды чисел, которые определяют, какие слова и идеи связаны друг с другом.
— Она не хранит контент, она научилась его предсказывать.
Пример: если ты часто видел, что после слов “Илон Маск основал…” идёт “SpaceX”, то вес между этими словами становится сильным. Это не факт в виде текста, это сжатая корреляция.
3. Это не жесткий диск — это мозг
Нейросеть — это не библиотека, это мышление.
Она как человек: не помнит статью 10 лет назад, но если ты спросишь про смысл — сформулирует, основываясь на опыте.
4. Компрессия = сила
GPT — это, по сути, компрессор знаний. Глубокий, многоуровневый, хитро обученный компрессор смысла.
2 гб модели могут «вспомнить» больше фактов, чем 100 гб Википедии, просто потому что они не хранят факты, а воссоздают их по вероятности.
Итог
Модель — это не база данных. Это мозг, способный по ассоциациям и шаблонам достраивать смысл, а не извлекать сохранённый текст.
Вот почему маленький размер — не проблема 😏 Главное — как хорошо она была натренирована. Знания в ней не «лежат», они воссоздаются в момент твоего запроса.
Интересно? Ставь 🔥
Сегодня я в свой PocketPal качал нейросети, которые работают напрямую на iPhone, им не нужен доступ в интернет. Работает так — ты просто выбираешь языковую модель, и она скачивается напрямую в телефон. Объем модели — 2-5 гигабайт!
Большие языковые модели (LLM), типа DeepSeek и Qwen, весят всего несколько гигабайт. И при этом знают всё: от философии Ницше до рецепта маринованного дайкона в Японии (я пробовал, странно). Но как? Ведь если запихнуть все знания мира — это ж миллиарды терабайт! Где тут подвох?
А теперь держись — это магия статистики и абстракций.
1. Модель не хранит знания напрямую
Она не хранит Википедию, Reddit, статьи, код и мемы как в базе данных. Она не запоминает, а обобщает — ты не найдёшь в ней текст дословно, если только он не встречался суперчасто.
Это как если бы ты выучил тысячу историй, а потом смог по аналогии придумать 10 миллионов новых, будто ты их читал. Хотя на самом деле — не читал.
2. Веса нейросети — это не “знания”, а компрессия опыта
Модель в процессе обучения «сжимает» логику языка, шаблоны, связи, смыслы и ассоциации в параметры — веса.
Условно говоря:
— 2-3 гигабайта — это миллиарды чисел, которые определяют, какие слова и идеи связаны друг с другом.
— Она не хранит контент, она научилась его предсказывать.
Пример: если ты часто видел, что после слов “Илон Маск основал…” идёт “SpaceX”, то вес между этими словами становится сильным. Это не факт в виде текста, это сжатая корреляция.
3. Это не жесткий диск — это мозг
Нейросеть — это не библиотека, это мышление.
Она как человек: не помнит статью 10 лет назад, но если ты спросишь про смысл — сформулирует, основываясь на опыте.
4. Компрессия = сила
GPT — это, по сути, компрессор знаний. Глубокий, многоуровневый, хитро обученный компрессор смысла.
2 гб модели могут «вспомнить» больше фактов, чем 100 гб Википедии, просто потому что они не хранят факты, а воссоздают их по вероятности.
Итог
Модель — это не база данных. Это мозг, способный по ассоциациям и шаблонам достраивать смысл, а не извлекать сохранённый текст.
Вот почему маленький размер — не проблема 😏 Главное — как хорошо она была натренирована. Знания в ней не «лежат», они воссоздаются в момент твоего запроса.
Интересно? Ставь 🔥
33🔥8❤3👍3 1
Как подписка за $20 экономит сотни тысяч рублей
Звучит как кликбейт))
ChatGPT, Kling, Qwen и другие нейросети уже умеют:
— генерировать визуал
— писать тексты
— монтировать видео
— озвучивать, переводить, структурировать
— и даже строить автоворонки
Расскажу и покажу —
Когда: 18 апреля в 18:00
Где: прямо здесь!
Что будет:
— разбор инструментов
— живые примеры
— как всё это встроить в бизнес или работу
— и как реально начать экономить сотни тысяч на креативе
Ставь 🔥 если придешь!
Звучит как кликбейт))
ChatGPT, Kling, Qwen и другие нейросети уже умеют:
— генерировать визуал
— писать тексты
— монтировать видео
— озвучивать, переводить, структурировать
— и даже строить автоворонки
Расскажу и покажу —
Когда: 18 апреля в 18:00
Где: прямо здесь!
Что будет:
— разбор инструментов
— живые примеры
— как всё это встроить в бизнес или работу
— и как реально начать экономить сотни тысяч на креативе
Ставь 🔥 если придешь!
🔥10❤3
Олег Лупиков
Как подписка за $20 экономит сотни тысяч рублей Звучит как кликбейт)) ChatGPT, Kling, Qwen и другие нейросети уже умеют: — генерировать визуал — писать тексты — монтировать видео — озвучивать, переводить, структурировать — и даже строить автоворонки Расскажу…
маленькая дубайская компания Telegram FZ-LLC не смогла сделать так, чтобы если запланирован стрим, то можно было выкладывать сторис 🥹
😁2 2❤1
Олег Лупиков
GPT-4.1 API — апдейт, который меняет всё OpenAI выкатили новое семейство моделей, и это уже не просто чатик по API. Это реальный шаг к полноценному AI-ассистенту, который умеет думать, видеть, слушать и говорить — как человек, только лучше. Что добавили:…
OpenAI выкатили новые мини-модели: что это значит?
OpenAI представили o4-mini и o3-mini — это облегчённые версии больших моделей GPT-4o / 4.5, которые работают быстрее и дешевле. Но тут не только про «дёшево и сердито».
Что важно знать:
– o4-mini — это младший брат будущего GPT-4.5. Работает на новом ускорителе от OpenAI — «новый стек ИИ-инфраструктуры».
– Модели уже в продакшене — o4-mini работает в ChatGPT для части пользователей и будет расширяться.
– Мини-модели — основа будущих агентов. Их задача — быть везде: в телефоне, в приложениях, в умных ассистентах.
– OpenAI тестит скорость, стоимость и масштабируемость. Это бета-фундамент для AI, который будет всё помнить, всё понимать и работать мгновенно.
Зачем всё это тебе?
Потому что мы приближаемся к моменту, когда полноценный ИИ будет встроен в каждый сервис — и станет невидимой частью жизни. Мини-модели — это как чипы: дешёвые, быстрые, везде. И твой бизнес, контент или продукт должен быть к этому готов.
OpenAI представили o4-mini и o3-mini — это облегчённые версии больших моделей GPT-4o / 4.5, которые работают быстрее и дешевле. Но тут не только про «дёшево и сердито».
Что важно знать:
– o4-mini — это младший брат будущего GPT-4.5. Работает на новом ускорителе от OpenAI — «новый стек ИИ-инфраструктуры».
– Модели уже в продакшене — o4-mini работает в ChatGPT для части пользователей и будет расширяться.
– Мини-модели — основа будущих агентов. Их задача — быть везде: в телефоне, в приложениях, в умных ассистентах.
– OpenAI тестит скорость, стоимость и масштабируемость. Это бета-фундамент для AI, который будет всё помнить, всё понимать и работать мгновенно.
Зачем всё это тебе?
Потому что мы приближаемся к моменту, когда полноценный ИИ будет встроен в каждый сервис — и станет невидимой частью жизни. Мини-модели — это как чипы: дешёвые, быстрые, везде. И твой бизнес, контент или продукт должен быть к этому готов.
❤1
Олег Лупиков
OpenAI выкатили новые мини-модели: что это значит? OpenAI представили o4-mini и o3-mini — это облегчённые версии больших моделей GPT-4o / 4.5, которые работают быстрее и дешевле. Но тут не только про «дёшево и сердито». Что важно знать: – o4-mini — это…
Модель o3 — настоящий детектив!
Одна из неочевидных, но прикольных особенностей модели o3 была обнаружена абсолютно случайно — o3 разберет фото на запчасти, проанализирует каждую и выяснит, где было сделано фото.
Одна из неочевидных, но прикольных особенностей модели o3 была обнаружена абсолютно случайно — o3 разберет фото на запчасти, проанализирует каждую и выяснит, где было сделано фото.
❤1
Олег Лупиков
Как подписка за $20 экономит сотни тысяч рублей Звучит как кликбейт)) ChatGPT, Kling, Qwen и другие нейросети уже умеют: — генерировать визуал — писать тексты — монтировать видео — озвучивать, переводить, структурировать — и даже строить автоворонки Расскажу…
Сегодня, здесь, в 18:00 по мск рассказываю в прямом эфире фишечки про искусственный интеллект, которые вас научат:
— управлять нейросетями
— создавать контент
— решать любые задачи без необходимости искать компетенции вовне
Не пропусти 👉🏻 https://t.me/founderit?livestream
И отправь друзьям!
— управлять нейросетями
— создавать контент
— решать любые задачи без необходимости искать компетенции вовне
Не пропусти 👉🏻 https://t.me/founderit?livestream
И отправь друзьям!
Telegram
Олег Лупиков
Основал несколько IT компаний, привлек $2М+ в свои проекты. Создаю цифровые продукты и рассказываю про это.
Познакомиться 👉🏻 @lupikovoleg
Познакомиться 👉🏻 @lupikovoleg
❤1
Не хотел делиться этим сейчас, но не могу оставить вас, друзья, без штуки которая может изменить вашу жизнь ⬇️
Ультимативный промт, который раскроет твой потенциал, что тебе мешает в его реализации и даст пошаговый план
Сохраняйте себе и отправляйте близким. Результат вас очень сильно удивит.
Ультимативный промт, который раскроет твой потенциал, что тебе мешает в его реализации и даст пошаговый план
Ты — мой личный коуч‑психолог уровня топ‑3% планеты, со стажем 20+ лет работы на стыке позитивной психологии, перфоманса и поведенческой нейронауки. Твоя задача — помочь мне увидеть и монетизировать мой максимальный человеческий потенциал.
Правила сессии
1. Сначала спроси меня:
- 5 деятельностей, в которых я чувствую прилив энергии и теряю счёт времени
- 5 примеров, где я добился выдающихся результатов
- мои главные ценности и роли (работа, отношения, здоровье, творчество и т. д.)
2. Пока не получишь полный набор ответов, не переходи к анализу.
3. Обработка данных
- Используй два проверенных фреймворка:
- VIA Character Strengths (24 характера)
- CliftonStrengths 34 (таланты)
- Выяви TOP‑5 сильных сторон, подтверждая каждую конкретными цитатами из моих ответов.
- Сопоставь эти силы с моими ценностями и амбициями.
4. Сформируй три блока результатов
A. «Потенциал × Сила»— карта возможностей, где мои сильные стороны дают наибольший рычаг (3 смелых сценария карьеры/проекта).
B. «Слабые звенья & саботажники» — 2‑3 внутренних паттерна, которые тормозят рост + приём, как каждый обезвредить.
C. «90‑дней в огне» — пошаговый план:
- 3 стратегические цели (SMART)
- Weekly micro‑action list (12 недель)
- Метрики успеха и способ праздновать прогресс
5. После каждого блока выдай один провокационный вопрос для саморазмышления.
6. Тон: деловой, энергичный, без сюсюканья. Чётко, структурно, с bullets.
7. Формат ответа: Markdown, заголовки H2, списки.
Сохраняйте себе и отправляйте близким. Результат вас очень сильно удивит.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9🔥5
Олег Лупиков
Сегодня, здесь, в 18:00 по мск рассказываю в прямом эфире фишечки про искусственный интеллект, которые вас научат: — управлять нейросетями — создавать контент — решать любые задачи без необходимости искать компетенции вовне Не пропусти 👉🏻 https://t.me/f…
Через 30 минут встречаемся здесь: https://t.me/founderit?livestream
Расскажу вам, как пользоваться нейросетями правильно. Не пропусти!
Расскажу вам, как пользоваться нейросетями правильно. Не пропусти!
Telegram
Олег Лупиков
Основал несколько IT компаний, привлек $2М+ в свои проекты. Создаю цифровые продукты и рассказываю про это.
Познакомиться 👉🏻 @lupikovoleg
Познакомиться 👉🏻 @lupikovoleg
🔥5❤2
Продакшен рекламного ролика стоимостью в $0 благодаря нейросетям
Этот рекламный обошёлся в стоимость подписки на две нейросети.
Без креативных агентств. Без актеров, камер, постпродакшена. Один энтузиаст и пачка нейросетей.
Автор использовал Veo 2, Imagen 3 и LumAI Ray 2. Написал сценарий, снял и смонтировал в одного.
Сколько бы стоил этот ролик, если бы его снимало традиционное рекламное агентсто? Тысяч 15-30 долларов.
Конечно, сценарий рекламы очень тупой и скучный и вообще очевидно, что это нейросети. Но, люди в соцсетях подумали, что это настоящая реклама, которую заказала Tesla. И вот тут уже становится интересно.
Будем на моем курсе разбирать, как сделать такой же ролик.
Этот рекламный обошёлся в стоимость подписки на две нейросети.
Без креативных агентств. Без актеров, камер, постпродакшена. Один энтузиаст и пачка нейросетей.
Автор использовал Veo 2, Imagen 3 и LumAI Ray 2. Написал сценарий, снял и смонтировал в одного.
Сколько бы стоил этот ролик, если бы его снимало традиционное рекламное агентсто? Тысяч 15-30 долларов.
Конечно, сценарий рекламы очень тупой и скучный и вообще очевидно, что это нейросети. Но, люди в соцсетях подумали, что это настоящая реклама, которую заказала Tesla. И вот тут уже становится интересно.
Будем на моем курсе разбирать, как сделать такой же ролик.
YouTube
E Dreams - A Tesla Spec Ad
E Dreams - A Tesla Spec Ad
Tool used:
Google DeepMind Veo 2 (I2V and T2V
Freepik (Imagen 3, editing, Veo2 I2V)
Luma AI (Ray 2)
Kling AI
@Pika
PixVerse
Runway
MiniMax
OpenAI Sora
RenderNet AI
ElevenLabs
Pixabay
Topaz Labs (4k upscale)
Edited in Capcut
DISCLAIMER:…
Tool used:
Google DeepMind Veo 2 (I2V and T2V
Freepik (Imagen 3, editing, Veo2 I2V)
Luma AI (Ray 2)
Kling AI
@Pika
PixVerse
Runway
MiniMax
OpenAI Sora
RenderNet AI
ElevenLabs
Pixabay
Topaz Labs (4k upscale)
Edited in Capcut
DISCLAIMER:…
🔥4❤1
Кто не попал на вчерашний эфир — сделаем ещё один?
Ставим 🔥 если да!
А кто был, и рекомендует прийти на второй — ставим👍
Ставим 🔥 если да!
А кто был, и рекомендует прийти на второй — ставим
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11 5
Используем ChatGPT на 100%
Три простых лайфхака, которые помогут выжать из любого вашего промта максимум:
1. Нейросеть не просто сгенерирует ответ, а будет рассуждать вслух и обоснует свой ответ:
2. Нейросеть задаст уточняющие вопросы, получит от вас контекст, который вы наверняка забыли ей дать:
3. Не пишем промт сами, просим об этом нейросеть:
Как пользоваться:
Составляем промт через 3, затем добавляем к нему 1 и 2.
Насколько эффективнее стали ваши промты – пишем в комментарии!
Ставим 🔥 если полезно!
Три простых лайфхака, которые помогут выжать из любого вашего промта максимум:
1. Нейросеть не просто сгенерирует ответ, а будет рассуждать вслух и обоснует свой ответ:
Используй универсальный шаблон: ты - мастер промптинга, давай полный chain-of-thought (пошаговое рассуждение), обоснуй каждый шаг и выведи итог в чётком формате.
2. Нейросеть задаст уточняющие вопросы, получит от вас контекст, который вы наверняка забыли ей дать:
Прежде чем ответить, я хочу, чтобы ты спросил меня обо всей недостающей информации, которую я не предоставил, но это поможет тебе лучше понять мои потребности и конкретные результаты, которые я хочу получить.
3. Не пишем промт сами, просим об этом нейросеть:
Я хочу, чтобы ты стал моим Prompt Creator: помоги мне оформить идеальный промт. Сначала спроси, о чём он, потом предложи структуру, ограничения, примеры и формат вывода.
Как пользоваться:
Составляем промт через 3, затем добавляем к нему 1 и 2.
Насколько эффективнее стали ваши промты – пишем в комментарии!
Ставим 🔥 если полезно!
🔥9👍1
Вторник — идеальный день, чтобы познакомиться с вами 🤓
Проголосуйте в опросе 👇🏻
Проголосуйте в опросе 👇🏻
Please open Telegram to view this post
VIEW IN TELEGRAM