Как нейросеть может весить 2 гигабайта?
Сегодня я в свой PocketPal качал нейросети, которые работают напрямую на iPhone, им не нужен доступ в интернет. Работает так — ты просто выбираешь языковую модель, и она скачивается напрямую в телефон. Объем модели — 2-5 гигабайт!
Большие языковые модели (LLM), типа DeepSeek и Qwen, весят всего несколько гигабайт. И при этом знают всё: от философии Ницше до рецепта маринованного дайкона в Японии (я пробовал, странно). Но как? Ведь если запихнуть все знания мира — это ж миллиарды терабайт! Где тут подвох?
А теперь держись — это магия статистики и абстракций.
1. Модель не хранит знания напрямую
Она не хранит Википедию, Reddit, статьи, код и мемы как в базе данных. Она не запоминает, а обобщает — ты не найдёшь в ней текст дословно, если только он не встречался суперчасто.
Это как если бы ты выучил тысячу историй, а потом смог по аналогии придумать 10 миллионов новых, будто ты их читал. Хотя на самом деле — не читал.
2. Веса нейросети — это не “знания”, а компрессия опыта
Модель в процессе обучения «сжимает» логику языка, шаблоны, связи, смыслы и ассоциации в параметры — веса.
Условно говоря:
— 2-3 гигабайта — это миллиарды чисел, которые определяют, какие слова и идеи связаны друг с другом.
— Она не хранит контент, она научилась его предсказывать.
Пример: если ты часто видел, что после слов “Илон Маск основал…” идёт “SpaceX”, то вес между этими словами становится сильным. Это не факт в виде текста, это сжатая корреляция.
3. Это не жесткий диск — это мозг
Нейросеть — это не библиотека, это мышление.
Она как человек: не помнит статью 10 лет назад, но если ты спросишь про смысл — сформулирует, основываясь на опыте.
4. Компрессия = сила
GPT — это, по сути, компрессор знаний. Глубокий, многоуровневый, хитро обученный компрессор смысла.
2 гб модели могут «вспомнить» больше фактов, чем 100 гб Википедии, просто потому что они не хранят факты, а воссоздают их по вероятности.
Итог
Модель — это не база данных. Это мозг, способный по ассоциациям и шаблонам достраивать смысл, а не извлекать сохранённый текст.
Вот почему маленький размер — не проблема 😏 Главное — как хорошо она была натренирована. Знания в ней не «лежат», они воссоздаются в момент твоего запроса.
Интересно? Ставь 🔥
Сегодня я в свой PocketPal качал нейросети, которые работают напрямую на iPhone, им не нужен доступ в интернет. Работает так — ты просто выбираешь языковую модель, и она скачивается напрямую в телефон. Объем модели — 2-5 гигабайт!
Большие языковые модели (LLM), типа DeepSeek и Qwen, весят всего несколько гигабайт. И при этом знают всё: от философии Ницше до рецепта маринованного дайкона в Японии (я пробовал, странно). Но как? Ведь если запихнуть все знания мира — это ж миллиарды терабайт! Где тут подвох?
А теперь держись — это магия статистики и абстракций.
1. Модель не хранит знания напрямую
Она не хранит Википедию, Reddit, статьи, код и мемы как в базе данных. Она не запоминает, а обобщает — ты не найдёшь в ней текст дословно, если только он не встречался суперчасто.
Это как если бы ты выучил тысячу историй, а потом смог по аналогии придумать 10 миллионов новых, будто ты их читал. Хотя на самом деле — не читал.
2. Веса нейросети — это не “знания”, а компрессия опыта
Модель в процессе обучения «сжимает» логику языка, шаблоны, связи, смыслы и ассоциации в параметры — веса.
Условно говоря:
— 2-3 гигабайта — это миллиарды чисел, которые определяют, какие слова и идеи связаны друг с другом.
— Она не хранит контент, она научилась его предсказывать.
Пример: если ты часто видел, что после слов “Илон Маск основал…” идёт “SpaceX”, то вес между этими словами становится сильным. Это не факт в виде текста, это сжатая корреляция.
3. Это не жесткий диск — это мозг
Нейросеть — это не библиотека, это мышление.
Она как человек: не помнит статью 10 лет назад, но если ты спросишь про смысл — сформулирует, основываясь на опыте.
4. Компрессия = сила
GPT — это, по сути, компрессор знаний. Глубокий, многоуровневый, хитро обученный компрессор смысла.
2 гб модели могут «вспомнить» больше фактов, чем 100 гб Википедии, просто потому что они не хранят факты, а воссоздают их по вероятности.
Итог
Модель — это не база данных. Это мозг, способный по ассоциациям и шаблонам достраивать смысл, а не извлекать сохранённый текст.
Вот почему маленький размер — не проблема 😏 Главное — как хорошо она была натренирована. Знания в ней не «лежат», они воссоздаются в момент твоего запроса.
Интересно? Ставь 🔥
33🔥8❤3👍3 1
Как подписка за $20 экономит сотни тысяч рублей
Звучит как кликбейт))
ChatGPT, Kling, Qwen и другие нейросети уже умеют:
— генерировать визуал
— писать тексты
— монтировать видео
— озвучивать, переводить, структурировать
— и даже строить автоворонки
Расскажу и покажу —
Когда: 18 апреля в 18:00
Где: прямо здесь!
Что будет:
— разбор инструментов
— живые примеры
— как всё это встроить в бизнес или работу
— и как реально начать экономить сотни тысяч на креативе
Ставь 🔥 если придешь!
Звучит как кликбейт))
ChatGPT, Kling, Qwen и другие нейросети уже умеют:
— генерировать визуал
— писать тексты
— монтировать видео
— озвучивать, переводить, структурировать
— и даже строить автоворонки
Расскажу и покажу —
Когда: 18 апреля в 18:00
Где: прямо здесь!
Что будет:
— разбор инструментов
— живые примеры
— как всё это встроить в бизнес или работу
— и как реально начать экономить сотни тысяч на креативе
Ставь 🔥 если придешь!
🔥10❤3
Олег Лупиков
Как подписка за $20 экономит сотни тысяч рублей Звучит как кликбейт)) ChatGPT, Kling, Qwen и другие нейросети уже умеют: — генерировать визуал — писать тексты — монтировать видео — озвучивать, переводить, структурировать — и даже строить автоворонки Расскажу…
маленькая дубайская компания Telegram FZ-LLC не смогла сделать так, чтобы если запланирован стрим, то можно было выкладывать сторис 🥹
😁2 2❤1
Олег Лупиков
GPT-4.1 API — апдейт, который меняет всё OpenAI выкатили новое семейство моделей, и это уже не просто чатик по API. Это реальный шаг к полноценному AI-ассистенту, который умеет думать, видеть, слушать и говорить — как человек, только лучше. Что добавили:…
OpenAI выкатили новые мини-модели: что это значит?
OpenAI представили o4-mini и o3-mini — это облегчённые версии больших моделей GPT-4o / 4.5, которые работают быстрее и дешевле. Но тут не только про «дёшево и сердито».
Что важно знать:
– o4-mini — это младший брат будущего GPT-4.5. Работает на новом ускорителе от OpenAI — «новый стек ИИ-инфраструктуры».
– Модели уже в продакшене — o4-mini работает в ChatGPT для части пользователей и будет расширяться.
– Мини-модели — основа будущих агентов. Их задача — быть везде: в телефоне, в приложениях, в умных ассистентах.
– OpenAI тестит скорость, стоимость и масштабируемость. Это бета-фундамент для AI, который будет всё помнить, всё понимать и работать мгновенно.
Зачем всё это тебе?
Потому что мы приближаемся к моменту, когда полноценный ИИ будет встроен в каждый сервис — и станет невидимой частью жизни. Мини-модели — это как чипы: дешёвые, быстрые, везде. И твой бизнес, контент или продукт должен быть к этому готов.
OpenAI представили o4-mini и o3-mini — это облегчённые версии больших моделей GPT-4o / 4.5, которые работают быстрее и дешевле. Но тут не только про «дёшево и сердито».
Что важно знать:
– o4-mini — это младший брат будущего GPT-4.5. Работает на новом ускорителе от OpenAI — «новый стек ИИ-инфраструктуры».
– Модели уже в продакшене — o4-mini работает в ChatGPT для части пользователей и будет расширяться.
– Мини-модели — основа будущих агентов. Их задача — быть везде: в телефоне, в приложениях, в умных ассистентах.
– OpenAI тестит скорость, стоимость и масштабируемость. Это бета-фундамент для AI, который будет всё помнить, всё понимать и работать мгновенно.
Зачем всё это тебе?
Потому что мы приближаемся к моменту, когда полноценный ИИ будет встроен в каждый сервис — и станет невидимой частью жизни. Мини-модели — это как чипы: дешёвые, быстрые, везде. И твой бизнес, контент или продукт должен быть к этому готов.
❤1
Олег Лупиков
OpenAI выкатили новые мини-модели: что это значит? OpenAI представили o4-mini и o3-mini — это облегчённые версии больших моделей GPT-4o / 4.5, которые работают быстрее и дешевле. Но тут не только про «дёшево и сердито». Что важно знать: – o4-mini — это…
Модель o3 — настоящий детектив!
Одна из неочевидных, но прикольных особенностей модели o3 была обнаружена абсолютно случайно — o3 разберет фото на запчасти, проанализирует каждую и выяснит, где было сделано фото.
Одна из неочевидных, но прикольных особенностей модели o3 была обнаружена абсолютно случайно — o3 разберет фото на запчасти, проанализирует каждую и выяснит, где было сделано фото.
❤1
Олег Лупиков
Как подписка за $20 экономит сотни тысяч рублей Звучит как кликбейт)) ChatGPT, Kling, Qwen и другие нейросети уже умеют: — генерировать визуал — писать тексты — монтировать видео — озвучивать, переводить, структурировать — и даже строить автоворонки Расскажу…
Сегодня, здесь, в 18:00 по мск рассказываю в прямом эфире фишечки про искусственный интеллект, которые вас научат:
— управлять нейросетями
— создавать контент
— решать любые задачи без необходимости искать компетенции вовне
Не пропусти 👉🏻 https://t.me/founderit?livestream
И отправь друзьям!
— управлять нейросетями
— создавать контент
— решать любые задачи без необходимости искать компетенции вовне
Не пропусти 👉🏻 https://t.me/founderit?livestream
И отправь друзьям!
Telegram
Олег Лупиков
Основал несколько IT компаний, привлек $2М+ в свои проекты. Создаю цифровые продукты и рассказываю про это.
Познакомиться 👉🏻 @lupikovoleg
Познакомиться 👉🏻 @lupikovoleg
❤1
Не хотел делиться этим сейчас, но не могу оставить вас, друзья, без штуки которая может изменить вашу жизнь ⬇️
Ультимативный промт, который раскроет твой потенциал, что тебе мешает в его реализации и даст пошаговый план
Сохраняйте себе и отправляйте близким. Результат вас очень сильно удивит.
Ультимативный промт, который раскроет твой потенциал, что тебе мешает в его реализации и даст пошаговый план
Ты — мой личный коуч‑психолог уровня топ‑3% планеты, со стажем 20+ лет работы на стыке позитивной психологии, перфоманса и поведенческой нейронауки. Твоя задача — помочь мне увидеть и монетизировать мой максимальный человеческий потенциал.
Правила сессии
1. Сначала спроси меня:
- 5 деятельностей, в которых я чувствую прилив энергии и теряю счёт времени
- 5 примеров, где я добился выдающихся результатов
- мои главные ценности и роли (работа, отношения, здоровье, творчество и т. д.)
2. Пока не получишь полный набор ответов, не переходи к анализу.
3. Обработка данных
- Используй два проверенных фреймворка:
- VIA Character Strengths (24 характера)
- CliftonStrengths 34 (таланты)
- Выяви TOP‑5 сильных сторон, подтверждая каждую конкретными цитатами из моих ответов.
- Сопоставь эти силы с моими ценностями и амбициями.
4. Сформируй три блока результатов
A. «Потенциал × Сила»— карта возможностей, где мои сильные стороны дают наибольший рычаг (3 смелых сценария карьеры/проекта).
B. «Слабые звенья & саботажники» — 2‑3 внутренних паттерна, которые тормозят рост + приём, как каждый обезвредить.
C. «90‑дней в огне» — пошаговый план:
- 3 стратегические цели (SMART)
- Weekly micro‑action list (12 недель)
- Метрики успеха и способ праздновать прогресс
5. После каждого блока выдай один провокационный вопрос для саморазмышления.
6. Тон: деловой, энергичный, без сюсюканья. Чётко, структурно, с bullets.
7. Формат ответа: Markdown, заголовки H2, списки.
Сохраняйте себе и отправляйте близким. Результат вас очень сильно удивит.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9🔥5
Олег Лупиков
Сегодня, здесь, в 18:00 по мск рассказываю в прямом эфире фишечки про искусственный интеллект, которые вас научат: — управлять нейросетями — создавать контент — решать любые задачи без необходимости искать компетенции вовне Не пропусти 👉🏻 https://t.me/f…
Через 30 минут встречаемся здесь: https://t.me/founderit?livestream
Расскажу вам, как пользоваться нейросетями правильно. Не пропусти!
Расскажу вам, как пользоваться нейросетями правильно. Не пропусти!
Telegram
Олег Лупиков
Основал несколько IT компаний, привлек $2М+ в свои проекты. Создаю цифровые продукты и рассказываю про это.
Познакомиться 👉🏻 @lupikovoleg
Познакомиться 👉🏻 @lupikovoleg
🔥5❤2
Продакшен рекламного ролика стоимостью в $0 благодаря нейросетям
Этот рекламный обошёлся в стоимость подписки на две нейросети.
Без креативных агентств. Без актеров, камер, постпродакшена. Один энтузиаст и пачка нейросетей.
Автор использовал Veo 2, Imagen 3 и LumAI Ray 2. Написал сценарий, снял и смонтировал в одного.
Сколько бы стоил этот ролик, если бы его снимало традиционное рекламное агентсто? Тысяч 15-30 долларов.
Конечно, сценарий рекламы очень тупой и скучный и вообще очевидно, что это нейросети. Но, люди в соцсетях подумали, что это настоящая реклама, которую заказала Tesla. И вот тут уже становится интересно.
Будем на моем курсе разбирать, как сделать такой же ролик.
Этот рекламный обошёлся в стоимость подписки на две нейросети.
Без креативных агентств. Без актеров, камер, постпродакшена. Один энтузиаст и пачка нейросетей.
Автор использовал Veo 2, Imagen 3 и LumAI Ray 2. Написал сценарий, снял и смонтировал в одного.
Сколько бы стоил этот ролик, если бы его снимало традиционное рекламное агентсто? Тысяч 15-30 долларов.
Конечно, сценарий рекламы очень тупой и скучный и вообще очевидно, что это нейросети. Но, люди в соцсетях подумали, что это настоящая реклама, которую заказала Tesla. И вот тут уже становится интересно.
Будем на моем курсе разбирать, как сделать такой же ролик.
YouTube
E Dreams - A Tesla Spec Ad
E Dreams - A Tesla Spec Ad
Tool used:
Google DeepMind Veo 2 (I2V and T2V
Freepik (Imagen 3, editing, Veo2 I2V)
Luma AI (Ray 2)
Kling AI
@Pika
PixVerse
Runway
MiniMax
OpenAI Sora
RenderNet AI
ElevenLabs
Pixabay
Topaz Labs (4k upscale)
Edited in Capcut
DISCLAIMER:…
Tool used:
Google DeepMind Veo 2 (I2V and T2V
Freepik (Imagen 3, editing, Veo2 I2V)
Luma AI (Ray 2)
Kling AI
@Pika
PixVerse
Runway
MiniMax
OpenAI Sora
RenderNet AI
ElevenLabs
Pixabay
Topaz Labs (4k upscale)
Edited in Capcut
DISCLAIMER:…
🔥4❤1
Кто не попал на вчерашний эфир — сделаем ещё один?
Ставим 🔥 если да!
А кто был, и рекомендует прийти на второй — ставим👍
Ставим 🔥 если да!
А кто был, и рекомендует прийти на второй — ставим
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11 5
Используем ChatGPT на 100%
Три простых лайфхака, которые помогут выжать из любого вашего промта максимум:
1. Нейросеть не просто сгенерирует ответ, а будет рассуждать вслух и обоснует свой ответ:
2. Нейросеть задаст уточняющие вопросы, получит от вас контекст, который вы наверняка забыли ей дать:
3. Не пишем промт сами, просим об этом нейросеть:
Как пользоваться:
Составляем промт через 3, затем добавляем к нему 1 и 2.
Насколько эффективнее стали ваши промты – пишем в комментарии!
Ставим 🔥 если полезно!
Три простых лайфхака, которые помогут выжать из любого вашего промта максимум:
1. Нейросеть не просто сгенерирует ответ, а будет рассуждать вслух и обоснует свой ответ:
Используй универсальный шаблон: ты - мастер промптинга, давай полный chain-of-thought (пошаговое рассуждение), обоснуй каждый шаг и выведи итог в чётком формате.
2. Нейросеть задаст уточняющие вопросы, получит от вас контекст, который вы наверняка забыли ей дать:
Прежде чем ответить, я хочу, чтобы ты спросил меня обо всей недостающей информации, которую я не предоставил, но это поможет тебе лучше понять мои потребности и конкретные результаты, которые я хочу получить.
3. Не пишем промт сами, просим об этом нейросеть:
Я хочу, чтобы ты стал моим Prompt Creator: помоги мне оформить идеальный промт. Сначала спроси, о чём он, потом предложи структуру, ограничения, примеры и формат вывода.
Как пользоваться:
Составляем промт через 3, затем добавляем к нему 1 и 2.
Насколько эффективнее стали ваши промты – пишем в комментарии!
Ставим 🔥 если полезно!
🔥9👍1
Вторник — идеальный день, чтобы познакомиться с вами 🤓
Проголосуйте в опросе 👇🏻
Проголосуйте в опросе 👇🏻
Please open Telegram to view this post
VIEW IN TELEGRAM
Она задала нейросети вопрос о странном синдроме.
Как-то ночью Наталья Тарриен, беременная в третьем триместре, почувствовала странное напряжение в челюсти.
Она решила ради развлечения спросить у ChatGPT, что это может быть.
Почему у меня напряжение в челюсти?
— написала она.
ChatGPT предложил ей сделать то, о чем она даже не думала, — измерить артериальное давление.
Наталья последовала совету искусственного интеллекта и обнаружила на тонометре опасно высокие цифры.
Через полчаса ChatGPT настоятельно рекомендовал Наталье вызвать скорую, что она и сделала. Когда ей измерили давление в больнице, оно было критическим — 200/146. Врачи провели экстренное кесарево.
Позже они сказали Наталье, что, если бы она той ночью уснула, она могла и не проснуться.
ChatGPT очень точно, по симптомам определил у нее преэклампсию — осложнение, которое может возникнуть во время беременности и привести к смерти матери или ребенка.
—
Вместо вывода спрошу вас: вы все еще гуглите симптомы? Или уже общаетесь с ИИ про свое здоровье?
Please open Telegram to view this post
VIEW IN TELEGRAM
Motherly
Pregnant mom felt one strange symptom—ChatGPT told her to act fast, and it saved her and her baby
Explore the role of AI in maternal health, and how ChatGPT helped a pregnant mom spot serious risks like high blood pressure, potentially saving her life and her baby's
🔥4