🧠 ИИ — Искусственный Интеллект Идиот
Если ты только начинаешь работать с языковыми моделями вроде ChatGPT, DeepSeek, Perplexity, вот что важно понимать:
1️⃣ У ИИ нет интеллекта. Он не думает, не понимает и не анализирует. Просто угадывает, какое слово поставить следующим.
2️⃣ Это не магия, а статистика. Что чаще встречается в похожих текстах, то и подставит.
А что значит "чаще встречается в похожих текстах"?
Каждую языковую модель, прежде чем выпустить в широкие массы, тренировали на каких-то данных. Эти данные и вошли в содержимое базы данных каждой модели. Таким образом - промпты - это запросы к базе данных модели. Мы просто ищем информацию в базе данных модели своими запросами.
❗️ Понимать это - крайне важно, чтобы новомодный инструмент не подвёл тебя в ответстенный момент.
Именно, из-за этой особенности могут случаться следующие примеры:
💡 Спросишь: «Как сварить кофе?» — получишь внятный рецепт.
💡 А если напишешь: «Как сварить кофе, чтобы разговаривать с духами?» — ИИ с серьёзным видом расскажет, как «энергетика арабики помогает открыть третий глаз»
➖ у него нет логики или критического мышления. Только вероятность.
➖ чем чётче вопрос — тем адекватнее ответ. Чем расплывчатее — тем выше шанс получить чушь, но в красивой обёртке.
➖ ИИ может звучать уверенно, даже когда несёт ерунду. Он не знает, что ошибается — он просто подбирает вероятные слова.
👎 Так что, как говорила моя бабушка - "Доверяй, но проверяй". Если у ИИ отсутствует критическое мышление, то оно должно быть хотя бы в головах у его пользователей.
#AI #LLM
📱 Тут можно подписаться!
Если ты только начинаешь работать с языковыми моделями вроде ChatGPT, DeepSeek, Perplexity, вот что важно понимать:
А что значит "чаще встречается в похожих текстах"?
Каждую языковую модель, прежде чем выпустить в широкие массы, тренировали на каких-то данных. Эти данные и вошли в содержимое базы данных каждой модели. Таким образом - промпты - это запросы к базе данных модели. Мы просто ищем информацию в базе данных модели своими запросами.
Именно, из-за этой особенности могут случаться следующие примеры:
#AI #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥2❤1😁1🍓1
Сегодня — о технике, которая придаст твоим промптам суперсилу. Знакомься:
“Ты опытный бизнес-аналитик с 10-летним стажем в стартапах. Твоя задача — помочь мне с MVP и расчётом юнит-экономики.”
И только потом даёте основную задачу.
ИИ начинает думать как персонаж, в которого ты его превращаешь. У него появляется контекст, роль, голос, фокус внимания. И это значительно меняет качество ответа.
📌 Почему это работает?
ИИ работает на вероятностях — если ты задал роль, он начинает выбирать слова и идеи, которые чаще всего встречаются у “таких специалистов”. Чем лучше ты опишешь роль — тем точнее результат.
⛳ Где пригодится Role-based Prompting?
- когда нужен экспертный взгляд — “Ты судебный эксперт. Проанализируй вот это дело…”
- для игрофикации общения — “Ты бариста. Предложи оригинальные рецепты на основе овсяного молока”
- при обучении — “Ты профессор МГУ. Объясни SQL так, как будто я только вчера сел за комп”
- при создании персонажей — для сторителлинга, RPG, сценариев
🚩 Где хромает?
- если не задавать роль чётко — “Представь, что ты кто-то умный” ≠ “Ты физик-ядерщик, объясни принцип работы коллайдера”
- при слишком сложных ролях — “Ты одновременно Билл Гейтс, Илона Маск и мой батя” — звучит весело, но результат может быть непредсказуемым 😅
- если забыть, что ИИ всё же ИИ, и он не заменит настоящего врача, юриста или психолога
🧠 Role-based prompting — это как нанимать воображаемого эксперта на 5 минут. Причём зарплату платить не надо, а результат — часто лучше, чем от гугла.
🔜 В одном из следующих постов покажу как ролевые игры с языковыми моделями делают тебя сильнее.
⸻
📎 А пока — попробуй задать ИИ роль прямо сейчас. Например:
“Ты сертифицированный нутрициолог. Помоги мне составить сбалансированное меню на неделю с упором на железо и витамин D.”
#AI #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥2
🇷🇺 На Родине, доступ к информационному благу, естественно закрыт. И оплатить напрямую - тоже не выйдет.
Для первой проблемы - подойдёт любой VPN. Если ты хочешь использовать все возможности сервиса (особенно - Голосовой Режим), то подключаться следует через любую страну, не входящую в состав Евросоюза.
Для второй проблемы - есть варианты. Вариант, которым воспользовался я - https://kupikod.com/console/chatgpt
Да, стоимость подписки "кусается", однако, в случае КупиКода - оплату производит продавец, по ссылку, которую ты сам ему передаёшь. Никаких передач реквизитов от личных учёток. Никаких десятков временных учётных записей.
#AI #LLM #лайфхаки
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍2
Между Кодом и Жизнью ☕️ pinned «☕️ Угости автора чашечкой кофе Этот канал работает на безудержном любопытстве и кофе. И если безудержного любопытства хоть отбавляй, то чашечка ароматного кофе сама себя не купит 😉 Если мои материалы оказались для тебя полезны - есть разные способы отблагодарить.»
Делюсь секретом.
Нарисуй это фото в стиле студии Ghibli. Атмосфера — как в мультфильмах «Унесённые призраками» и «Ходячий замок».✨ Получается сказочно, нежно и эмоционально.
🏁 Всё! После небольшого ожидания - наслаждаемся красивым тёплым ламповым результатом.
#AI #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
Создай коллекционную 3D экшн-фигурку человека в красном кимоно из фото.
Фигурка во весь рост, из soft touch пластика, лежит в пластиковой форме по силуэту внутри коробки с прозрачным окном.
Полностью повтори внешность с фото: черты лица, прическу.
Фигура должна быть похожа на фото человека в красном кимоно.
На фигурке должна быть одежда: кимоно, солнцезащитные очки авиаторы.
Рядом размести аксессуары: стаканчик кофе, перчатки бойца UFC, белый пояс.
Вверху коробки напиши Анвер, ниже - BJJ.
Коробку сделай в стиле чёрного картона. Все надписи на коробке должны быть золотым цветом.
Изображение должно быть максимально реалистичным, как фото дорогой коллекционной игрушки.
Этот промпт позволит тебе получить коллекционную фигурку, но основе фото.
Попробуй изменить перечень аксессуаров, оформление коробки и надписи, чтобы получить свой персонализированный крутой результат!
#AI #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3😁2❤🔥1
Голосовой режим в AI - сам по себе отличный инструмент для прокачки.
#AI #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥3❤1
Так на днях произошло со мной. Позвонила сестра, мол, "так-да-сяк, твоя племянница поступает в ВУЗ, у них там какой-то проект, что-то там им надо разработать. Тыжпрограммист".
Связался, с племмянницей, бот Telegram нужен, разработанный. Ну, думаю, разработка - это дорого, сложно, долго. Посоветовал ей нырнуть в языковые модели. Тем более, поколение новое, ей полезно будет. Вроде как помог, а вроде как и отшил.
Решил, что сам сделаю, и, если у неё не получиться, будет запасной вариант. Ну и за полчасика сварганил себе живого Telegram-бота для поддержки эмоционального настроя человека - @kamilla_emo_bot
Нынче, так просто это делается. Был приятно удивлён.
Похоже, самое время изучать https://n8n.io 😁
---------------------------------
P.S. Ставь 🔥, если хочешь узнать как собрать на коленке живого бота за 20 минут твоего времени.
#AI #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
n8n.io
n8n.io - AI workflow automation tool
n8n is a free and source-available workflow automation tool
🔥6👍4❤🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Нет слов, как же это круто 🤘
P.S. Если услышишь такие звуки во время восстания машин - знай, они что-то замышляют 😁
#AI #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
🧵 Chain-of-Thought Prompting — Как заставить ИИ думать по шагам
Сегодня — про ещё одну технику, которая серьёзно прокачает качество твоих промптов. Знакомься:
🧵Chain-of-Thought Prompting (CoT) — это способ строить запросы так, чтобы ИИ “размышлял вслух”, а не просто выдавал мгновенный ответ.
🌟 Как это выглядит?
Вместо:
Пишем:
Или:
💡 Что происходит?
ИИ начинает генерировать цепочку рассуждений, а не просто “угадывать” готовый ответ. Это снижает вероятность ошибок, особенно в сложных задачах: математике, логике, анализе текстов, разработке кода.
📌 Почему это работает?
Языковая модель просто статистически подражает тому, как рассуждает человек. Если ты явно просишь “думать пошагово”, она начинает симулировать логический процесс.
🎯 Где пригодится Chain-of-Thought Prompting?
- в сложных вычислениях (алгоритмы, финансы)
- в кодинге (разбивка задач на этапы)
- в аналитике (пошаговый разбор кейсов)
- в генерации сценариев (развитие событий через логические шаги)
➖ Где может подвести?
- если задача изначально плохо описана или противоречива
- если пропустить важные условия в пошаговом процессе
- если слишком абстрактный запрос без конкретных указаний (“подумай о чём-то” ≠ “разбей на этапы”)
🧠 Chain-of-Thought — это как кнопка “замедлить время” для ИИ. Он начинает строить ответ кирпичик за кирпичиком, а не сыпать готовыми, но иногда неточными выводами.
🔜 В одном из следующих постов расскажу, как комбинировать Role-based + Chain-of-Thought, чтобы прокачать диалоги с ИИ ещё круче.
⸻
📎 А пока попробуй сам:
👉 «Ты эксперт по программированию на Python. Объясни решение задачи о поиске палиндрома, рассуждая пошагово.»
#AI #LLM
📱 Тут можно подписаться!
Сегодня — про ещё одну технику, которая серьёзно прокачает качество твоих промптов. Знакомься:
🧵Chain-of-Thought Prompting (CoT) — это способ строить запросы так, чтобы ИИ “размышлял вслух”, а не просто выдавал мгновенный ответ.
🌟 Как это выглядит?
Вместо:
Сколько будет 17 × 24?
Пишем:
Давай решим задачу пошагово. Сначала умножь 10 на 24, потом 7 на 24, а потом сложи результаты.
Или:
Объясни решение пошагово, рассуждая вслух.
💡 Что происходит?
ИИ начинает генерировать цепочку рассуждений, а не просто “угадывать” готовый ответ. Это снижает вероятность ошибок, особенно в сложных задачах: математике, логике, анализе текстов, разработке кода.
📌 Почему это работает?
Языковая модель просто статистически подражает тому, как рассуждает человек. Если ты явно просишь “думать пошагово”, она начинает симулировать логический процесс.
- в сложных вычислениях (алгоритмы, финансы)
- в кодинге (разбивка задач на этапы)
- в аналитике (пошаговый разбор кейсов)
- в генерации сценариев (развитие событий через логические шаги)
- если задача изначально плохо описана или противоречива
- если пропустить важные условия в пошаговом процессе
- если слишком абстрактный запрос без конкретных указаний (“подумай о чём-то” ≠ “разбей на этапы”)
🔜 В одном из следующих постов расскажу, как комбинировать Role-based + Chain-of-Thought, чтобы прокачать диалоги с ИИ ещё круче.
⸻
📎 А пока попробуй сам:
👉 «Ты эксперт по программированию на Python. Объясни решение задачи о поиске палиндрома, рассуждая пошагово.»
#AI #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🔥1
📎 Prompt Chaining — Как строить длинные умные диалоги с ИИ
Продолжаем марафон по промптингу😉 . Сегодня — про технику, которая превращает ИИ в твоего персонального ассистента-марафонца. Встречай:
🔗 Prompt Chaining — это способ строить сложные задачи через серию взаимосвязанных промптов. Вместо одного большого запроса — ты разбиваешь процесс на этапы и передаёшь результат от шага к шагу (за счёт контекста и истории чата, помнишь?)
🌟 Как это выглядит на практике?
Вместо:
Ты строишь цепочку:
1. Проанализируй рынок фриланс-платформ.
2. Сформулируй 3 гипотезы для стартапа в этой нише.
3. Выбери наиболее перспективную гипотезу и распиши MVP.
4. Подготовь бизнес-план на основе MVP.
💡 Что происходит?
- ИИ меньше “угадывает” и больше “строит” результат последовательно.
- Ошибки на ранних этапах можно корректировать сразу, а не переделывать всё с нуля.
- Ответ становится логичнее, глубже и точнее.
🥅 Почему это работает?
Языковая модель лучше справляется с конкретными мини-задачами, чем с одним огромным абстрактным запросом. Ты фактически сам задаёшь структуру мышления.
🏹 Где пригодится Prompt Chaining?
- При написании сложных текстов (статьи, стратегии, сценарии)
- В разработке (пошаговый дизайн архитектуры, рефакторинг)
- В обучении (разбор больших тем на модули)
💔 Где хромает?
- Если пропустить важный этап в цепочке — итог будет сырой
- Если на каждом шаге давать слишком абстрактные задачи
- Если не сохранять контекст между этапами (надо явно пересылать информацию)
➡️ Prompt Chaining — это как строить небоскрёб из прочных блоков, а не лепить его сразу одним махом из глины. Однако, нужно подумать чуть больше, прежде чем использовать, по сравнению с другими техниками промптинга.
⸻
📍 Попробуй сам:
👉 Разбей сложную задачу на 4-5 мини-промптов и пройди путь вместе с ИИ. Например:
#AI #LLM
📱 Тут можно подписаться!
Продолжаем марафон по промптингу
🌟 Как это выглядит на практике?
Вместо:
Напиши бизнес-план для стартапа
Ты строишь цепочку:
1. Проанализируй рынок фриланс-платформ.
2. Сформулируй 3 гипотезы для стартапа в этой нише.
3. Выбери наиболее перспективную гипотезу и распиши MVP.
4. Подготовь бизнес-план на основе MVP.
- ИИ меньше “угадывает” и больше “строит” результат последовательно.
- Ошибки на ранних этапах можно корректировать сразу, а не переделывать всё с нуля.
- Ответ становится логичнее, глубже и точнее.
Языковая модель лучше справляется с конкретными мини-задачами, чем с одним огромным абстрактным запросом. Ты фактически сам задаёшь структуру мышления.
- При написании сложных текстов (статьи, стратегии, сценарии)
- В разработке (пошаговый дизайн архитектуры, рефакторинг)
- В обучении (разбор больших тем на модули)
- Если пропустить важный этап в цепочке — итог будет сырой
- Если на каждом шаге давать слишком абстрактные задачи
- Если не сохранять контекст между этапами (надо явно пересылать информацию)
⸻
👉 Разбей сложную задачу на 4-5 мини-промптов и пройди путь вместе с ИИ. Например:
1. Опиши тренды веб-разработки на 2025.
2. Выбери 2 самых перспективных.
3. Предложи идеи стартапов на основе этих трендов.
4. Распиши стратегию MVP для одного из стартапов.
#AI #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥2
Вот промпт, который скрасить твои майские вечера:
Давай сыграем в игру D&D. Ты game master. Я - единственный приключенец. Проведи меня через короткую игрую минут на 15
Но это ещё не всё...
Давай сыграем в какой-нибудь текстовый квест. Сочини для меня детективную историю и проведи меня через неё как игрока
#AI #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥3
🧵 Количество параметров в LLM — что это значит и зачем это знать?
Каждая языковая модель хвастается цифрами:
🧠 «У нас 13B параметров»
🧠 «А у нас 70B!»
Но что такое параметры? И правда ли, что чем больше — тем лучше?
⸻
🧠 Что такое параметры?
Параметры — это “нейроны” модели. Их значения определяют, как ИИ распознаёт паттерны, запоминает контекст и генерирует ответы. Чем больше параметров, тем выше потенциал для сложных задач.
Примеры:
- Mistral 7B — 7 миллиардов
- LLaMA 2 13B — 13 миллиардов
- GPT-4 — оценки от 100 до 175B+
- Claude, Gemini — тоже крупные, точные данные закрыты
Если быть точнее, параметры языковой модели - это веса её нейросети. Каждый отдельный параметр - это числовое значение, которое модель оптимизирует во время обучения. Эти веса определяют, как модель преобразует входные данные в выход (т.е. как “понимает” текст и что на него отвечает).
🔧 Веса:
- регулируют, какие слова, фразы, структуры считаются важными
- формируют связи между токенами в разных слоях модели
- по сути, это “мозг” модели — чем больше параметров, тем больше “нейронов”
⸻
❔ Так больше = лучше?
Нет. Не всегда.
И вот почему:
✅ Больше параметров ≠ выше интеллект,
если модель не дообучена, плохо архитектурно реализована, или обучена на грязных данных.
⚖️ Пример:
Mistral 7B на практике работает лучше, чем многие 13B модели,
а Phi-2 (2.7B!) — иногда удивительно умен при малом весе.
⸻
📐На что реально влияет количество параметров?
✔️ Глубина мышления — больше параметров = больше когнитивной гибкости
✔️ Сложные задачи — большие модели лучше справляются с логикой, кодом, стратегией
✔️ Устойчивость — меньше “галлюцинаций”, больше стабильности
Но:
— Требуют больше памяти, GPU и времени
— Медленнее работают в чатах
— Дороже в API и inference
⸻
🧪 Как сравнивать?
🔸 Дай одной и той же задаче несколько моделей разного веса
🔸 Смотри: кто точнее, кто логичнее, кто понятнее
🔸 Учти: маленькие модели хорошо справляются в узких задачах, большие — в многослойных
⸻
📍 Вывод
Параметры = потенциал,
но не гарантия качества.
🧮 Простые задачи — 7B–13B
🔍 Инженерия, код, сценарии — бери 30B+
🧠 R&D и сложная аналитика — GPT-4, Claude Opus и аналоги
⸻
📍 Попробуй сам:
👉 “Ты AI-аналитик. Проанализируй преимущества и риски внедрения LLM в HR на примере банка.”
Прогоняй через 7B и 70B — и сравни глубину анализа.
#AI #LLM
📱 Тут можно подписаться!
Каждая языковая модель хвастается цифрами:
Но что такое параметры? И правда ли, что чем больше — тем лучше?
⸻
🧠 Что такое параметры?
Параметры — это “нейроны” модели. Их значения определяют, как ИИ распознаёт паттерны, запоминает контекст и генерирует ответы. Чем больше параметров, тем выше потенциал для сложных задач.
Примеры:
- Mistral 7B — 7 миллиардов
- LLaMA 2 13B — 13 миллиардов
- GPT-4 — оценки от 100 до 175B+
- Claude, Gemini — тоже крупные, точные данные закрыты
Если быть точнее, параметры языковой модели - это веса её нейросети. Каждый отдельный параметр - это числовое значение, которое модель оптимизирует во время обучения. Эти веса определяют, как модель преобразует входные данные в выход (т.е. как “понимает” текст и что на него отвечает).
🔧 Веса:
- регулируют, какие слова, фразы, структуры считаются важными
- формируют связи между токенами в разных слоях модели
- по сути, это “мозг” модели — чем больше параметров, тем больше “нейронов”
⸻
Нет. Не всегда.
И вот почему:
✅ Больше параметров ≠ выше интеллект,
если модель не дообучена, плохо архитектурно реализована, или обучена на грязных данных.
Mistral 7B на практике работает лучше, чем многие 13B модели,
а Phi-2 (2.7B!) — иногда удивительно умен при малом весе.
⸻
📐На что реально влияет количество параметров?
✔️ Глубина мышления — больше параметров = больше когнитивной гибкости
✔️ Сложные задачи — большие модели лучше справляются с логикой, кодом, стратегией
✔️ Устойчивость — меньше “галлюцинаций”, больше стабильности
Но:
— Требуют больше памяти, GPU и времени
— Медленнее работают в чатах
— Дороже в API и inference
⸻
🧪 Как сравнивать?
🔸 Дай одной и той же задаче несколько моделей разного веса
🔸 Смотри: кто точнее, кто логичнее, кто понятнее
🔸 Учти: маленькие модели хорошо справляются в узких задачах, большие — в многослойных
⸻
📍 Вывод
Параметры = потенциал,
но не гарантия качества.
🧮 Простые задачи — 7B–13B
🔍 Инженерия, код, сценарии — бери 30B+
🧠 R&D и сложная аналитика — GPT-4, Claude Opus и аналоги
⸻
📍 Попробуй сам:
👉 “Ты AI-аналитик. Проанализируй преимущества и риски внедрения LLM в HR на примере банка.”
Прогоняй через 7B и 70B — и сравни глубину анализа.
#AI #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Please open Telegram to view this post
VIEW IN TELEGRAM
tg-contest.tilda.ws
Конкурс авторских Telegram-каналов — найди читателей, найди интересный контент
Конкурс для авторов Telegram-каналов и их читателей. Подайте заявку, найдите новых подписчиков, голосуйте за любимые каналы и откройте для себя лучшие голоса Telegram. Всё по любви и без инфоцыганства.
❤🔥1❤1🥰1💋1
Один мудрый человек сегодня мне сказал: "Ты чего-то в свой telegram-канал давно ничего не писал" и он чертвоски прав ‼️
Поэтому рассказываю о полезняшке, которой сам в данный момент пользуюсь...
Авторы всем известной конференции Highload, потрудились и подготовили текстовый курс о построении высоконагруженных систем для построителей ненагруженных.
Подписаться на бесплатные текстовые уроки можно тут: https://highload.guide/
Ниже примеры статей, из этого курса:
- Горизонтальное масштабирование. Что, зачем, когда и как
- Масштабирование базы данных через шардирование и партиционирование
- Принципы и приёмы обработки очередей
- Анатомия веб-сервиса
- Использование memcached и Redis в высоконагруженных проектах
- Как устроен поиск
Отличной рабочей недели тебе!🤗
📱 Тут можно подписаться!
Поэтому рассказываю о полезняшке, которой сам в данный момент пользуюсь...
Авторы всем известной конференции Highload, потрудились и подготовили текстовый курс о построении высоконагруженных систем для построителей ненагруженных.
Подписаться на бесплатные текстовые уроки можно тут: https://highload.guide/
Ниже примеры статей, из этого курса:
- Горизонтальное масштабирование. Что, зачем, когда и как
- Масштабирование базы данных через шардирование и партиционирование
- Принципы и приёмы обработки очередей
- Анатомия веб-сервиса
- Использование memcached и Redis в высоконагруженных проектах
- Как устроен поиск
Отличной рабочей недели тебе!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1🔥1😁1