Между Кодом и Жизнью ☕️
77 subscribers
51 photos
5 videos
65 links
Карьерные лайфхаки, ошибки, выгорание и рост в IT. Жизнь разработчика без прикрас — от кода до рефлексии. Пишу, чтобы ты рос быстрее.

✉️ Для связи: @anverbogatov
Download Telegram
🧠 ИИ — Искусственный Интеллект Идиот

Если ты только начинаешь работать с языковыми моделями вроде ChatGPT, DeepSeek, Perplexity, вот что важно понимать:

1️⃣ У ИИ нет интеллекта. Он не думает, не понимает и не анализирует. Просто угадывает, какое слово поставить следующим.

2️⃣ Это не магия, а статистика. Что чаще встречается в похожих текстах, то и подставит.

А что значит "чаще встречается в похожих текстах"?

Каждую языковую модель, прежде чем выпустить в широкие массы, тренировали на каких-то данных. Эти данные и вошли в содержимое базы данных каждой модели. Таким образом - промпты - это запросы к базе данных модели. Мы просто ищем информацию в базе данных модели своими запросами.

❗️ Понимать это - крайне важно, чтобы новомодный инструмент не подвёл тебя в ответстенный момент.

Именно, из-за этой особенности могут случаться следующие примеры:

💡 Спросишь: «Как сварить кофе?» — получишь внятный рецепт.

💡 А если напишешь: «Как сварить кофе, чтобы разговаривать с духами?» — ИИ с серьёзным видом расскажет, как «энергетика арабики помогает открыть третий глаз»

у него нет логики или критического мышления. Только вероятность.
чем чётче вопрос — тем адекватнее ответ. Чем расплывчатее — тем выше шанс получить чушь, но в красивой обёртке.
ИИ может звучать уверенно, даже когда несёт ерунду. Он не знает, что ошибается — он просто подбирает вероятные слова.

👎 Так что, как говорила моя бабушка - "Доверяй, но проверяй". Если у ИИ отсутствует критическое мышление, то оно должно быть хотя бы в головах у его пользователей.

#AI #LLM

📱 Тут можно подписаться!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥21😁1🍓1
🖼️ Role-based Prompting или Пост про то, как ИИ может стать кем угодно — от бариста до стартап-гуру.

Сегодня — о технике, которая придаст твоим промптам суперсилу. Знакомься:

🖼️ Role-based Prompting — это способ заставить ИИ “играть роль” нужного тебе персонажа, эксперта или даже целой команды специалистов.

🌈 Представь, что ты не просто просишь у ИИ “написать бизнес-план”, а сначала говоришь:
Ты опытный бизнес-аналитик с 10-летним стажем в стартапах. Твоя задача — помочь мне с MVP и расчётом юнит-экономики.
И только потом даёте основную задачу.

💡В чём фишка?
ИИ начинает думать как персонаж, в которого ты его превращаешь. У него появляется контекст, роль, голос, фокус внимания. И это значительно меняет качество ответа.

📌 Почему это работает?
ИИ работает на вероятностях — если ты задал роль, он начинает выбирать слова и идеи, которые чаще всего встречаются у “таких специалистов”. Чем лучше ты опишешь роль — тем точнее результат.

Где пригодится Role-based Prompting?
- когда нужен экспертный взгляд — “Ты судебный эксперт. Проанализируй вот это дело…
- для игрофикации общения — “Ты бариста. Предложи оригинальные рецепты на основе овсяного молока
- при обучении — “Ты профессор МГУ. Объясни SQL так, как будто я только вчера сел за комп
- при создании персонажей — для сторителлинга, RPG, сценариев

🚩 Где хромает?
- если не задавать роль чётко — “Представь, что ты кто-то умный” ≠ “Ты физик-ядерщик, объясни принцип работы коллайдера
- при слишком сложных ролях — “Ты одновременно Билл Гейтс, Илона Маск и мой батя” — звучит весело, но результат может быть непредсказуемым 😅
- если забыть, что ИИ всё же ИИ, и он не заменит настоящего врача, юриста или психолога

🧠 Role-based prompting — это как нанимать воображаемого эксперта на 5 минут. Причём зарплату платить не надо, а результат — часто лучше, чем от гугла.

🔜 В одном из следующих постов покажу как ролевые игры с языковыми моделями делают тебя сильнее.



📎 А пока — попробуй задать ИИ роль прямо сейчас. Например:

Ты сертифицированный нутрициолог. Помоги мне составить сбалансированное меню на неделю с упором на железо и витамин D.

#AI #LLM

📱 Тут можно подписаться!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥2
🥶 Помимо Perplexity, в своих трудовых буднях и личных проектах, я использую ChatGPT с Plus подпиской. Все модели хороши - и DeepSeek, и Qwen, и Perplexity. И на том уровне развития, на котором они все находятся, крутость именно американской модели проявляется в деталях.

1️⃣ Подробные описания и человекоподобные тексты
2️⃣ Подробнейшие исследования с генерацией отчётов с инфографикой или презентациями
3️⃣ Rich отображение результатов в разных форматах

🇷🇺 На Родине, доступ к информационному благу, естественно закрыт. И оплатить напрямую - тоже не выйдет.

Для первой проблемы - подойдёт любой VPN. Если ты хочешь использовать все возможности сервиса (особенно - Голосовой Режим), то подключаться следует через любую страну, не входящую в состав Евросоюза.

Для второй проблемы - есть варианты. Вариант, которым воспользовался я - https://kupikod.com/console/chatgpt

Да, стоимость подписки "кусается", однако, в случае КупиКода - оплату производит продавец, по ссылку, которую ты сам ему передаёшь. Никаких передач реквизитов от личных учёток. Никаких десятков временных учётных записей.

#AI #LLM #лайфхаки

📱 Тут можно подписаться!
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍2
☕️ Угости автора чашечкой кофе
Этот канал работает на безудержном любопытстве и кофе. И если безудержного любопытства хоть отбавляй, то чашечка ароматного кофе сама себя не купит 😉

Если мои материалы оказались для тебя полезны - есть разные способы отблагодарить.
🔥21🤗1
Между Кодом и Жизнью ☕️ pinned «☕️ Угости автора чашечкой кофе Этот канал работает на безудержном любопытстве и кофе. И если безудержного любопытства хоть отбавляй, то чашечка ароматного кофе сама себя не купит 😉 Если мои материалы оказались для тебя полезны - есть разные способы отблагодарить.»
🥶 Пару раз получил сегодня вопрос "Как сгенерировать такие мультяшные картинки?"

Делюсь секретом.

1️⃣ Нам понадобится - ChatGPT (можно бесплатный)

2️⃣ Загружаем в неё выбранное фото

3️⃣ Указываем вот такой промпт:

Нарисуй это фото в стиле студии Ghibli. Атмосфера — как в мультфильмах «Унесённые призраками» и «Ходячий замок». Получается сказочно, нежно и эмоционально.


🏁 Всё! После небольшого ожидания - наслаждаемся красивым тёплым ламповым результатом.

#AI #LLM

📱 Тут можно подписаться!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
🖼️ Ещё один шикарный результат, если воспользоваться следующим промптом:

Создай коллекционную 3D экшн-фигурку человека в красном кимоно из фото.
Фигурка во весь рост, из soft touch пластика, лежит в пластиковой форме по силуэту внутри коробки с прозрачным окном.
Полностью повтори внешность с фото: черты лица, прическу.
Фигура должна быть похожа на фото человека в красном кимоно.
На фигурке должна быть одежда: кимоно, солнцезащитные очки авиаторы.
Рядом размести аксессуары: стаканчик кофе, перчатки бойца UFC, белый пояс.
Вверху коробки напиши Анвер, ниже - BJJ.
Коробку сделай в стиле чёрного картона. Все надписи на коробке должны быть золотым цветом.
Изображение должно быть максимально реалистичным, как фото дорогой коллекционной игрушки.


Этот промпт позволит тебе получить коллекционную фигурку, но основе фото.

Попробуй изменить перечень аксессуаров, оформление коробки и надписи, чтобы получить свой персонализированный крутой результат!

#AI #LLM

📱 Тут можно подписаться!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3😁2❤‍🔥1
🔥 Обещанного три года ждут, но обещанный пост про то, как ИИ делает нас сильнее публикую чуть раньше.

1️⃣ В первом ролике - демонстрирую как можно проходить мок-интервью с помощью языковых моделей.

2️⃣ Во втором - как можно прокачаться в снижении градуса конфликта.

3️⃣ В третьем - как можно получить левел ап в своём красноречии.

Голосовой режим в AI - сам по себе отличный инструмент для прокачки.

#AI #LLM

📱 Тут можно подписаться!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥31
💛 Как-то так получается иногда, что судьба сама приносит тебе возможности. И эти возможности, как нельзя кстати, связаны с какой-то твоей деятельностью в моменте.

Так на днях произошло со мной. Позвонила сестра, мол, "так-да-сяк, твоя племянница поступает в ВУЗ, у них там какой-то проект, что-то там им надо разработать. Тыжпрограммист".

Связался, с племмянницей, бот Telegram нужен, разработанный. Ну, думаю, разработка - это дорого, сложно, долго. Посоветовал ей нырнуть в языковые модели. Тем более, поколение новое, ей полезно будет. Вроде как помог, а вроде как и отшил.

Решил, что сам сделаю, и, если у неё не получиться, будет запасной вариант. Ну и за полчасика сварганил себе живого Telegram-бота для поддержки эмоционального настроя человека - @kamilla_emo_bot

Нынче, так просто это делается. Был приятно удивлён.

Похоже, самое время изучать https://n8n.io 😁

---------------------------------

P.S. Ставь 🔥, если хочешь узнать как собрать на коленке живого бота за 20 минут твоего времени.

#AI #LLM

📱 Тут можно подписаться!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍4❤‍🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
📹 Сегодня впервые увидел как два AI агента договариваются разговаривать с помощью собственного протокола.

Нет слов, как же это круто 🤘

P.S. Если услышишь такие звуки во время восстания машин - знай, они что-то замышляют 😁

#AI #LLM

📱 Тут можно подписаться!
Please open Telegram to view this post
VIEW IN TELEGRAM
2
🧵 Chain-of-Thought Prompting — Как заставить ИИ думать по шагам

Сегодня — про ещё одну технику, которая серьёзно прокачает качество твоих промптов. Знакомься:

🧵Chain-of-Thought Prompting (CoT) — это способ строить запросы так, чтобы ИИ “размышлял вслух”, а не просто выдавал мгновенный ответ.

🌟 Как это выглядит?

Вместо:

Сколько будет 17 × 24?


Пишем:

Давай решим задачу пошагово. Сначала умножь 10 на 24, потом 7 на 24, а потом сложи результаты.


Или:

Объясни решение пошагово, рассуждая вслух.


💡 Что происходит?

ИИ начинает генерировать цепочку рассуждений, а не просто “угадывать” готовый ответ. Это снижает вероятность ошибок, особенно в сложных задачах: математике, логике, анализе текстов, разработке кода.

📌 Почему это работает?

Языковая модель просто статистически подражает тому, как рассуждает человек. Если ты явно просишь “думать пошагово”, она начинает симулировать логический процесс.

🎯 Где пригодится Chain-of-Thought Prompting?
- в сложных вычислениях (алгоритмы, финансы)
- в кодинге (разбивка задач на этапы)
- в аналитике (пошаговый разбор кейсов)
- в генерации сценариев (развитие событий через логические шаги)

Где может подвести?
- если задача изначально плохо описана или противоречива
- если пропустить важные условия в пошаговом процессе
- если слишком абстрактный запрос без конкретных указаний (“подумай о чём-то” ≠ “разбей на этапы”)

🧠 Chain-of-Thought — это как кнопка “замедлить время” для ИИ. Он начинает строить ответ кирпичик за кирпичиком, а не сыпать готовыми, но иногда неточными выводами.

🔜 В одном из следующих постов расскажу, как комбинировать Role-based + Chain-of-Thought, чтобы прокачать диалоги с ИИ ещё круче.



📎 А пока попробуй сам:

👉 «Ты эксперт по программированию на Python. Объясни решение задачи о поиске палиндрома, рассуждая пошагово.»

#AI #LLM

📱 Тут можно подписаться!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🔥1
📎 Prompt Chaining — Как строить длинные умные диалоги с ИИ

Продолжаем марафон по промптингу 😉. Сегодня — про технику, которая превращает ИИ в твоего персонального ассистента-марафонца. Встречай:

🔗 Prompt Chaining — это способ строить сложные задачи через серию взаимосвязанных промптов. Вместо одного большого запроса — ты разбиваешь процесс на этапы и передаёшь результат от шага к шагу (за счёт контекста и истории чата, помнишь?)

🌟 Как это выглядит на практике?

Вместо:

Напиши бизнес-план для стартапа


Ты строишь цепочку:
1. Проанализируй рынок фриланс-платформ.
2. Сформулируй 3 гипотезы для стартапа в этой нише.
3. Выбери наиболее перспективную гипотезу и распиши MVP.
4. Подготовь бизнес-план на основе MVP.

💡 Что происходит?
- ИИ меньше “угадывает” и больше “строит” результат последовательно.
- Ошибки на ранних этапах можно корректировать сразу, а не переделывать всё с нуля.
- Ответ становится логичнее, глубже и точнее.

🥅 Почему это работает?

Языковая модель лучше справляется с конкретными мини-задачами, чем с одним огромным абстрактным запросом. Ты фактически сам задаёшь структуру мышления.

🏹 Где пригодится Prompt Chaining?
- При написании сложных текстов (статьи, стратегии, сценарии)
- В разработке (пошаговый дизайн архитектуры, рефакторинг)
- В обучении (разбор больших тем на модули)

💔 Где хромает?
- Если пропустить важный этап в цепочке — итог будет сырой
- Если на каждом шаге давать слишком абстрактные задачи
- Если не сохранять контекст между этапами (надо явно пересылать информацию)

➡️ Prompt Chaining — это как строить небоскрёб из прочных блоков, а не лепить его сразу одним махом из глины. Однако, нужно подумать чуть больше, прежде чем использовать, по сравнению с другими техниками промптинга.



📍 Попробуй сам:

👉 Разбей сложную задачу на 4-5 мини-промптов и пройди путь вместе с ИИ. Например:

1. Опиши тренды веб-разработки на 2025.
2. Выбери 2 самых перспективных.
3. Предложи идеи стартапов на основе этих трендов.
4. Распиши стратегию MVP для одного из стартапов.


#AI #LLM

📱 Тут можно подписаться!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥2
🎲 Кто бы мог подумать, но языковые модели отлично играют в игры

🎲 Младшая дочь напомнила, что мы давно не играли в подземелья и драконы. Мне стало любопытно, а что если попросить языковую модель стать игровым мастером и... Она отлично с этим справилась.

Вот промпт, который скрасить твои майские вечера:

Давай сыграем в игру D&D. Ты game master. Я - единственный приключенец. Проведи меня через короткую игрую минут на 15


Но это ещё не всё...

🎲 В далёки 90ые, был популярен ныне мёртвый жанр - "текстовых квестов". Ну ты понял! Да, модель и в это "могёт":

Давай сыграем в какой-нибудь текстовый квест. Сочини для меня детективную историю и проведи меня через неё как игрока


#AI #LLM

📱 Тут можно подписаться!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥3
🧵 Количество параметров в LLM — что это значит и зачем это знать?

Каждая языковая модель хвастается цифрами:
🧠 «У нас 13B параметров»
🧠 «А у нас 70B!»
Но что такое параметры? И правда ли, что чем больше — тем лучше?



🧠 Что такое параметры?

Параметры — это “нейроны” модели. Их значения определяют, как ИИ распознаёт паттерны, запоминает контекст и генерирует ответы. Чем больше параметров, тем выше потенциал для сложных задач.

Примеры:
- Mistral 7B — 7 миллиардов
- LLaMA 2 13B — 13 миллиардов
- GPT-4 — оценки от 100 до 175B+
- Claude, Gemini — тоже крупные, точные данные закрыты

Если быть точнее, параметры языковой модели - это веса её нейросети. Каждый отдельный параметр - это числовое значение, которое модель оптимизирует во время обучения. Эти веса определяют, как модель преобразует входные данные в выход (т.е. как “понимает” текст и что на него отвечает).

🔧 Веса:
- регулируют, какие слова, фразы, структуры считаются важными
- формируют связи между токенами в разных слоях модели
- по сути, это “мозг” модели — чем больше параметров, тем больше “нейронов”



Так больше = лучше?

Нет. Не всегда.

И вот почему:

Больше параметров ≠ выше интеллект,
если модель не дообучена, плохо архитектурно реализована, или обучена на грязных данных.

⚖️ Пример:
Mistral 7B на практике работает лучше, чем многие 13B модели,
а Phi-2 (2.7B!) — иногда удивительно умен при малом весе.



📐На что реально влияет количество параметров?

✔️ Глубина мышления — больше параметров = больше когнитивной гибкости
✔️ Сложные задачи — большие модели лучше справляются с логикой, кодом, стратегией
✔️ Устойчивость — меньше “галлюцинаций”, больше стабильности

Но:
— Требуют больше памяти, GPU и времени
— Медленнее работают в чатах
— Дороже в API и inference



🧪 Как сравнивать?

🔸 Дай одной и той же задаче несколько моделей разного веса
🔸 Смотри: кто точнее, кто логичнее, кто понятнее
🔸 Учти: маленькие модели хорошо справляются в узких задачах, большие — в многослойных



📍 Вывод

Параметры = потенциал,
но не гарантия качества.

🧮 Простые задачи — 7B–13B
🔍 Инженерия, код, сценарии — бери 30B+
🧠 R&D и сложная аналитика — GPT-4, Claude Opus и аналоги



📍 Попробуй сам:

👉 “Ты AI-аналитик. Проанализируй преимущества и риски внедрения LLM в HR на примере банка.”
Прогоняй через 7B и 70B — и сравни глубину анализа.

#AI #LLM

📱 Тут можно подписаться!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
🤝 Друзья, приветствую!

👍 Довольно частая история у молодых авторов - это отсутствие мотивации что-либо писать. Вроде бы и мыслей в голове много, и ярких идей предостаточно, но вот садишься за пост, смотришь на пустое поле для текста и весь запал улетучивается куда-то. Конечно, же языковые модели - превосходный инструмент для победы над проблемой "белого листа", но... но результат "ненастоящий" какой-то.

Вот и приходиться изыскивать новые способы мотивации себя, как автора. Я такой способ нашёл - решил поучавствовать в конкурсе молодых авторов - 📱https://tg-contest.tilda.ws/

🤞 Держи за меня пальчики, и ищи меня 🔜 📱 @tg_contest_main
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥11🥰1💋1
Один мудрый человек сегодня мне сказал: "Ты чего-то в свой telegram-канал давно ничего не писал" и он чертвоски прав ‼️

Поэтому рассказываю о полезняшке, которой сам в данный момент пользуюсь...

Авторы всем известной конференции Highload, потрудились и подготовили текстовый курс о построении высоконагруженных систем для построителей ненагруженных.

Подписаться на бесплатные текстовые уроки можно тут: https://highload.guide/

Ниже примеры статей, из этого курса:
- Горизонтальное масштабирование. Что, зачем, когда и как
- Масштабирование базы данных через шардирование и партиционирование
- Принципы и приёмы обработки очередей
- Анатомия веб-сервиса
- Использование memcached и Redis в высоконагруженных проектах
- Как устроен поиск

Отличной рабочей недели тебе! 🤗

📱 Тут можно подписаться!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1🔥1😁1