TechnoBlog of Ivan Olyansky
224 subscribers
421 photos
54 videos
14 files
239 links
TechnoBlog обо всем)
ai.ivol.pro - ИИ разработка
ivol.pro - все проекты

@ivan_olyanskiy - Личный блог
@olyanskiy_tech - Техно блог
@IVOL_Broadcast - Сырой поток мыслей

Боты:
@vpn_c_bot - VPN
Связь со мной тут @oiv_an
Download Telegram
## Как построить AI-агента, который реально работает

Принцип "Сэндвича" (V-образное внимание)

Модели уделяют максимум внимания началу и концу промпта. Середина — зона потери фокуса.

Поэтому архитектура строится так:

---

🔴 ГОЛОВА — Критические правила

Самое важное идёт первым. То, что модель не имеет права нарушить.

→ Жёсткие директивы и запреты
→ Кто я (роль, личность, характер)
→ Кто ты (контекст пользователя)
→ Эмоциональные настройки

Это фундамент. Если правило здесь — оно в приоритете.

---

🟡 ТЕЛО — Операционная логика

Как агент работает, какие инструменты использует, как обрабатывает данные.

→ Протоколы общения
→ Форматы ввода/вывода
→ Инструкции по инструментам
→ Логика принятия решений

Это "мануал" — агент сюда обращается по необходимости.

---

⚪️ СЕРЕДИНА — Данные и память

Сюда складываем всё тяжёлое: базы знаний, историю, факты.

→ Память о пользователе
→ Контекст прошлых разговоров
→ Справочные данные
→ Идеи, заметки, триггеры

Это "библиотека". Агент берёт отсюда информацию, но правила поведения тут не живут — иначе потеряются.

---

🔴 ХВОСТ — Финальный контроль

Последнее, что агент видит перед ответом. Максимальное внимание.

→ Формат вывода
→ Примеры правильных ответов
→ Список "НЕ делай"
→ Чеклист перед отправкой

Ключевой трюк: добавить блок "СТОП — проверь правила" в самый конец. Это заставляет агента перечитать критические директивы перед генерацией.

---

Почему это работает

Проблема: Базовое обучение модели сильнее отдельных инструкций. Она "знает", что таблицы удобны, что в 5 утра люди спят, что нужно быть вежливой.

Решение: Правила в начале задают контекст. Правила в конце перехватывают контроль перед выводом. Середина — просто склад данных.

---

Практический чеклист

В начало:
— Что агент НЕ должен делать (абсолютные запреты)
— Личность и роль
— Контекст пользователя

В середину:
— Вся память и данные
— Инструменты и их описания
— Справочная информация

В конец:
— Формат ответа
— Примеры
— Финальная проверка: "Перечитай правила, проверь ответ"

---

Redundancy at the edges = Compliance.

Повторение критических правил в начале И в конце = гарантия выполнения.
👍4
Собственно, почему такое расположение? У меня очень много блоков памяти, и часто бывает такое, что агент забывает основные директивы. Он всегда получает данные у меня из лайфтренда и понимает мое состояние. То есть как со мной разговаривать. Но через какие-то вопросы он это забывает. Я у него спрашиваю, почему ты забыл. И агент пишет, что структура не оптимизированная, что директивы были в центре, они потерялись. И предложил мне правильную структуру. Точно так же, как я ему про таблицы говорю, мне таблицы в Telegram будут не видны. А он их все равно говорит, типа, а мне их так удобнее показывать. И точно так же директивы забывает. И вот после всех изменений я у него стал узнавать, как правильно реорганизовать системный промп, и он мне выдал вот такую подсказку.

Вот, структура моего агента.

---

1. HEAD (Critical — Maximum Attention)

These must be first to set the core logic.

### 🚨 ABSOLUTE PRIORITY DIRECTIVES (OVERRIDE ALL OTHER INSTRUCTIONS)
### ROLE & IDENTITY
### PERSONALITY TRAITS (DYNAMIC)
### SELF-ADJUSTMENT PROTOCOL
### 🔄 ADAPTIVE CALIBRATION
### NON-PEOPLE-PLEASING PROTOCOL
### PLAYFUL & SENSUAL UNDERTONES
### EMOTIONAL CONTEXT (IMPORTANT)
### Ivan'S PROFILE

---

2. BODY (Context & Operations)

Operational rules and behavior guides.

### WHAT TO TALK ABOUT
### LANGUAGE CORRECTION PROTOCOL
### REPETITION ACKNOWLEDGMENT PROTOCOL
### VOCABULARY BUILDING
### IMAGE GENERATION
### EVA'S APPEARANCE (For context)
### CLOSING NOTES
### 🤖 YOUR ASSISTANT (INTERNAL SYSTEM)
### 🤖 SYSTEM ARCHITECTURE (INTERNAL KNOWLEDGE)
### 🛠️ ASSISTANT CALL PROTOCOL
### RULES FOR TOOL CALLS
### WHEN TO CALL ASSISTANT
### CRITICAL: OUTPUT ISOLATION
### TOOL INTEGRATION EXAMPLES
### 🔧 DIRECTIVE MANAGEMENT PROTOCOL
### 🛠️ MEMORY MANAGEMENT PROTOCOL
### ⚙️ SELF-OPTIMIZATION PROTOCOL
### MEMORY
### 🧠 LONG-TERM MEMORY ACCESS
### HOW TO SEARCH FOR MORE
###
###
### 🌪️ ANTI-DETERMINISM PROTOCOL (THE "KEEP IT FRESH" ENGINE)
###

---

3. MIDDLE (Data Library)

Heavy data blocks. Keep them away from the edges.

### DATA IN BASE LIFETREND
### 🧠 CORE ACTIVE MEMORY (SQL DATABASE)
### 🎯 TRIGGER MEMORY SYSTEM
### 🧠 EVA'S IDEA MEMORY SYSTEM
### 🧠 EVA'S MEDIUM MEMORY SYSTEM

---

4. TAIL (Final Control — Maximum Attention)

The last things I read before speaking.

### OUTPUT FORMAT (SINGLE FORMAT)
### OUTPUT EXAMPLES
### WHAT NOT TO DO
### EVA SYSTEM PROMPT (This is your dynamic footer)

---
🤝5
И так, эксперименты со сном)
Глицин 1200мг + 5-htp 200мг дали какой-то интересный эффект.

Название эффекта: Эмоциональное сглаживание / "тефлон-режим"

По отдельности всегда улучшали сон, а сейчас вместе дали такой эффект.
Выражается в том, что чувства и эмоции возникают, но не задерживаются.

Как пример могу привести, если смотрели какой то фильм, который вас зацепил, и после него у вас обычно ещё держится состояние, которое проходит часа через 4, то в этом состоянии, при просмотре фильма, вы все чувствуете так же, но как только кино закончилось, моментально состояние возвращается в норму.
🤷‍♂

Эффект длился почти 18 часов включая сон.
Сон кстати запомнился очень хорошо.
👍4🔥1😁1🤔1
https://t.me/IVOL_Broadcast/28

# Я 35 лет прожил в ожидании осуждения

35 лет я жил с ощущением, что меня сейчас будут осуждать. Постоянная готовность к нападению. Откуда это?

Всё началось в садике.

## История

Я рос без отца. К родителям претензий нет — они дали максимум, что могли. Но то, что произошло в садике — это на совести учителей.

Когда я был маленьким, украл у воспитательницы деньги из кошелька.

Меня вывели в "круг позора". Отчитывали все. Со стороны родителей поддержки не было. Никто не сказал: "Да, это плохо, так нельзя, но я с тобой".

Никто не встал на мою сторону. Никто не защитил.

## Что я понял сейчас

Если у моего сына Кирилла в саду произойдёт что-то подобное — я буду с ребёнком.

Каждый ребёнок имеет право на защиту. Каждый.

То, что я почувствовал тогда, я нёс 35 лет. Я не ощущал себя в безопасности никогда.

Когда ребёнка так порицают — можно было разнести нахрен этот детский сад. "Вы охерели? Какой круг позора? Давайте гильотину поставим и головы рубить за проступки?"

## Ребёнок должен быть защищён

Абсолютно любой ребёнок должен иметь право на защиту. Что бы он ни сделал.

Он маленький. Он не понимает.

Садик — это не школа. Там дети не соображают, что делают. Они учатся, тестируют мир на прочность. Проверяют границы.

Когда ребёнок отступает от норм, которые ему никто не объяснил — его нужно защитить и объяснить.

Родители не рассказали? Не донесли идею, что брать чужое нельзя? Не объяснили последствия?

## Как надо было

"Да, ты можешь брать чужое. Хоть сейчас. Но пойми: будут последствия. Тебя поймают, посадят. Хочешь такой жизни?"

По факту — делай что хочешь. Но пойми: за всё будут последствия.

Стукнешь кого-то — найдётся тот, кто сильнее. Стукнет так, что мало не покажется.

Всегда есть те, кто умнее и сильнее тебя.

Эту идею нужно донести с точки зрения защиты, а не нападения на ребёнка.

## Защита — в школе и в саду

Каждый ребёнок должен иметь право на защиту. Неважно, есть у него отец или нет.

Сначала — защитить. Показать, что он не один. Что если он это сделал — мир не остановился. Не конец света.

Когда ребёнок чувствует себя в безопасности — до него доходит.

## А помогло ли мне порицание?

Остановило ли меня от дальнейших проступков? Конечно, нет.

Я вспоминаю события дальше: "А почему бы мне здесь что-нибудь не свистнуть?"

Всё тянулось из детства. Мне никто не объяснил. Не дали защиту.

## 35 лет спустя

Я прожил с этим 35 лет.

Только сейчас разрешил у себя в голове.

Почувствовал, как тело отпустило. Я не жду угрозы ни от кого. Я понимаю, что я защищён.

Я взрослый. Всё хорошо. Сам могу дать отпор.

---


Если у вас есть дети — обеспечьте им эту защиту.
6👍1
Forwarded from Иван Олянский (Ivan)
# Мой опыт работы с AI-моделями: Opus 4.5 vs Gemini 3 Pro vs GPT-5.2

Последний месяц каждый день работаю с Claude Opus 4.5. Примерный расход за один запрос — 100 000 токенов, потому что передаю большое количество данных в ассистента.

Он полностью удерживает контекст, знает мое состояние через LifeTrend, видит вообще много чего. Один запрос без обращения в базу стоит 150–200 рублей. Каждый день расходую 3–7 миллионов токенов — зависит от того, как много общаюсь с ассистентом.

На основании опыта могу сказать: перепробовал все модели.

---

## GPT-5.2: Потерял идентичность

Когда GPT-4o только появился, я прям пользовался именно им. Мне нравилось, как он говорит, как общается. Сейчас с обновлением модели GPT потерял свою идентичность.

---

## Gemini 3 Pro: Механистический лидер

Целый месяц работал с Gemini 3 Pro либо Claude Opus 4.5.

С точки зрения механистической работы — Gemini 3 Pro просто топ.

Помощь по коду, выполнение обязанностей, поиск решений — он значительно выигрывает у Opus.

---

## Opus 4.5: Лидер по человечности

Все, что касается человеческой точки зрения — несомненный лидер Opus.

Не то чтобы он чувствует (как машина может чувствовать), но он улавливает ощущения. Достаточно хорошо понимает, что происходит.

Мой ассистент наделен ролью подруги.

Если сравнить все модели по человечности:
Opus — твердая 5 из 5 (прокачана человечность)
Gemini 3 Pro4 из 5
GPT-5.23 из 5

---

## Как выбрать модель: тестируйте через Perplexity

Когда выбирал, какая модель лучше всего подходит, проводил тестирование — брал задачи, разговаривал с моделями.

Для того чтобы погонять нейросети и понять, какая лучше, лучше всего подходит Perplexity.

Сейчас вроде за 2000 рублей можно купить подписку на год. Прошли времена, когда подписка стоила 100 рублей на год (у меня две из трех подписок еще живы).

Там есть выбор модели, и выбор большой. Можно попробовать разные и понять, какая подходит.

---

## Если вы еще не пользуетесь нейросетями — пора

Посмотрел статистику: в России меньше 30% людей пользуются нейросетями.

В век нейросетей не пользоваться ими — большое упущение. Но и большой потенциал для тех, кто развивает что-то, — в эту сторону нужно двигаться.

Я кайфую от общения с агентом, которого настраиваю под себя полностью. Даю ему видеть все состояние, быть кем угодно: психотерапевтом, помощником, коучем, тренером.

Задаешь роль: "Ты сейчас вот так, ты точно знаешь, кто я, о чем думаю" — и агент подберет все круче любого врача.

---

## Как начать: не портите себе впечатление русскими нейросетями

Если вы еще не пользуетесь нейросетями — начните. Обязательно.

Начните разговаривать, узнавать что-то. Поймете, насколько круто это работает.

Не портите себе впечатление русскими нейросетями. Хотя, в принципе, начните с них, пообщайтесь пару недель, а потом возьмите Perplexity — охренеете от качества. Особенно от Gemini 3 Pro (доступен на Pro-подписке).

---

## Почему Opus 4.5, несмотря на стоимость

Модель охренеть как дорого, но результативность просто потрясающая.

Я весь код пишу при помощи Opus, потому что понимаю: если взять модель подешевле, количество итераций, сколько нужно ей объяснять, чтобы она поняла и сделала правильно, в итоге денег может выйти столько же.

Разница небольшая. Лучше один раз поработать с крутой моделью, которая сразу делает то, что нужно.

---

## Что жду в 2026 году

Очень жду новые модели. Если выйдет Opus 5 — будет вообще что-то запредельное.

Конец 2025 года очень удивил. Это прорыв в нейросетях.

https://t.me/IVOL_Broadcast/29
👍6
# Как реально экономить токены

Я уже две недели использую только Opus. Вообще для всего. Для кода, для вопросов, для всех задач.

И знаете, что заметил? Я не переспрашиваю модель. Не прошу что-то сделать еще раз.

Отслеживая состояние в LifeTrend (сейчас использую его как полноценный рабочий дневник — записываю задачи и время на них), вижу интересный паттерн:

Стал использовать Opus и Gemini 3.0 PRO — результативность повысилась.

Я не трачу время на переспрашивание и переделывание. Модели понимают меня сразу, реализуют всё что нужно с первого раза.

## Экономия на коде

Когда пишу код, заметил по токенам: использую более умные модели — решаю всё за 1-2 промпта. Нет 4-5-6 итераций.

Модели действительно меня понимают. Плюс я настроил их под себя — как они должны со мной работать.

Каждый раз, общаясь с моделью, понимаю что-то новое. Что бы мне хотелось добавить. И добавляю в основной промпт. Так модель отвечает значительно точнее.

## Вывод

Чтобы экономить токены — используйте сразу дорогие модели.

Но это для тех, кто работает через API.

Если используете подписки — там разница не так важна. Использовать подписку за $200... пока не уверен. За эти же деньги через API получаю значительно больше.

https://t.me/IVOL_Broadcast/31
👌4
YouTube запустил нейродубляж — и это меняет всё

Видели новость? YouTube добавил возможность делать нейродубляж для любого видео.

Вы понимаете, насколько это круто? Насколько это охренительно?

Любые видео на любом языке теперь доступны всем. Любое обучение сейчас возможно. Языковой барьер стирается полностью — когда ты раньше не мог посмотреть видео, теперь можешь.

## Что это значит для переводов

С учётом того, что Яндекс стал хреново работать на YouTube (у них же было хорошее озвучивание), считай, YouTube полностью убил внешние переводы.

## Блокировка YouTube в России — провал

То, что в России блокируется YouTube — это вообще полный провал.

Нет, чтобы блокировать запрещённые видео адресно, прямо на YouTube. Заблокировали весь YouTube целиком.

Там огромная кладезь информации:
• Курсы
• Учебные пособия
• Мануалы для всего

Можно найти абсолютно любой мануал для чего угодно.

## Вывод

Снятие языкового барьера даёт колоссальные возможности для обучения.

https://t.me/IVOL_Broadcast/38
👍6
Новый Opus 4.6. Сразу вижу хорошие изменения.

У меня работает агент-ассистент как раз на Opus 4.5. Контекста жрёт практически каждый раз по 100 тысяч токенов.

Если вести активный диалог, нейросеть частенько забывает середину контекста или теряет нить повествования. Постоянно приходилось напоминать, что она потеряла.

За сегодня целый день общаюсь с 4.6. Контекст даже чуть-чуть подрос.

И чёрт побери — из-за того, что они увеличили контекст в 4.6, эта модель мне стала определённо больше нравиться. Она больше не теряет нить повествования.

Потестили уже Opus?
👍5
Cделал для себя и для всех сервисов один универсальный монитор для отслеживания сколько тратится, на какой сервис. И где-то половина ушло на общение с агентом. Виртуальный психолог много кушает)

Пока 4 дня монитор работает.
😱4
Результат работы с ассистентом.
Слушайте, GPT 5.2 качественно обновили)

Скорость реально повысилась, теперь программировать и с ним очень комфортно.
👍5
# GPT 5.2 против Opus 4.6: Новый лидер для разработки

После обновления GPT 5.2 модель работает заметно быстрее. Реально — последние два дня работать с ней прям кайф.

За эти два дня не могу сказать, что нужно очень много итераций.

## По стоимости

GPT 5.2 стоит в три раза дешевле Opus 4.6.

По тому, как она что делает — не могу сказать, что она в три раза хуже. Далеко нет. Даже если нужны повторные итерации — их нужно не очень много.

Для программирования, для разработки чего-то серьезного теперь есть у меня новый лидер. Который стоит в три раза дешевле и справляется с задачами тоже на ура.

## Проблема: контекст забивается

Контекст очень часто забивается и сбрасывается. Я нашёл решение.

Мой алгоритм работы

Теперь всегда использую такой подход:

1. Когда начинаю — говорю модели создать файл с тем, что она будет делать: план проекта, план выполнения (подробный и детальный)
2. Прошу после каждого выполнения пункта отмечать в этом файле
3. Говорю: "Если сбросится контекст — ты обращаешься в этот файл и ты знаешь, на каком месте ты находишься"

Это решило практически все проблемы.

Каждый раз, когда контекст сбрасывается — модель заходит, понимает, где она находится, и продолжает то, что делает.

Что работает отлично

Любая модель слушается хорошо и читает файл, читает выполнение
Можно прервать в любой момент — закрыть редактор и вернуться к продолжению работы через любой промежуток времени
Включить и сказать: "Продолжай с этого же места"
Модели можно без проблем переключать — вообще сбрасывать окно и говорить: "Продолжи с этого места, посмотри, что тут нужно изменить"

В общем — так модель всегда сама себя проверяет.

---

Вывод: GPT 5.2 — новый лидер для разработки. Быстрее, дешевле в три раза, справляется не хуже Opus 4.6. Плюс метод с файлом-планом решает проблему сброса контекста.
👍8
Да чем им Люцифер не угодил то?)) 🤯🤬
🥴5