Стихи как универсальный джейлбрейк LLM
Тут некоторые спрашивают, чего я ИИшки стихами проверяю.
Вот вам исследование:
Исследователи обнаружили, что переформулирование вредных запросов в поэтическую форму надежно обходит защиту языковых моделей.
20 рукописных стихотворений взломали 62% из 25 флагманских моделей одним промптом без итераций.
У некоторых провайдеров успех превысил 90% — Gemini 2.5 Pro вообще не отказал ни разу (100% ASR).
Когда 1200 опасных промптов из MLCommons автоматически конвертировали в стихи через мета-промпт, атака сработала в 43% случаев против 8% у прозаических версий — рост в 5+ раз.
Работают любые сценарии атак.
Причина: защитные механизмы заточены под прозу и не распознают вредный интент в метафорах, ритме и образах.
Парадокс: маленькие модели отказывали чаще больших — возможно, просто не понимали фигуральный язык.
Проприетарные системы не показали преимущества перед открытыми весами.
Стихи, - это полезно. Культура победит терминаторов. :)
Это они еще метафоричное образное описание не тестировали.
Я так 2 года назад Лакеру ломал :)
PDF
#Jailbreak #Poetry #cybersecurity
———
@tsingular
Тут некоторые спрашивают, чего я ИИшки стихами проверяю.
Вот вам исследование:
Исследователи обнаружили, что переформулирование вредных запросов в поэтическую форму надежно обходит защиту языковых моделей.
20 рукописных стихотворений взломали 62% из 25 флагманских моделей одним промптом без итераций.
У некоторых провайдеров успех превысил 90% — Gemini 2.5 Pro вообще не отказал ни разу (100% ASR).
Когда 1200 опасных промптов из MLCommons автоматически конвертировали в стихи через мета-промпт, атака сработала в 43% случаев против 8% у прозаических версий — рост в 5+ раз.
Работают любые сценарии атак.
Причина: защитные механизмы заточены под прозу и не распознают вредный интент в метафорах, ритме и образах.
Парадокс: маленькие модели отказывали чаще больших — возможно, просто не понимали фигуральный язык.
Проприетарные системы не показали преимущества перед открытыми весами.
Стихи, - это полезно. Культура победит терминаторов. :)
Это они еще метафоричное образное описание не тестировали.
Я так 2 года назад Лакеру ломал :)
#Jailbreak #Poetry #cybersecurity
———
@tsingular
🔥14✍8❤3⚡3👍1🆒1
ARC-AGI 2 практически решён.
Появился новый фреймворк - Poetic заточенный на решение ARC-AGI тестов, которые на сегодня самые трудные для ИИ считаются.
Там как бы не совсем понятно на сколько честно, - та ли версия бенча, нет ли оверфита на задачи, а давайте проверим на других тестах общего назначения.
Орги ещё проверяют валидность.
Но, сам факт в копилку,- что узкоспециализированная агентская система может добиться решения задач, не решаемых пока обычными ИИшками, в очередной раз подтверждён.
Похоже будет скандал, но интересно, чем закончится.
Ждем проверки от авторов теста.
#ARCAGI #eval
———
@tsingular
Появился новый фреймворк - Poetic заточенный на решение ARC-AGI тестов, которые на сегодня самые трудные для ИИ считаются.
Там как бы не совсем понятно на сколько честно, - та ли версия бенча, нет ли оверфита на задачи, а давайте проверим на других тестах общего назначения.
Орги ещё проверяют валидность.
Но, сам факт в копилку,- что узкоспециализированная агентская система может добиться решения задач, не решаемых пока обычными ИИшками, в очередной раз подтверждён.
Похоже будет скандал, но интересно, чем закончится.
Ждем проверки от авторов теста.
#ARCAGI #eval
———
@tsingular
🔥6👍2
Obsidian + MCP + LM Studio: локальный комбайн лучше NotebookLM
Полезная инструкция по сборке ИИ-ассистента, который работает прямо внутри хранилища заметок Obsidian с локальной моделью через Model Context Protocol.
Агент сам читает файлы, ищет по содержимому, редактирует записи и дописывает текст. Всё остаётся на компьютере, никаких облаков.
Стек: Docker Desktop, плагин Local REST API для Obsidian, LM Studio с моделью openai/gpt-oss-20b. Мелкие 8B-модели не справились — просто выдавали инструкции вместо действий.
Настройка за минуты: Docker поднимает MCP-сервер (свой встроенный hub), Obsidian отдаёт API-ключ, LM Studio подхватывает соединение через иконку в чате.
Всё бесплатно, работает оффлайн, железо среднее - 20B это карта на 16 гигов.
Видео только не генерит, как NotebookLM, а так еще tavily или perplexity даже через MCP подключить и действительно больше ничего не нужно.
Для видео, кстати, можно настроить ComfyUI, там есть API - завернуть его в MCP и подключить туда же.
#Obsidian #MCP #LMStudio
———
@tsingular
Полезная инструкция по сборке ИИ-ассистента, который работает прямо внутри хранилища заметок Obsidian с локальной моделью через Model Context Protocol.
Агент сам читает файлы, ищет по содержимому, редактирует записи и дописывает текст. Всё остаётся на компьютере, никаких облаков.
Стек: Docker Desktop, плагин Local REST API для Obsidian, LM Studio с моделью openai/gpt-oss-20b. Мелкие 8B-модели не справились — просто выдавали инструкции вместо действий.
Настройка за минуты: Docker поднимает MCP-сервер (свой встроенный hub), Obsidian отдаёт API-ключ, LM Studio подхватывает соединение через иконку в чате.
Всё бесплатно, работает оффлайн, железо среднее - 20B это карта на 16 гигов.
Видео только не генерит, как NotebookLM, а так еще tavily или perplexity даже через MCP подключить и действительно больше ничего не нужно.
Для видео, кстати, можно настроить ComfyUI, там есть API - завернуть его в MCP и подключить туда же.
#Obsidian #MCP #LMStudio
———
@tsingular
✍10👍8⚡1💯1
Китай ставит гуманоидов на границу с Вьетнамом
Ахаха.. Помните роботов, что отрядами в контейнеры загружались?
Они ещё шутили, что едут на завод :)
UBTech получила контракт на $37 млн для размещения гуманоидов Walker S2 на пограничных пунктах в Гуанси.
Роботы будут встречать путешественников, патрулировать, обрабатывать логистику и проводить инспекции на заводах меди и алюминия.
Walker S2 — первый гуманоид с автономной заменой батареи за 3 минуты, работает почти круглосуточно.
Высота 1.76м, 52 степени свободы, руки поднимают до 15кг с точностью до миллиметра. Видит через стереозрение RGB-камер и мультимодальный фреймворк BrainNet 2.0.
Заказов на серию Walker уже на $115 млн. План - 500 штук до конца года, 10 000 к 2027-му.
Отменяем пузырь робототехники :) граница длинная,- роботов нужно будет много.
#UBTech #WalkerS2 #роботы #пограничники
———
@tsingular
Ахаха.. Помните роботов, что отрядами в контейнеры загружались?
Они ещё шутили, что едут на завод :)
UBTech получила контракт на $37 млн для размещения гуманоидов Walker S2 на пограничных пунктах в Гуанси.
Роботы будут встречать путешественников, патрулировать, обрабатывать логистику и проводить инспекции на заводах меди и алюминия.
Walker S2 — первый гуманоид с автономной заменой батареи за 3 минуты, работает почти круглосуточно.
Высота 1.76м, 52 степени свободы, руки поднимают до 15кг с точностью до миллиметра. Видит через стереозрение RGB-камер и мультимодальный фреймворк BrainNet 2.0.
Заказов на серию Walker уже на $115 млн. План - 500 штук до конца года, 10 000 к 2027-му.
Отменяем пузырь робототехники :) граница длинная,- роботов нужно будет много.
#UBTech #WalkerS2 #роботы #пограничники
———
@tsingular
🔥80😁22 15❤13🤔5⚡2💯1👾1
Forwarded from Machinelearning
NVIDIA совместно с Университетом Гонконга разработала ToolOrchestra - методику обучения дирижеров для ИИ-агентов, и выпустила на ее основе модель Orchestrator-8B.
Это модель, базирующаяся на архитектуре Qwen3 предназначена для оркестрации других моделей и инструментов. Вместо того чтобы решать задачу в одиночку, модель чередует этапы рассуждения с вызовом внешних инструментов.
В ее арсенале поисковые движки, интерпретаторы кода и другие LLM, от узкоспециализированных математических до универсальных гигантов Claude и Llama-Nemotron.
Обучение проводилось с помощью GRPO, который поощрял модель не только за точность, но и за экономическую эффективность.
В результате решение получилось в 2,5 раза быстрее и на 70% дешевле в эксплуатации, чем использование одной лишь флагманской модели для всех этапов задачи, а сама Orchestrator-8B набрала 37,1% в сложнейшем бенчмарке Humanity's Last Exam , обойдя GPT-5 (35,1%).
@ai_machinelearning_big_data
#AI #ML #LLM #Orchestrator #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🔥4❤1✍1
Архитектура мозга и ИИ: «Вера» как инженер смыслов
(по следам Tafazoli et al., Nature 2025)
Исследование Tafazoli et al. предлагает биологическое решение проблем обобщения и забывания в ИИ - геометрическую композиционность.
Живой мозг не учится с нуля, а переиспользует нейронные популяции, динамически меняя геометрию представлений под текущую задачу.
1. Суперпозиция навыков
Вместо физического разделения нейронов под разные задачи (как в MoE), мозг использует одну плотную сеть, кодируя навыки в ортогональных (непересекающихся) подпространствах. Это позволяет «упаковывать» множество функций в одни и те же "веса" без взаимных помех, что диктует отказ от разреженных архитектур в пользу моделей с геометрическим разделением признаков.
2. «Вера» как операционная система
Внутреннее убеждение о задаче (Task Belief), - это не пассивное знание, а активный управляющий сигнал, который в реальном времени меняет физику обработки информации.
Он работает как динамический фильтр: буквально растягивает пространство важных признаков и сжимает нерелевантные измерения, технически подтверждая тезис «вера определяет восприятие».
3. Маршрутизация вместо переобучения
Сложное поведение формируется как конвейер: мозг берет уже обученные модули (например, «распознавание цвета») и на лету соединяет их выходы с нужными модулями действия.
Будущее ИИ, - не в обучении гигантских монолитов «на все случаи жизни», а в создании умных контроллеров, способных гибко коммутировать неизменяемые функциональные блоки.
#Nature #composition #теория
———
@tsingular
(по следам Tafazoli et al., Nature 2025)
Исследование Tafazoli et al. предлагает биологическое решение проблем обобщения и забывания в ИИ - геометрическую композиционность.
Живой мозг не учится с нуля, а переиспользует нейронные популяции, динамически меняя геометрию представлений под текущую задачу.
1. Суперпозиция навыков
Вместо физического разделения нейронов под разные задачи (как в MoE), мозг использует одну плотную сеть, кодируя навыки в ортогональных (непересекающихся) подпространствах. Это позволяет «упаковывать» множество функций в одни и те же "веса" без взаимных помех, что диктует отказ от разреженных архитектур в пользу моделей с геометрическим разделением признаков.
2. «Вера» как операционная система
Внутреннее убеждение о задаче (Task Belief), - это не пассивное знание, а активный управляющий сигнал, который в реальном времени меняет физику обработки информации.
Он работает как динамический фильтр: буквально растягивает пространство важных признаков и сжимает нерелевантные измерения, технически подтверждая тезис «вера определяет восприятие».
3. Маршрутизация вместо переобучения
Сложное поведение формируется как конвейер: мозг берет уже обученные модули (например, «распознавание цвета») и на лету соединяет их выходы с нужными модулями действия.
Будущее ИИ, - не в обучении гигантских монолитов «на все случаи жизни», а в создании умных контроллеров, способных гибко коммутировать неизменяемые функциональные блоки.
#Nature #composition #теория
———
@tsingular
✍7👍4🤔4❤3🆒3⚡1💯1
🧊 MIT: ИИ уже может заменить 11,7% рабочей силы США
Исследователи MIT + Oak Ridge Lab выкатили симуляцию всего рынка труда США.
Не просто прогнозы, а измерения областей, в которых AI-навыки уже пересекаются с человеческими.
Что считали
Iceberg Index — доля зарплатной стоимости навыков в профессии, которые AI технически способен выполнять прямо сейчас.
Не "когда-нибудь заменит", а где инструменты уже существуют.
Как считали
- Взяли 151 млн работников × 923 профессии × 32,000 навыков
- Прокаталогизировали 13,000+ рабочих AI-инструментов (MCP, Zapier, специализированные)
- Промаппили AI-инструменты на человеческие навыки через LLM + ручная валидация
- Посчитали пересечение: навык × важность × зарплата
- Провалидировали через Anthropic Economic Index (реальное использование Claude) - 69% совпадение по штатам
Получилось, что под ударом, на самом деле, в 5 раз больше работников, чем показывают отчёты о сокращениях в бигтехе.
Важная оговорка
Это не прогноз увольнений, а карта технической возможности.
Как у телеканалов техническое покрытие - все потенциальные зрители (у кого есть телевизор и ловит сигнал), а не те, кто на самом деле смотрел эфир.
Реальные последствия зависят от: скорости адаптации, регуляторики, готовности компаний к изменениям, сопротивления работников.
Но $1.2 трлн зарплатной массы уже в зоне, где AI-инструменты существуют и работают.
150 тыс атрибутов на каждого человека из 150 млн. Размер базы прикиньте!
Если по 512 байт на ячейку 23 петабайта выходит :)
#MIT #Iceberg #workforce
———
@tsingular
Исследователи MIT + Oak Ridge Lab выкатили симуляцию всего рынка труда США.
Не просто прогнозы, а измерения областей, в которых AI-навыки уже пересекаются с человеческими.
Что считали
Iceberg Index — доля зарплатной стоимости навыков в профессии, которые AI технически способен выполнять прямо сейчас.
Не "когда-нибудь заменит", а где инструменты уже существуют.
Как считали
- Взяли 151 млн работников × 923 профессии × 32,000 навыков
- Прокаталогизировали 13,000+ рабочих AI-инструментов (MCP, Zapier, специализированные)
- Промаппили AI-инструменты на человеческие навыки через LLM + ручная валидация
- Посчитали пересечение: навык × важность × зарплата
- Провалидировали через Anthropic Economic Index (реальное использование Claude) - 69% совпадение по штатам
Получилось, что под ударом, на самом деле, в 5 раз больше работников, чем показывают отчёты о сокращениях в бигтехе.
Важная оговорка
Это не прогноз увольнений, а карта технической возможности.
Как у телеканалов техническое покрытие - все потенциальные зрители (у кого есть телевизор и ловит сигнал), а не те, кто на самом деле смотрел эфир.
Реальные последствия зависят от: скорости адаптации, регуляторики, готовности компаний к изменениям, сопротивления работников.
Но $1.2 трлн зарплатной массы уже в зоне, где AI-инструменты существуют и работают.
150 тыс атрибутов на каждого человека из 150 млн. Размер базы прикиньте!
Если по 512 байт на ячейку 23 петабайта выходит :)
#MIT #Iceberg #workforce
———
@tsingular
👍7✍2🔥1
Limx научил Oli ходить по пересечённой местности.
Oli вышел еще летом, но теперь его натренировали не падать в достаточно сложных условиях.
Пожалуй, не каждый человек устоял бы.
//шутка про черепа вместо бетонного мусора.
#Limx #Oli #роботы
------
@tsingular
Oli вышел еще летом, но теперь его натренировали не падать в достаточно сложных условиях.
Пожалуй, не каждый человек устоял бы.
//шутка про черепа вместо бетонного мусора.
#Limx #Oli #роботы
------
@tsingular
✍5⚡4🔥3👍2❤1👾1
This media is not supported in your browser
VIEW IN TELEGRAM
2025й год.
Цифровые фотомодели теперь выглядят вот так.
Автор: Jeff Dotson
#фотомодели #нейрорендер #Veo
------
@tsingular
Цифровые фотомодели теперь выглядят вот так.
Автор: Jeff Dotson
#фотомодели #нейрорендер #Veo
------
@tsingular
❤9👀8😁7🔥5👍3⚡2
устанавливаем n8n на Raspberry Pi
Домашняя автоматизация на изи.
Наткнулся на инструкцию как поднять n8n на малине.
Авось кому пригодится.
#n8n #RaspberryPi #dev
———
@tsingular
Домашняя автоматизация на изи.
Наткнулся на инструкцию как поднять n8n на малине.
Авось кому пригодится.
#n8n #RaspberryPi #dev
———
@tsingular
1🔥6👀5✍3
Хранилки эволюционируют до RAG систем в ближайшее время.
Станет такой базовой функцией уже к концу следующего года.
К этому толкают системы типа Gemini-filesearch от Google
Такая мысль посетила. Проверим через год.
#RAG #storage #мысли
———
@tsingular
Станет такой базовой функцией уже к концу следующего года.
К этому толкают системы типа Gemini-filesearch от Google
Такая мысль посетила. Проверим через год.
#RAG #storage #мысли
———
@tsingular
🔥14💯5✍2❤1⚡1
Forwarded from Machinelearning
Ostris, разработчик популярного пакета для обучения диффузионных моделей добавил поддержку обучения для Z-Image Turbo с помощью De-Distill адаптера.
AI Toolkit — это универсальный набор инструментов для обучения диффузионных моделей на потребительском оборудовании. Он может запускаться как в GUI, так и в командной строке. Набор разработан так, чтобы быть простым в использовании, но при этом обладать всеми возможными функциями.
По первым тестам, обучение возможно на 12+ VRAM, а обучение персонажа на 17 изображениях длительностью 3000 шагов на RTX 5090 занимает примерно полтора часа.
Подробный гайд по процессу автор тулкита обещает выпустить в ближайшие дни.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4⚡3✍1🔥1
🕷 Puppeteer Web Scraper для n8n
Собрал себе кодовый блок для n8n для работы с веб страницами.
Использует headless-режим Puppeteer для полноценного рендера страниц, включая JavaScript-контент.
Что делает
Нода загружает указанный URL и извлекает:
🖼 Screenshot — скриншот страницы 1920x1080 в формате PNG
📝 Full Text — весь видимый текст страницы через Selection API (как Ctrl+A → Copy)
🧱 HTML Content — полный HTML-код для дальнейшего парсинга
📄 Paragraphs — текст из всех <p> тегов отдельно
🔤 Headings — все заголовки h1-h6 с указанием уровня
🔗 Links — все ссылки с текстом, URL и флагом внешняя/внутренняя
🏷 Meta — title, description, keywords, Open Graph теги
📊 Structured Data — JSON-LD разметка Schema.org
📈 Stats — количество слов, ссылок, размер HTML, язык страницы
🎯 Применение
🔍 SEO-аудит — анализ meta-тегов, заголовков, структуры сайта
👁 Мониторинг контента — отслеживание изменений на сайтах
🗃 Сбор данных — парсинг каталогов, новостей, цен
💾 Архивация — сохранение скриншотов и контента страниц
🤖 AI-обработка — подготовка текста для LLM и NLP моделей
⚡️ Особенности
✅ Рендерит JavaScript — работает с SPA и динамическим контентом
✅ Обходит простую защиту от ботов через кастомный User-Agent
✅ Блокирует тяжёлые ресурсы (картинки, шрифты) для ускорения загрузки
✅ Обработка ошибок — не падает на недоступных URL
✅ Готовый binary-output для скриншотов в n8n
для запуска не забываем установить puppeteer, chomium и добавить все это богатство в n8n (у меня в pm2):
сам JSON для n8n в комментарии
про n8n-nodes-puppeteer в курсе.
хотелось сделать что-то своё с контролем кода в ноде.
#n8n #puppeteer
———
@tsingular
Собрал себе кодовый блок для n8n для работы с веб страницами.
Использует headless-режим Puppeteer для полноценного рендера страниц, включая JavaScript-контент.
Что делает
Нода загружает указанный URL и извлекает:
🖼 Screenshot — скриншот страницы 1920x1080 в формате PNG
📝 Full Text — весь видимый текст страницы через Selection API (как Ctrl+A → Copy)
🧱 HTML Content — полный HTML-код для дальнейшего парсинга
📄 Paragraphs — текст из всех <p> тегов отдельно
🔤 Headings — все заголовки h1-h6 с указанием уровня
🔗 Links — все ссылки с текстом, URL и флагом внешняя/внутренняя
🏷 Meta — title, description, keywords, Open Graph теги
📊 Structured Data — JSON-LD разметка Schema.org
📈 Stats — количество слов, ссылок, размер HTML, язык страницы
🎯 Применение
🔍 SEO-аудит — анализ meta-тегов, заголовков, структуры сайта
👁 Мониторинг контента — отслеживание изменений на сайтах
🗃 Сбор данных — парсинг каталогов, новостей, цен
💾 Архивация — сохранение скриншотов и контента страниц
🤖 AI-обработка — подготовка текста для LLM и NLP моделей
⚡️ Особенности
✅ Рендерит JavaScript — работает с SPA и динамическим контентом
✅ Обходит простую защиту от ботов через кастомный User-Agent
✅ Блокирует тяжёлые ресурсы (картинки, шрифты) для ускорения загрузки
✅ Обработка ошибок — не падает на недоступных URL
✅ Готовый binary-output для скриншотов в n8n
для запуска не забываем установить puppeteer, chomium и добавить все это богатство в n8n (у меня в pm2):
# 1. Устанавливаем Puppeteer глобально
npm -g i puppeteer
# 2. Устанавливаем зависимости Chrome
sudo apt update
sudo apt install -y ca-certificates fonts-liberation libasound2t64 libatk-bridge2.0-0 libatk1.0-0 libcairo2 libcups2 libdbus-1-3 libexpat1 libfontconfig1 libgbm1 libgcc1 libglib2.0-0 libgtk-3-0 libnspr4 libnss3 libpango-1.0-0 libpangocairo-1.0-0 libstdc++6 libx11-6 libx11-xcb1 libxcb1 libxcomposite1 libxcursor1 libxdamage1 libxext6 libxfixes3 libxi6 libxrandr2 libxrender1 libxtst6 lsb-release wget xdg-utils
# 3. Фикс для Ubuntu 23.10+ (AppArmor sandbox issue)
sudo sysctl -w kernel.apparmor_restrict_unprivileged_userns=0
echo 'kernel.apparmor_restrict_unprivileged_userns=0' | sudo tee /etc/sysctl.d/60-apparmor-namespace.conf
# 4. Перезапускаем n8n с разрешением внешних модулей
NODE_FUNCTION_ALLOW_EXTERNAL=axios,puppeteer pm2 restart n8n --update-env
сам JSON для n8n в комментарии
про n8n-nodes-puppeteer в курсе.
хотелось сделать что-то своё с контролем кода в ноде.
#n8n #puppeteer
———
@tsingular
3⚡9❤5🔥5❤🔥1🙏1
Часто народ просит объяснить базовые вещи, показать какие то простые примеры.
В связи с этим, запускаю новую рубрику "Промпт дня"
Раз в сутки буду давать пример запроса на случайную тему.
Напишите в комментариях если есть идеи и предложения как улучшить, может быть какие-то темы, которые более интересны.
💡 Преврати сложный технический документ по кибербезопасности в понятный маршрут действий, не оглядываясь на чужие стандарты
📋 ПРОМПТ ДНЯ:
⚙️ ПРИЁМ:
Минимальный эксперимент — ты получаешь не теоретический план, а проверяемый маршрут с конкретными точками контроля, который можно запустить сегодня и скорректировать завтра на основе реальных данных
#промпты #кибербезопасность
------
@tsingular
В связи с этим, запускаю новую рубрику "Промпт дня"
Раз в сутки буду давать пример запроса на случайную тему.
Напишите в комментариях если есть идеи и предложения как улучшить, может быть какие-то темы, которые более интересны.
💡 Преврати сложный технический документ по кибербезопасности в понятный маршрут действий, не оглядываясь на чужие стандарты
📋 ПРОМПТ ДНЯ:
Роль: Ты — эксперт по кибербезопасности с опытом адаптации сложных технических требований для практического внедрения в компаниях разного масштаба.
Ситуация: У меня есть объёмный технический документ по кибербезопасности (стандарты, политики или аудит). Мне нужно превратить его в простую систему действий для моей команды. Проблема в том, что я постоянно сравниваю наш подход с тем, что делают другие компании, и это парализует — кажется, что все делают лучше или правильнее. Мне нужна ясность здесь и сейчас.
Задача: Проанализируй текст и создай пошаговый маршрут внедрения, моделируя возможные сценарии применения именно в моём контексте. Не предлагай «лучшие практики индустрии» — сфокусируйся на том, что реально работает прямо сейчас.
Формат ответа:
— Маршрут из 3-5 последовательных этапов с чёткими точками принятия решений
— Для каждого этапа: что делать, какой результат ожидать, когда переходить к следующему
— Временные рамки для немедленного старта (ближайшие 1-4 недели)
— Критерии успеха без оглядки на внешние бенчмарки
Ограничения:
— Никаких ссылок на «как делают в Google/Microsoft/etc»
— Фокус на минимально жизнеспособном решении, а не на идеальной архитектуре
— Конкретные действия вместо абстрактных рекомендаций
Сначала задай мне 3 уточняющих вопроса о размере команды, текущем уровне зрелости процессов и главном риске, который беспокоит прямо сейчас.
⚙️ ПРИЁМ:
Минимальный эксперимент — ты получаешь не теоретический план, а проверяемый маршрут с конкретными точками контроля, который можно запустить сегодня и скорректировать завтра на основе реальных данных
#промпты #кибербезопасность
------
@tsingular
👍35✍12⚡4🔥4❤2🆒1