Привет! Я Ксения, основатель As-Is🔴
Со студенческой скамьи мечтала стать ИТ-архитектором: проектировать системы, которых ещё не существует. Но первый реальный проект быстро отрезвил: чтобы строить To-Be, нужно сначала распутать As-Is. Составить реестр ВМ и микросервисов на всех стендах, понять связи, собрать диаграммы деплоя. Что-то можно узнать из CMDB и RHDH, но многое - только из уст разработчиков и сисадминов (а люди могут забывать и ошибаться).
На следующих работах история повторилась. Архитектора чаще зовут не "с нуля", а когда всё уже запуталось: сначала навести порядок и поддерживать его, а уже потом - проектировать.
Эту рутину я хочу автоматизировать.
Так появился As-Is: я разрабатываю инструмент, который будет автоматически строить карту сервисов и артефакты As-Is - чтобы архитектор быстрее переходил к To-Be.
✔️ Что делаю:
🔘 На этом канале - путь продукта, находки, грабли и практические материалы. Присоединяйтесь.
✔️Если нужна карта сервисов для вашего проекта - напишите мне
Со студенческой скамьи мечтала стать ИТ-архитектором: проектировать системы, которых ещё не существует. Но первый реальный проект быстро отрезвил: чтобы строить To-Be, нужно сначала распутать As-Is. Составить реестр ВМ и микросервисов на всех стендах, понять связи, собрать диаграммы деплоя. Что-то можно узнать из CMDB и RHDH, но многое - только из уст разработчиков и сисадминов (а люди могут забывать и ошибаться).
На следующих работах история повторилась. Архитектора чаще зовут не "с нуля", а когда всё уже запуталось: сначала навести порядок и поддерживать его, а уже потом - проектировать.
Эту рутину я хочу автоматизировать.
Так появился As-Is: я разрабатываю инструмент, который будет автоматически строить карту сервисов и артефакты As-Is - чтобы архитектор быстрее переходил к To-Be.
✔️ Что делаю:
🔻 As-Is как услуга. Подключаюсь к вашему проекту и описываю текущую архитектуру (конфиги, логи, репозитории, интервью с командами). Для вас на выходе - карта сервисов, диаграммы деплоя и C4. Для меня - полевая практика для создания универсального инструмента.
🔻 "Архитектура по кнопке". Разрабатываю продукт, который собирает As-Is автоматически.
🔘 На этом канале - путь продукта, находки, грабли и практические материалы. Присоединяйтесь.
✔️Если нужна карта сервисов для вашего проекта - напишите мне
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🔥1
Недавно Random Coffee внутри клуба @spbfounders смэтчил меня с продакт-менеджером, сильно увлечённой AI-агентами. Я, конечно, рассказала про боль, которую решает As-Is: автоматизацию описания ИТ-инфраструктуры. А она сказала: "Так это же банальный AI-агент".
🤔 Я уже не раз слышала предложение "ИИ-изировать" идею. Обычно отвечаю, что прелесть будущего продукта - в его детерминированности. Разработчики могут что угодно вайбкодить, нейросети - сколько угодно галлюцинировать, девопсы - играть в войнушку зомби-сервисами, но As-Is всё покажет как есть: без видеокарт, без галлюцинаций, без СМС.
Но в этот раз я посмотрела на проблему под другим углом. Допустим, нейросеть. Откуда она возьмёт данные? Как открыть ей все двери, чтобы картина была цельной?
Приятно было увидеть, что вчера тот же вопрос поднял Александр Кусургашев в докладе "Продукт без боли: скорость без риска, качество без тормозов". Он рассказывал про инженерную экосистему, которая позволяет тестировать продуктовые гипотезы за сутки: идея → код → данные → идея.
Сейчас в Т-банке есть отдельные сервисы, которые ускоряют разработку ("база данных по кнопке" и т.п.), но нет единого конвейера, соединяющего их в понятный процесс. Они как раз на пути к его реализации. И одна из ключевых задач на этом пути - сделать все сервисы AI-friendly (MCP + A2A), чтобы на каждом этапе к каждому из них мог постучаться AI-агент за информацией.
Отличный доклад и вдохновляющее направление мысли!🔥
🤔 Я уже не раз слышала предложение "ИИ-изировать" идею. Обычно отвечаю, что прелесть будущего продукта - в его детерминированности. Разработчики могут что угодно вайбкодить, нейросети - сколько угодно галлюцинировать, девопсы - играть в войнушку зомби-сервисами, но As-Is всё покажет как есть: без видеокарт, без галлюцинаций, без СМС.
Но в этот раз я посмотрела на проблему под другим углом. Допустим, нейросеть. Откуда она возьмёт данные? Как открыть ей все двери, чтобы картина была цельной?
Приятно было увидеть, что вчера тот же вопрос поднял Александр Кусургашев в докладе "Продукт без боли: скорость без риска, качество без тормозов". Он рассказывал про инженерную экосистему, которая позволяет тестировать продуктовые гипотезы за сутки: идея → код → данные → идея.
Сейчас в Т-банке есть отдельные сервисы, которые ускоряют разработку ("база данных по кнопке" и т.п.), но нет единого конвейера, соединяющего их в понятный процесс. Они как раз на пути к его реализации. И одна из ключевых задач на этом пути - сделать все сервисы AI-friendly (MCP + A2A), чтобы на каждом этапе к каждому из них мог постучаться AI-агент за информацией.
Отличный доклад и вдохновляющее направление мысли!🔥
❤1
Продолжаю размышлять про применимость ИИ для составления карты сервисов As-Is.
Несмотря на то, что я много вокруг наблюдаю случаев, когда корпоративный код и документацию без фильтров загружают в западные или восточные нейросети, я понимаю, что эта временная сладкая свобода рано или поздно закончится. Все крупные компании развернут локальные gpt (как это уже сделал, например, Авито) и "сливать" можно будет только туда.
А что же со стартапами на базе gpt, которым для работы нужен доступ к чувствительной информации?
Мне кажется, что если прямо сейчас их никто не пустит в контур, то буквально через год-два достаточно будет добавить кнопку переключения с условного ChatGPT на локальную нейросеть и всё будет работать. И в контур пустят, и результат генерации всех устроит.
Cursor уже доказал нам, что интерфейс для работы с нейросетью не должен ограничиваться окном чата. Так что давайте придумывать новые интерфейсы😌
Классным примером является российский стартап Phygital (на фото их питч), который сделал удобный интерфейс для генерации и редактирования изображений (Cursor для дизайнеров). Они уже успешно работают на B2B.
Но им в контур помогло войти то, что они не работают с чувствительными данными. Тем же, кому эти данные нужны, думаю, нужно уже сейчас готовить интерфейсы под будущие повсеместные инхаус LLM.
Несмотря на то, что я много вокруг наблюдаю случаев, когда корпоративный код и документацию без фильтров загружают в западные или восточные нейросети, я понимаю, что эта временная сладкая свобода рано или поздно закончится. Все крупные компании развернут локальные gpt (как это уже сделал, например, Авито) и "сливать" можно будет только туда.
А что же со стартапами на базе gpt, которым для работы нужен доступ к чувствительной информации?
Мне кажется, что если прямо сейчас их никто не пустит в контур, то буквально через год-два достаточно будет добавить кнопку переключения с условного ChatGPT на локальную нейросеть и всё будет работать. И в контур пустят, и результат генерации всех устроит.
Cursor уже доказал нам, что интерфейс для работы с нейросетью не должен ограничиваться окном чата. Так что давайте придумывать новые интерфейсы😌
Классным примером является российский стартап Phygital (на фото их питч), который сделал удобный интерфейс для генерации и редактирования изображений (Cursor для дизайнеров). Они уже успешно работают на B2B.
Но им в контур помогло войти то, что они не работают с чувствительными данными. Тем же, кому эти данные нужны, думаю, нужно уже сейчас готовить интерфейсы под будущие повсеместные инхаус LLM.
👍2
Сергей Баранов на днях написал в своем канале:
Считаю, что вайб-проекты - самые целевые пользователи As-Is. В какой-то момент за вайб-кодингом последует вайб-девопсинг... И тогда нам останется только с интересом наблюдать за динамикой изменения инфраструктуры As-Is в реальном времени😄
Вопрос только в том, будет ли это реверс-инжиниринг или вайб-реверс-инжиниринг.
Судя по тенденциям, общению, анализу, скоро появится потребность в навыке архитектурного устранения последствий vibe coding.
А проблема там усугубляется тем, что при обычной архитектурной диагностике есть носители контекста, а люди (с разной степенью) последовательны, даже если архитектура не очень «стройная».
А вот с вайб кодингом проблема оказалась в том, что носителя контекста как-бы нет, точнее контекст порой вообще не бьется с физическим воплощением и много странных заплаток, то есть пока непонятно, как-будто требуется полное проектирование с нуля (пока кейсов очень мало, но я не нашел других рабочих методов, пока не нашел), но с использованием хотя бы данных о реальном использовании пользователями и эксплуатации в проде.
Считаю, что вайб-проекты - самые целевые пользователи As-Is. В какой-то момент за вайб-кодингом последует вайб-девопсинг... И тогда нам останется только с интересом наблюдать за динамикой изменения инфраструктуры As-Is в реальном времени😄
Вопрос только в том, будет ли это реверс-инжиниринг или вайб-реверс-инжиниринг.
👍2🙈1
Недавно на инфраструктурном митапе клуба Inview в ИТМО попросили поднять руки тех, у кого есть адекватная документация, которая соответствует проду. В большом зале подняли руки… четыре человека.
И вроде бы когда я на кастдевах спрашиваю, стоит ли проблема инвентаризации инфры / архитектурных диаграмм / сервисных карт - мне скучающим голосом перечисляют: CMDB, Grafana Service Map, DataDog, NetBox, Zabbix и т.д.
Столько всего есть, а актуальной документации нет. Как так?
В эпоху данных часто спрашивают: "А знаете ли вы, чем данные отличаются от информации?" Кажется, с этим мы уже разобрались.
Теперь хочется понять другое: чем инвентаризация отличается от документации? И почему у всех так много данных - но всё равно нет актуальной архитектуры As-Is?🔴
И вроде бы когда я на кастдевах спрашиваю, стоит ли проблема инвентаризации инфры / архитектурных диаграмм / сервисных карт - мне скучающим голосом перечисляют: CMDB, Grafana Service Map, DataDog, NetBox, Zabbix и т.д.
Столько всего есть, а актуальной документации нет. Как так?
В эпоху данных часто спрашивают: "А знаете ли вы, чем данные отличаются от информации?" Кажется, с этим мы уже разобрались.
Теперь хочется понять другое: чем инвентаризация отличается от документации? И почему у всех так много данных - но всё равно нет актуальной архитектуры As-Is?
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
На одном из кастдевов мне посоветовали обратить внимание на DataDog. Это сервис мониторинга, который в том числе строит сервисные карты.
Я человек очень конкретный, поэтому мы с моей новой разработчицей Дарьей отправились в Дубай на выставку Gitex, чтобы пообщаться с представителями DataDog (и не только)😄
Один из вопросов, который меня интересовал: как отобразить на сервисной карте виртуалку, к которой нет доступа и потеряны все пароли.
Я думала в сторону того, чтобы не отображать связи вообще (всё равно время жизни такой виртуалки - до первого сбоя). Или показать только входящие стрелки. Или попробовать анализировать сетевой трафик... Но веселые сотрудники DataDog мне на это сказали, что в таком случае надо просто сделать brute force (иными словами хакнуть виртуалку).
Что думаете? Стоит ли включить функционал "хакнуть забытую виртуалку" в состав As-Is?))🔴
Я человек очень конкретный, поэтому мы с моей новой разработчицей Дарьей отправились в Дубай на выставку Gitex, чтобы пообщаться с представителями DataDog (и не только)😄
Один из вопросов, который меня интересовал: как отобразить на сервисной карте виртуалку, к которой нет доступа и потеряны все пароли.
Я думала в сторону того, чтобы не отображать связи вообще (всё равно время жизни такой виртуалки - до первого сбоя). Или показать только входящие стрелки. Или попробовать анализировать сетевой трафик... Но веселые сотрудники DataDog мне на это сказали, что в таком случае надо просто сделать brute force (иными словами хакнуть виртуалку).
Что думаете? Стоит ли включить функционал "хакнуть забытую виртуалку" в состав As-Is?))
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7❤2🥰2
VictoriaMetrics - хороший пример того, как можно вырасти в инфра-сегменте без революций и ломки привычек.
Есть рынок мониторинга: компании собирают метрики с сервисов, хотят хранить их подольше и по этим данным разбирать инциденты. Prometheus стал стандартом де-факто: под него уже написаны экспортеры почти для всего, команды умеют с ним работать, вокруг него сложилась целая экосистема. Но у классического Prometheus быстро появляются больные места: дорого хранить много данных, сложно тянуть длинный ретеншн, архитектура раздувается.
VictoriaMetrics не пришла с идеей "мы вместо Prometheus". Они сделали умнее: оставили весь мир Prometheus как есть (экспортеры, формат метрик, привычные дашборды) и заменили только хранилище и обработку метрик там, где особенно больно по ресурсам и деньгам.
VictoriaMetrics понимает протокол Prometheus, работает с теми же экспортерами и поддерживает PromQL. Для команды это не новый продукт "с нуля", а почти прозрачный апгрейд: подключили другой backend - и мониторинг продолжает жить как раньше, только хранить стало дешевле и можно держать данные дольше.
Урок простой: "То же самое, что у вас уже есть, но без финансовой боли и с нормальным ретеншном" продаётся лучше, чем "новый мир наблюдаемости".
И здесь важно понять для As-Is: нам тоже не обязательно изобретать всё заново. Вопрос в том, что мы можем взять готовым и каким минимальным усилием можно добавить максимальный результат к уже существующей инфраструктуре клиентов?🔴
P.S. Спасибо бывшей разработчице As-Is Дарье за этот кейс.
Есть рынок мониторинга: компании собирают метрики с сервисов, хотят хранить их подольше и по этим данным разбирать инциденты. Prometheus стал стандартом де-факто: под него уже написаны экспортеры почти для всего, команды умеют с ним работать, вокруг него сложилась целая экосистема. Но у классического Prometheus быстро появляются больные места: дорого хранить много данных, сложно тянуть длинный ретеншн, архитектура раздувается.
VictoriaMetrics не пришла с идеей "мы вместо Prometheus". Они сделали умнее: оставили весь мир Prometheus как есть (экспортеры, формат метрик, привычные дашборды) и заменили только хранилище и обработку метрик там, где особенно больно по ресурсам и деньгам.
VictoriaMetrics понимает протокол Prometheus, работает с теми же экспортерами и поддерживает PromQL. Для команды это не новый продукт "с нуля", а почти прозрачный апгрейд: подключили другой backend - и мониторинг продолжает жить как раньше, только хранить стало дешевле и можно держать данные дольше.
Урок простой: "То же самое, что у вас уже есть, но без финансовой боли и с нормальным ретеншном" продаётся лучше, чем "новый мир наблюдаемости".
И здесь важно понять для As-Is: нам тоже не обязательно изобретать всё заново. Вопрос в том, что мы можем взять готовым и каким минимальным усилием можно добавить максимальный результат к уже существующей инфраструктуре клиентов?
P.S. Спасибо бывшей разработчице As-Is Дарье за этот кейс.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍1🔥1
Получила на Хэллоуин благословление на свой инфра-стартап от Крестного отца DevOps @top1ceo🔥
Хороший знак?
Уверена, что да🔴
Хороший знак?
Уверена, что да
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4
В силу обстоятельств, о которых расскажу позже, мой фокус временно сместился с архитектуры по кнопке на деплой по кнопке.
В больших компаниях это уже решено: есть внутренние PaaS-платформы, где разработчик может развернуть сервис, базу или очередь буквально одним нажатием. В мире поменьше можно просто уйти в облако и жить на Heroku или его аналогах.
Но Heroku - это всё-таки чужая инфраструктура. Для команд со строгой СБ и чувствительными данными вариант "отдадим код в облако" даже не поднимается на обсуждение.
Сделать же свой PaaS - дорого, долго и требует сильной платформенной команды. В итоге многие застревают между двумя крайностями: облако нельзя, свой PaaS нереально.
И вот здесь становится интересно. На рынке уже появились решения для этого "между". Одно из них - open-source PaaS Coolify, который можно поставить на свой сервер и получить мини-Heroku под контролем компании.
Что делает Coolify:
- разворачивается на вашем сервере (VPS или физическом);
- использует Docker под капотом и превращает обычный сервер в маленький PaaS;
- подключаешь репозиторий из Git, описываешь, как запускать приложение - дальше сборку и деплой берёт на себя платформа;
- Postgres, Redis и прочие штуки поднимаются как готовые сервисы, а не отдельные "проекты по настройке";
- переменные окружения, логи, рестарты и health-check’и оказываются в одной понятной панели.
Для меня это ещё один пример того же паттерна, что и в истории с VictoriaMetrics: не всегда выигрывает тот, кто обещает "новый мир инфраструктуры". Очень часто побеждает тот, кто говорит: "Давайте ничего радикально не ломать. Сделаем почти то же самое, но с меньшей болью".
Это то, что в итоге должен сделать As-Is🔴
P.S. И да, хайповый n8n по кнопке в Coolify тоже есть))
В больших компаниях это уже решено: есть внутренние PaaS-платформы, где разработчик может развернуть сервис, базу или очередь буквально одним нажатием. В мире поменьше можно просто уйти в облако и жить на Heroku или его аналогах.
Но Heroku - это всё-таки чужая инфраструктура. Для команд со строгой СБ и чувствительными данными вариант "отдадим код в облако" даже не поднимается на обсуждение.
Сделать же свой PaaS - дорого, долго и требует сильной платформенной команды. В итоге многие застревают между двумя крайностями: облако нельзя, свой PaaS нереально.
И вот здесь становится интересно. На рынке уже появились решения для этого "между". Одно из них - open-source PaaS Coolify, который можно поставить на свой сервер и получить мини-Heroku под контролем компании.
Что делает Coolify:
- разворачивается на вашем сервере (VPS или физическом);
- использует Docker под капотом и превращает обычный сервер в маленький PaaS;
- подключаешь репозиторий из Git, описываешь, как запускать приложение - дальше сборку и деплой берёт на себя платформа;
- Postgres, Redis и прочие штуки поднимаются как готовые сервисы, а не отдельные "проекты по настройке";
- переменные окружения, логи, рестарты и health-check’и оказываются в одной понятной панели.
Для меня это ещё один пример того же паттерна, что и в истории с VictoriaMetrics: не всегда выигрывает тот, кто обещает "новый мир инфраструктуры". Очень часто побеждает тот, кто говорит: "Давайте ничего радикально не ломать. Сделаем почти то же самое, но с меньшей болью".
Это то, что в итоге должен сделать As-Is
P.S. И да, хайповый n8n по кнопке в Coolify тоже есть))
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Недавно созвонилась с человеком, который несколько лет подряд занимался техдью-дилидженсом: фонд покупал уставшие компании, а он как CTO шёл разбираться, что там вообще за система под капотом и что из неё можно спасти.
Я пришла к нему с идеей "магического автоскана легаси по сети". Уйти пришлось с чуть более приземлённой картинкой🙂
Первое, что он сказал: то, что я хочу - карту сервисов по живому трафику - уже умеют классические APM (Application Performance Monitoring), например, AppDynamics и New Relic.
Но:
- это дорого и не для РФ,
- и фокус там всё-таки на перформансе и алертах, а не на архитектурном As-Is и аудите инфраструктуры.
То есть идея не в том, чтобы "придумать карту сервисов", а в том, чтобы сделать её доступной, локальной и архитектурно полезной.
Второе важное: мы с ним сильно разошлись в точке фокуса. Для него как для аудитора главная боль - не "что есть", а "почему так сделали": ADR, варианты решений, рациональность.
Для меня - наоборот: честно зафиксировать “что у нас есть и как всё связано сейчас”, а мотивацию людей не пытаться угадывать по логам и коду.
И он сам признал, что быстрая, правдивая As-Is-картинка — золото:
- для фонда, который решает, покупать ли компанию;
- для нового CTO/архитектора;
- для проверки слов экспертов о том, что у них "там всё нормально работает".
Третий инсайт, который мне понравился, хоть он и звучит скучно: "Не начинай с адского кейса, где команда уволена, знаний нет и всё в чёрном ящике. Таких мало, и это их карма. Гораздо больше нормальных компаний с бардаком".
Для меня этот разговор стал хорошим фильтром:
не бежать в "найдём невидимые ВМ в подвале без доступа и людей", а делать нормальный инструмент для нормальных компаний с бардаком))🔴
Я пришла к нему с идеей "магического автоскана легаси по сети". Уйти пришлось с чуть более приземлённой картинкой🙂
Первое, что он сказал: то, что я хочу - карту сервисов по живому трафику - уже умеют классические APM (Application Performance Monitoring), например, AppDynamics и New Relic.
Но:
- это дорого и не для РФ,
- и фокус там всё-таки на перформансе и алертах, а не на архитектурном As-Is и аудите инфраструктуры.
То есть идея не в том, чтобы "придумать карту сервисов", а в том, чтобы сделать её доступной, локальной и архитектурно полезной.
Второе важное: мы с ним сильно разошлись в точке фокуса. Для него как для аудитора главная боль - не "что есть", а "почему так сделали": ADR, варианты решений, рациональность.
Для меня - наоборот: честно зафиксировать “что у нас есть и как всё связано сейчас”, а мотивацию людей не пытаться угадывать по логам и коду.
И он сам признал, что быстрая, правдивая As-Is-картинка — золото:
- для фонда, который решает, покупать ли компанию;
- для нового CTO/архитектора;
- для проверки слов экспертов о том, что у них "там всё нормально работает".
Третий инсайт, который мне понравился, хоть он и звучит скучно: "Не начинай с адского кейса, где команда уволена, знаний нет и всё в чёрном ящике. Таких мало, и это их карма. Гораздо больше нормальных компаний с бардаком".
Для меня этот разговор стал хорошим фильтром:
не бежать в "найдём невидимые ВМ в подвале без доступа и людей", а делать нормальный инструмент для нормальных компаний с бардаком))
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🔥4👍2
Asis Elektronik ve Bilişim Sistemleri A.Ş. дружелюбно подмигивают моему As Is из турецкого платежного терминала🔴
Please open Telegram to view this post
VIEW IN TELEGRAM
😁4🔥1