[2/2] The Technological Republic: Hard Power, Soft Belief, and the Future of the West (Технологическая республика. Жесткая сила, мягкая вера и будущее Запада) (Рубрика #Economics)
Продолжая рассказ про книгу, расскажу про основные идеи подробнее
1. Кремниевая долина потеряла ориентир общественного блага. Авторы начинают с резкой критики современной Силиконовой долины, утверждая, что за последние десятилетия технократическая элита изменила своим бывшим идеалам. Вместо решения больших задач человечества или укрепления национального процветания, лучшие инженерные умы занялись обслуживанием тривиальных потребностей рынка. Авторы говорят, что IT-гиганты ныне тратят колоссальные ресурсы не на прорывные инновации ради общего блага, а на приложения для комфорта избалованных потребителей. Забавно, что не требуется даже думать, чтобы можно было назвать конкретные компании, которые критикуют авторы.
2. Урок истории: союз технологий и государства творил великие дела. В противопоставление нынешней ситуации авторы приводят золотой век техно-прорывов XX века, когда наука, бизнес и государство в США действовали заодно (Манхэттенский проект, проект Apollo с высадкой человека на Луну). Эти программы объединили тысячи лучших учёных и инженеров, были щедро профинансированы государством и привели к колоссальным достижениям, изменившим ход истории. Авторы подчёркивают, что ранние инновации Кремниевой долины рождались похожим образом. Контраст с сегодняшним днем разителен: вместо “больших замыслов” - культура стартапов, устремленных к быстрому IPO; вместо сотрудничества с государством - гордое противопоставление ему или бегство от регулирования. Кстати, современный проект "Stargate" в этом плане выделяется (см. документалку, о которой я уже рассказывал)
3. “Мягкая вера” Запада: утрата общих убеждений и целей. Важнейшее понятие, которое вводят Карп и Замиска, - это кризис веры и идейной воли на Западе, то, что они называют "soft belief". С их точки зрения, у западных элит (политиков, академиков, гендиректоров) притупилась способность формулировать настоящие убеждения и отстаивать их публично. В публичной сфере царит дух самосохранения и страха кого-либо обидеть, из-за чего лидеры предпочитают говорить ни о чем, прятаться за корпоративными лозунгами, лишь бы избежать шквала критики в соцсетях. Этот интеллектуальный релятивизм ведет к тому, что компании, реально определяющие будущее (бигтехи), хранят многозначительное молчание о том, куда движется мир. Авторы доходят до идеи о “распаде национальной идентичности”, которая когда-то сплачивала изобретателей и инженеров вокруг общей цели, а теперь растворилась в космополитичном мире потребительства
4. Необходим пересмотр либерального консенсуса. Вследствие вышеописанного авторы считают, что сложившийся после Холодной войны либеральный консенсус – вера в автоматическое торжество свободного рынка, глобализации и толерантности - нуждается в переосмыслении. Карп и Замиска вовсе не призывают отказаться от демократических свобод, но считают, что Западу пора избавиться от наивности и вернуть стратегическое мышление времен противостояния с тоталитаризмом. Видно, что авторы противопоставляют себя Китаю и другим автократиям.
5. Технологическая республика: как технологии могут спасти, а не убить демократию. Центральный образ книги - “технологическая республика” и аллюзия на платоновскую «Республику» (не случайна). Речь о политическом порядке, крайне необходимом сегодня Америке и всему Западу, понимаемому как сообщество технологически и морально развитых демократий под лидерством США. По замыслу авторов, такая республика смогла бы противостоять вызовам XXI века, опираясь одновременно на “жесткую силу” (военную и технологическую мощь) и “мягкую веру” (убежденность, ценности и интеллектуальную смелость). По сути, “технологическая республика” - это призыв к возрождению просвещенного патриотизма среди технарей, ученых, предпринимателей. Их книга - это манифест уверенности в том, что Запад еще способен обновиться и победить, если обретет волю и смысл.
#History #Economics #Future
Продолжая рассказ про книгу, расскажу про основные идеи подробнее
1. Кремниевая долина потеряла ориентир общественного блага. Авторы начинают с резкой критики современной Силиконовой долины, утверждая, что за последние десятилетия технократическая элита изменила своим бывшим идеалам. Вместо решения больших задач человечества или укрепления национального процветания, лучшие инженерные умы занялись обслуживанием тривиальных потребностей рынка. Авторы говорят, что IT-гиганты ныне тратят колоссальные ресурсы не на прорывные инновации ради общего блага, а на приложения для комфорта избалованных потребителей. Забавно, что не требуется даже думать, чтобы можно было назвать конкретные компании, которые критикуют авторы.
2. Урок истории: союз технологий и государства творил великие дела. В противопоставление нынешней ситуации авторы приводят золотой век техно-прорывов XX века, когда наука, бизнес и государство в США действовали заодно (Манхэттенский проект, проект Apollo с высадкой человека на Луну). Эти программы объединили тысячи лучших учёных и инженеров, были щедро профинансированы государством и привели к колоссальным достижениям, изменившим ход истории. Авторы подчёркивают, что ранние инновации Кремниевой долины рождались похожим образом. Контраст с сегодняшним днем разителен: вместо “больших замыслов” - культура стартапов, устремленных к быстрому IPO; вместо сотрудничества с государством - гордое противопоставление ему или бегство от регулирования. Кстати, современный проект "Stargate" в этом плане выделяется (см. документалку, о которой я уже рассказывал)
3. “Мягкая вера” Запада: утрата общих убеждений и целей. Важнейшее понятие, которое вводят Карп и Замиска, - это кризис веры и идейной воли на Западе, то, что они называют "soft belief". С их точки зрения, у западных элит (политиков, академиков, гендиректоров) притупилась способность формулировать настоящие убеждения и отстаивать их публично. В публичной сфере царит дух самосохранения и страха кого-либо обидеть, из-за чего лидеры предпочитают говорить ни о чем, прятаться за корпоративными лозунгами, лишь бы избежать шквала критики в соцсетях. Этот интеллектуальный релятивизм ведет к тому, что компании, реально определяющие будущее (бигтехи), хранят многозначительное молчание о том, куда движется мир. Авторы доходят до идеи о “распаде национальной идентичности”, которая когда-то сплачивала изобретателей и инженеров вокруг общей цели, а теперь растворилась в космополитичном мире потребительства
4. Необходим пересмотр либерального консенсуса. Вследствие вышеописанного авторы считают, что сложившийся после Холодной войны либеральный консенсус – вера в автоматическое торжество свободного рынка, глобализации и толерантности - нуждается в переосмыслении. Карп и Замиска вовсе не призывают отказаться от демократических свобод, но считают, что Западу пора избавиться от наивности и вернуть стратегическое мышление времен противостояния с тоталитаризмом. Видно, что авторы противопоставляют себя Китаю и другим автократиям.
5. Технологическая республика: как технологии могут спасти, а не убить демократию. Центральный образ книги - “технологическая республика” и аллюзия на платоновскую «Республику» (не случайна). Речь о политическом порядке, крайне необходимом сегодня Америке и всему Западу, понимаемому как сообщество технологически и морально развитых демократий под лидерством США. По замыслу авторов, такая республика смогла бы противостоять вызовам XXI века, опираясь одновременно на “жесткую силу” (военную и технологическую мощь) и “мягкую веру” (убежденность, ценности и интеллектуальную смелость). По сути, “технологическая республика” - это призыв к возрождению просвещенного патриотизма среди технарей, ученых, предпринимателей. Их книга - это манифест уверенности в том, что Запад еще способен обновиться и победить, если обретет волю и смысл.
#History #Economics #Future
Telegram
Книжный куб
[1/2] The Technological Republic: Hard Power, Soft Belief, and the Future of the West (Технологическая республика. Жесткая сила, мягкая вера и будущее Запада) (Рубрика #Economics)
Прочитал интересную книгу Александра Карпа и Николаса Замиски из компании…
Прочитал интересную книгу Александра Карпа и Николаса Замиски из компании…
❤11🔥6👍3🙈1🫡1
How are developers using AI? Inside our 2025 DORA report (Рубрика #AI)
Эту статью от 23 сентября мне подкинул Pulse от ChatGPT, который делает подборки по моим интересам. А я действительно много общался с ChatGPT про исследования DORA и про влияние AI на разработку софта - мы в Т-Банке даже запустили большое исследование AI в инженерной культуре России. Но если возвращаться к отчету DORA за 2025 год, то он уже доступен, а также доступно executive summary в этой статье в блоге Google. Если говорить кратко, то вот как AI влияет на разработку софта по измерениям авторов опроса
1. Использование ИИ стало почти повсеместным
- Около 90% разработчиков применяют AI-инструменты
- Более 80% считают, что это повышает их продуктивность
- Около 59% считают что улучшает качество кода.
2. Значительное большинство (65%) опрошенных в значительной степени полагаются на ИИ при разработке программного обеспечения: 37% сообщают об «умеренной степени» зависимости, 20% - о «большой» и 8% - о «значительной».
2. Парадокс доверия и продуктивности
Несмотря на такое проникновение, доверия к AI не настолько велико
- 24% респондентов сообщают о «очень большом» (4%) или «большом» (20%) доверии к ИИ
- 30% доверяют ему «немного» (23%)
Оказывается, что респонденты могут считать работу AI полезной, даже если не полностью доверяют ей. Возможно, они так выстроили процессы, что AI работает скорее как ассистент, но работа полностью не делегируется ему.
3. Архетипы команд
Исследование в этом году также показало, что ИИ может действовать как «зеркало и умножитель». В сплоченных организациях ИИ повышает эффективность. В раздробленных - выявляет слабые места. Для того, чтобы копнуть в это глубже авторы раскрыли семь различных архетипов команд от "гармоничных и успешных" до команд, столкнувшихся с "legacy узкими местами".
4. A blueprint for guiding AI in organizations
В отчете по итогам опроса авторы предлагают "DORA AI Capabilities Model", которая выделяет семь базовых практик, открывающих путь к эффективному применению AI.
#AI #Software #Engineering #Management
Эту статью от 23 сентября мне подкинул Pulse от ChatGPT, который делает подборки по моим интересам. А я действительно много общался с ChatGPT про исследования DORA и про влияние AI на разработку софта - мы в Т-Банке даже запустили большое исследование AI в инженерной культуре России. Но если возвращаться к отчету DORA за 2025 год, то он уже доступен, а также доступно executive summary в этой статье в блоге Google. Если говорить кратко, то вот как AI влияет на разработку софта по измерениям авторов опроса
1. Использование ИИ стало почти повсеместным
- Около 90% разработчиков применяют AI-инструменты
- Более 80% считают, что это повышает их продуктивность
- Около 59% считают что улучшает качество кода.
2. Значительное большинство (65%) опрошенных в значительной степени полагаются на ИИ при разработке программного обеспечения: 37% сообщают об «умеренной степени» зависимости, 20% - о «большой» и 8% - о «значительной».
2. Парадокс доверия и продуктивности
Несмотря на такое проникновение, доверия к AI не настолько велико
- 24% респондентов сообщают о «очень большом» (4%) или «большом» (20%) доверии к ИИ
- 30% доверяют ему «немного» (23%)
Оказывается, что респонденты могут считать работу AI полезной, даже если не полностью доверяют ей. Возможно, они так выстроили процессы, что AI работает скорее как ассистент, но работа полностью не делегируется ему.
3. Архетипы команд
Исследование в этом году также показало, что ИИ может действовать как «зеркало и умножитель». В сплоченных организациях ИИ повышает эффективность. В раздробленных - выявляет слабые места. Для того, чтобы копнуть в это глубже авторы раскрыли семь различных архетипов команд от "гармоничных и успешных" до команд, столкнувшихся с "legacy узкими местами".
4. A blueprint for guiding AI in organizations
В отчете по итогам опроса авторы предлагают "DORA AI Capabilities Model", которая выделяет семь базовых практик, открывающих путь к эффективному применению AI.
#AI #Software #Engineering #Management
❤8🔥3👍2
Журнал "Майнкрафт" (Рубрика #Kids)
Вчера были в большом торговом центре семьей и купили детишкам журналы в разделе пресса. Младший сын, которому скоро будет пять, выбрал себе журнал про майнкрафт, которым он увлечен последний год:) Сегодня мы с ним рассматривали картинки и зачитывали избранные отрывки, а я вспоминал времена своего детства. В те времена я покупал журналы про игры на денди, сега, а потом и про компьютерные игры. Время идет, игры меняются, а игровые журналы все равно собирают аудиторию (хотя с текущим засильем интернета часть изданий теперь обходится без бумаги).
#Kids #Games
Вчера были в большом торговом центре семьей и купили детишкам журналы в разделе пресса. Младший сын, которому скоро будет пять, выбрал себе журнал про майнкрафт, которым он увлечен последний год:) Сегодня мы с ним рассматривали картинки и зачитывали избранные отрывки, а я вспоминал времена своего детства. В те времена я покупал журналы про игры на денди, сега, а потом и про компьютерные игры. Время идет, игры меняются, а игровые журналы все равно собирают аудиторию (хотя с текущим засильем интернета часть изданий теперь обходится без бумаги).
#Kids #Games
🔥10❤5👍3
[1/x] Model Context Protocol (MCP) и Agent-to-Agent (A2A) (Рубрика #AI)
В рамках подготовки к докладу про переход от ассистентов к агентам я решил изучить как мы пришли к двум самым популярным протоколам для LLM. И я говорю про MCP от Anthropic и A2A протокол от Google. Сейчас кажется, что мы движемся в сторону будущего, где AI-ассистенты разных видов свободно подключаются к нужным им данным (через MCP) и объединяются друг с другом для решения наших задач (через A2A). Но так было не всегда, давайте вернемся на шаг назад и посмотрим как появлялись эти протоколы.
Model Context Protocol (MCP) – это открытый стандарт, разработанный компанией Anthropic и представленный 25 ноября 2024 года. Anthropic анонсировала MCP как решение для подключения ИИ-ассистентов к внешним системам и данным, с целью преодолеть разрозненность интеграций, так как до этого приходилось писать кастомные интеграции с каждым источником данных. Запуск MCP привлёк внимание отрасли:
- Уже на старте Anthropic открыла исходный код спецификации и SDK протокола, а также предоставила готовые серверные коннекторы для популярных систем (Google Drive, Slack, GitHub, базы данных и пр.)
- В марте 2025 года OpenAI официально объявила о внедрении MCP во все свои продукты.
- Вскоре о поддержке MCP объявила и Google DeepMind: в апреле 2025 года Демис Хассабис подтвердил, что грядущие модели семейства Gemini будут совместимы с MCP для подключения к внешним данным.
В итоге, к середине 2025 года MCP превратился в де-факто индустриальный стандарт интеграции данных для LLM-ассистентов: его поддержка заявлена в продуктах OpenAI (включая ChatGPT), Anthropic Claude, платформах Microsoft (Semantic Kernel, Azure OpenAI) и других. СМИ окрестили MCP своего рода «USB-C для ИИ» – единым разъёмом, который объединяет конкурентов ради совместимости.
Agent-to-Agent (A2A) – это открытый протокол обмена сообщениями между ИИ-агентами, который был представлен Google 9 апреля 2025 года на платформе Google Cloud совместно с более чем 50 партнёрами. Инициатива A2A возникла из потребности обеспечить взаимодействие множества автономных агентов в корпоративных сценариях. В своем официальном анонсе Google отметила, что предприятия всё активнее внедряют агентные решения для автоматизации рабочих процессов и такие агенты должны уметь сотрудничать друг с другом, даже если они созданы разными вендорами или на разных платформах. Протокол A2A был задуман как универсальный язык для таких агентов, позволяющий им обнаруживать друг друга, обмениваться информацией и координировать действия в рамках распределённой экосистемы.
Запуск A2A сразу получил широкую поддержку в отрасли:
- В работе над стандартом помимо Google участвовали компании Atlassian, Box, Cohere, Intuit, LangChain, MongoDB, PayPal, Salesforce, SAP, Accenture, Deloitte, IBM и др.
- В июне 2025 года Google передала A2A под эгиду Linux Foundation для нейтрального развития сообщества (это чем-то напоминает как Google передала Kubernetes в Cloud Native Computing Foundation, что входит в Linux Foundation)
- Одновременно было объявлено об участии в проекте A2A таких гигантов, как AWS, Cisco, Microsoft, Salesforce, SAP, ...
К середине 2025 года A2A закрепился как открытый межплатформенный стандарт, поддерживаемый множеством крупных игроков, аналогично тому, как MCP стал стандартом для подключения к данным.
Следующий пост будет про устройство протокола MCP.
#AI #Engineering #Architecture #DistributedSystems #ML #Software
В рамках подготовки к докладу про переход от ассистентов к агентам я решил изучить как мы пришли к двум самым популярным протоколам для LLM. И я говорю про MCP от Anthropic и A2A протокол от Google. Сейчас кажется, что мы движемся в сторону будущего, где AI-ассистенты разных видов свободно подключаются к нужным им данным (через MCP) и объединяются друг с другом для решения наших задач (через A2A). Но так было не всегда, давайте вернемся на шаг назад и посмотрим как появлялись эти протоколы.
Model Context Protocol (MCP) – это открытый стандарт, разработанный компанией Anthropic и представленный 25 ноября 2024 года. Anthropic анонсировала MCP как решение для подключения ИИ-ассистентов к внешним системам и данным, с целью преодолеть разрозненность интеграций, так как до этого приходилось писать кастомные интеграции с каждым источником данных. Запуск MCP привлёк внимание отрасли:
- Уже на старте Anthropic открыла исходный код спецификации и SDK протокола, а также предоставила готовые серверные коннекторы для популярных систем (Google Drive, Slack, GitHub, базы данных и пр.)
- В марте 2025 года OpenAI официально объявила о внедрении MCP во все свои продукты.
- Вскоре о поддержке MCP объявила и Google DeepMind: в апреле 2025 года Демис Хассабис подтвердил, что грядущие модели семейства Gemini будут совместимы с MCP для подключения к внешним данным.
В итоге, к середине 2025 года MCP превратился в де-факто индустриальный стандарт интеграции данных для LLM-ассистентов: его поддержка заявлена в продуктах OpenAI (включая ChatGPT), Anthropic Claude, платформах Microsoft (Semantic Kernel, Azure OpenAI) и других. СМИ окрестили MCP своего рода «USB-C для ИИ» – единым разъёмом, который объединяет конкурентов ради совместимости.
Agent-to-Agent (A2A) – это открытый протокол обмена сообщениями между ИИ-агентами, который был представлен Google 9 апреля 2025 года на платформе Google Cloud совместно с более чем 50 партнёрами. Инициатива A2A возникла из потребности обеспечить взаимодействие множества автономных агентов в корпоративных сценариях. В своем официальном анонсе Google отметила, что предприятия всё активнее внедряют агентные решения для автоматизации рабочих процессов и такие агенты должны уметь сотрудничать друг с другом, даже если они созданы разными вендорами или на разных платформах. Протокол A2A был задуман как универсальный язык для таких агентов, позволяющий им обнаруживать друг друга, обмениваться информацией и координировать действия в рамках распределённой экосистемы.
Запуск A2A сразу получил широкую поддержку в отрасли:
- В работе над стандартом помимо Google участвовали компании Atlassian, Box, Cohere, Intuit, LangChain, MongoDB, PayPal, Salesforce, SAP, Accenture, Deloitte, IBM и др.
- В июне 2025 года Google передала A2A под эгиду Linux Foundation для нейтрального развития сообщества (это чем-то напоминает как Google передала Kubernetes в Cloud Native Computing Foundation, что входит в Linux Foundation)
- Одновременно было объявлено об участии в проекте A2A таких гигантов, как AWS, Cisco, Microsoft, Salesforce, SAP, ...
К середине 2025 года A2A закрепился как открытый межплатформенный стандарт, поддерживаемый множеством крупных игроков, аналогично тому, как MCP стал стандартом для подключения к данным.
Следующий пост будет про устройство протокола MCP.
#AI #Engineering #Architecture #DistributedSystems #ML #Software
🔥15👍10❤4👾1
[2/x] Model Context Protocol (MCP) и Agent-to-Agent (A2A) - Архитектура MCP (Рубрика #AI)
Прололжая рассказ про эти протоколы, надо рассказать про то, как они технически устроены.
Архитектура MCP основывается на классической модели «клиент-сервер». MCP-клиентом выступает ИИ-приложение (ассистент, агент), которому требуется доступ к внешним данным или функциям, а MCP-сервером – модуль-коннектор, умеющий взаимодействовать с конкретным внешним сервисом или репозиторием данных. MCP формально специфицирует, как серверы объявляют свои возможности (для их обнаружения клиентами) и как клиенты запрашивают выполнение определённых действий у серверов с получением результатов. В основе коммуникации лежит протокол JSON-RPC 2.0, а обмен сообщениями может происходить по различным транспортам:
- STDIO - взаимодействие через стандартный ввод/вывод, удобно для локальных интеграций
- HTTP - REST API с поддержкой Server-Sent Events для потоковых ответов
Такая архитектура обеспечивает гибкость: один и тот же MCP-клиент (например, чат-бот) может подключаться к разным MCP-серверам (инструментам) по единому протоколу, будь то локально или через сеть.
На практике это выглядит так: разработчик поднимает MCP-сервер для некоторого ресурса – например, MCP-коннектор к базе данных или файловому хранилищу. Сервер описывает, какие функции доступны (например, readFile, queryDatabase) и в каком формате запросы/ответы принимаются. ИИ-модель (клиент) через MCP может динамически обнаруживать доступные инструменты и вызывать их, не имея жёстко закодированных инструкций под каждую интеграцию. Протокол поддерживает двусторонний обмен: сервер может возвращать не только данные, но и метаданные (описание контекста, теги) и даже генерировать последовательность сообщений для управления сложными задачами. Для упрощения разработки Anthropic выпустила SDK MCP и открыла репозиторий с примерами серверов. Это означает, что разработчики могут быстро создавать собственные MCP-коннекторы для любых систем.
Таким образом, технически MCP стандартизует три ключевых аспекта:
1. Discovery: клиенты могут запрашивать у сервера список его возможностей и схемы данных, получая единообразное описание инструментов
2. Invocation: формат запроса для выполнения действия и формат ответа (или ошибки) строго определены JSON-RPC, что устраняет двусмысленность в коммуникации
3. Context handling: MCP позволяет обмениваться контекстной информацией и подгружать данные в подсказки модели. Например, MCP-сервер может не только вернуть сырые данные, но и предоставить модель встроенной подсказкой о том, как эти данные интерпретировать.
Следует отметить, что MCP не привязан к конкретному ИИ-модулю – это уровень интеграции. Любая модель (Claude, GPT-4, Gemini и др.), чей контейнер поддерживает MCP-клиент, сможет обращаться к MCP-серверам. Именно благодаря этому MCP быстро подхватили разные вендоры: стандарт изначально задуман как открытый и совместимый со всеми экосистемами.
В общем, подробнее про MCP можно почитать на сайте Anthropic, а следующий пост будет посвящен рассказу про архитетуру A2A протокола.
#AI #Engineering #Architecture #DistributedSystems #ML #Software
Прололжая рассказ про эти протоколы, надо рассказать про то, как они технически устроены.
Архитектура MCP основывается на классической модели «клиент-сервер». MCP-клиентом выступает ИИ-приложение (ассистент, агент), которому требуется доступ к внешним данным или функциям, а MCP-сервером – модуль-коннектор, умеющий взаимодействовать с конкретным внешним сервисом или репозиторием данных. MCP формально специфицирует, как серверы объявляют свои возможности (для их обнаружения клиентами) и как клиенты запрашивают выполнение определённых действий у серверов с получением результатов. В основе коммуникации лежит протокол JSON-RPC 2.0, а обмен сообщениями может происходить по различным транспортам:
- STDIO - взаимодействие через стандартный ввод/вывод, удобно для локальных интеграций
- HTTP - REST API с поддержкой Server-Sent Events для потоковых ответов
Такая архитектура обеспечивает гибкость: один и тот же MCP-клиент (например, чат-бот) может подключаться к разным MCP-серверам (инструментам) по единому протоколу, будь то локально или через сеть.
На практике это выглядит так: разработчик поднимает MCP-сервер для некоторого ресурса – например, MCP-коннектор к базе данных или файловому хранилищу. Сервер описывает, какие функции доступны (например, readFile, queryDatabase) и в каком формате запросы/ответы принимаются. ИИ-модель (клиент) через MCP может динамически обнаруживать доступные инструменты и вызывать их, не имея жёстко закодированных инструкций под каждую интеграцию. Протокол поддерживает двусторонний обмен: сервер может возвращать не только данные, но и метаданные (описание контекста, теги) и даже генерировать последовательность сообщений для управления сложными задачами. Для упрощения разработки Anthropic выпустила SDK MCP и открыла репозиторий с примерами серверов. Это означает, что разработчики могут быстро создавать собственные MCP-коннекторы для любых систем.
Таким образом, технически MCP стандартизует три ключевых аспекта:
1. Discovery: клиенты могут запрашивать у сервера список его возможностей и схемы данных, получая единообразное описание инструментов
2. Invocation: формат запроса для выполнения действия и формат ответа (или ошибки) строго определены JSON-RPC, что устраняет двусмысленность в коммуникации
3. Context handling: MCP позволяет обмениваться контекстной информацией и подгружать данные в подсказки модели. Например, MCP-сервер может не только вернуть сырые данные, но и предоставить модель встроенной подсказкой о том, как эти данные интерпретировать.
Следует отметить, что MCP не привязан к конкретному ИИ-модулю – это уровень интеграции. Любая модель (Claude, GPT-4, Gemini и др.), чей контейнер поддерживает MCP-клиент, сможет обращаться к MCP-серверам. Именно благодаря этому MCP быстро подхватили разные вендоры: стандарт изначально задуман как открытый и совместимый со всеми экосистемами.
В общем, подробнее про MCP можно почитать на сайте Anthropic, а следующий пост будет посвящен рассказу про архитетуру A2A протокола.
#AI #Engineering #Architecture #DistributedSystems #ML #Software
Model Context Protocol
Architecture overview - Model Context Protocol
1👍16❤9🔥4🙏1
[3/x] Model Context Protocol (MCP) и Agent-to-Agent (A2A) - Архитектура A2A (Рубрика #AI)
Продолжая рассказ про протоколы (1 и 2), расскажу про то, как устроен A2A протокол от Google. Архитектура A2A также следует модели клиент-сервер, но на уровне агентов. Здесь A2A-клиентом выступает один агент, инициирующий задачу, а A2A-сервером – другой агент, способный эту задачу выполнить. В отличие от MCP, где сервер – просто коннектор к данным, в A2A оба конца коммуникации – интеллектуальные агенты с потенциалом автономного поведения. Протокол A2A определяет стандарт, как один агент может обнаружить другого, узнать, что тот “умеет”, и далее передать ему задачу на выполнение с последующим получением результата.
Технически A2A основан на HTTP и JSON-RPC, дополняемых протоколом событий SSE для асинхронного обмена сообщениями и потоковых обновлений состояния. Каждый агент, работающий по A2A, экспонирует HTTP-эндпойнт (например, небольшой веб-сервер) со стандартным API A2A. Чтобы агенты могли находить друг друга и правильно обращаться, A2A вводит понятие Agent Card – своего рода паспорт агента. Agent Card – это JSON-документ, публикуемый агентом, где указаны его имя, адрес (URL для подключения), версия, а главное – перечень его навыков/умений (Agent Skills) с описаниями того, какие задачи он способен выполнять. Другие агенты могут получить этот «карт-бланш» и понять, к какому агенту за чем обращаться.
Обмен задачами в A2A происходит через Task – стандартизованное описание задания, которое клиент-агент формирует для удалённого агента. Задача включает контекст (например, запрос пользователя), требуемое действие и формат ожидаемого ответа. Агенты обмениваются сообщениями (Messages) в процессе решения задачи – это могут быть шаги выполнения, уточняющие вопросы, промежуточные результаты. В итоговом ответе могут передаваться так называемые Artifacts – артефакты, например файлы, изображения или другие результаты работы агента. Протокол поддерживает потоковое взаимодействие: если задача длительная, удалённый агент может слать промежуточные обновления (статус выполнения, частичные результаты) через SSE-поток, пока задача не будет завершена.
Ключевые технические принципы A2A, заявленные Google и партнёрами:
1. Опора на существующие стандарты: не изобретать новый транспорт, а использовать HTTP для совместимости с любыми веб-технологиями, JSON-RPC для структурированных вызовов, SSE для стриминга. Это облегчает интеграцию A2A в существующую ИТ-инфраструктуру предприятий.
2. Безопасность по умолчанию: протокол изначально разработан с учётом корпоративных требований безопасности – поддерживает аутентификацию и авторизацию агентов по аналогии со схемами безопасности OpenAPI. Каждый агент может требовать проверку ключа или токена перед приёмом задач, устанавливать разрешения на выполняемые действия и т.п., чтобы предотвратить несанкционированный доступ.
3. Поддержка длительных задач: архитектура учитывает, что агентские взаимодействия могут занимать значительное время (часы или дни, если в цикле есть человек). Благодаря событийной модели, A2A позволяет агентам поддерживать диалог о ходе задачи, уведомлять о промежуточном прогрессе, ожидать внешних действий и затем продолжать работу.
4. Мультимодальность: A2A не ограничивается текстом – предусмотрена передача аудио- и видеопотоков, если агенты работают с этими типами данных. Это важно, например, для агентов, обрабатывающих голосовые запросы или видеоданные (они тоже могут сотрудничать через единый протокол).
Архитектурно A2A создает надстройку над отдельными агентами, превращая их в единый оркестр. Например, если пользовательскому ассистенту (агенту) поступает сложный запрос – спланировать деловую поездку – он может через A2A делегировать подзадачи специализированным агентам: один агент бронирует билеты и отели, другой – обрабатывает оплату, третий – проверяет соответствие поездки корпоративной политике
#AI #Engineering #Architecture #DistributedSystems #ML #Software
Продолжая рассказ про протоколы (1 и 2), расскажу про то, как устроен A2A протокол от Google. Архитектура A2A также следует модели клиент-сервер, но на уровне агентов. Здесь A2A-клиентом выступает один агент, инициирующий задачу, а A2A-сервером – другой агент, способный эту задачу выполнить. В отличие от MCP, где сервер – просто коннектор к данным, в A2A оба конца коммуникации – интеллектуальные агенты с потенциалом автономного поведения. Протокол A2A определяет стандарт, как один агент может обнаружить другого, узнать, что тот “умеет”, и далее передать ему задачу на выполнение с последующим получением результата.
Технически A2A основан на HTTP и JSON-RPC, дополняемых протоколом событий SSE для асинхронного обмена сообщениями и потоковых обновлений состояния. Каждый агент, работающий по A2A, экспонирует HTTP-эндпойнт (например, небольшой веб-сервер) со стандартным API A2A. Чтобы агенты могли находить друг друга и правильно обращаться, A2A вводит понятие Agent Card – своего рода паспорт агента. Agent Card – это JSON-документ, публикуемый агентом, где указаны его имя, адрес (URL для подключения), версия, а главное – перечень его навыков/умений (Agent Skills) с описаниями того, какие задачи он способен выполнять. Другие агенты могут получить этот «карт-бланш» и понять, к какому агенту за чем обращаться.
Обмен задачами в A2A происходит через Task – стандартизованное описание задания, которое клиент-агент формирует для удалённого агента. Задача включает контекст (например, запрос пользователя), требуемое действие и формат ожидаемого ответа. Агенты обмениваются сообщениями (Messages) в процессе решения задачи – это могут быть шаги выполнения, уточняющие вопросы, промежуточные результаты. В итоговом ответе могут передаваться так называемые Artifacts – артефакты, например файлы, изображения или другие результаты работы агента. Протокол поддерживает потоковое взаимодействие: если задача длительная, удалённый агент может слать промежуточные обновления (статус выполнения, частичные результаты) через SSE-поток, пока задача не будет завершена.
Ключевые технические принципы A2A, заявленные Google и партнёрами:
1. Опора на существующие стандарты: не изобретать новый транспорт, а использовать HTTP для совместимости с любыми веб-технологиями, JSON-RPC для структурированных вызовов, SSE для стриминга. Это облегчает интеграцию A2A в существующую ИТ-инфраструктуру предприятий.
2. Безопасность по умолчанию: протокол изначально разработан с учётом корпоративных требований безопасности – поддерживает аутентификацию и авторизацию агентов по аналогии со схемами безопасности OpenAPI. Каждый агент может требовать проверку ключа или токена перед приёмом задач, устанавливать разрешения на выполняемые действия и т.п., чтобы предотвратить несанкционированный доступ.
3. Поддержка длительных задач: архитектура учитывает, что агентские взаимодействия могут занимать значительное время (часы или дни, если в цикле есть человек). Благодаря событийной модели, A2A позволяет агентам поддерживать диалог о ходе задачи, уведомлять о промежуточном прогрессе, ожидать внешних действий и затем продолжать работу.
4. Мультимодальность: A2A не ограничивается текстом – предусмотрена передача аудио- и видеопотоков, если агенты работают с этими типами данных. Это важно, например, для агентов, обрабатывающих голосовые запросы или видеоданные (они тоже могут сотрудничать через единый протокол).
Архитектурно A2A создает надстройку над отдельными агентами, превращая их в единый оркестр. Например, если пользовательскому ассистенту (агенту) поступает сложный запрос – спланировать деловую поездку – он может через A2A делегировать подзадачи специализированным агентам: один агент бронирует билеты и отели, другой – обрабатывает оплату, третий – проверяет соответствие поездки корпоративной политике
#AI #Engineering #Architecture #DistributedSystems #ML #Software
a2a-protocol.org
Core Concepts - A2A Protocol
The official documentation for the Agent2Agent (A2A) protocol. The A2A protocol is an open standard that allows different AI agents to securely communicate, collaborate, and solve complex problems together.
👍8🔥8❤3🙏1
[1/2] Virtual Agent Economies (Рубрика #AI)
Изучил очередной интересный whitepaper от ребят из Google на этот раз на тему агентской экономики. В этой работе они изучают зарождение нового слоя экономики, управляемого автономными агентами искусственного интеллекта. Они задались целью осмыслить, как массовое внедрение таких агентов повлияет на экономику и приведет к отдельной виртуальной агентной экономике, где цифровые агенты взаимодействуют, совершают сделки и координируются с масштабом и скоростью, недоступными для непосредственного контроля человека. Для описания этого явления авторы вводят понятие sandbox economy и предлагают характеризовать ее по двум осям
1. Происхождению: стихийно-эмерджентная vs. преднамеренно спроектированная
2. Степени отделенности от существующей человеческой экономики: проницаемая vs. непроницаемая
Основной вывод работы: без целенаправленного вмешательства велика вероятность стихийного формирования обширной агентной экономики с высокой степенью проницаемости границ, т.е. тесно связанной с реальным рынком. Тут есть плюсы и минусы
(+)Такая система сулит беспрецедентные возможности для координации и автоматизации – агенты способны самостоятельно создавать экономическую ценность, взаимодействуя друг с другом вне прямого участия человека
(-) У такой системы значительные риски: возможны новые формы системного экономического риска (например, мгновенные «флэш-кризисы» из-за сверхбыстрых сделок ИИ) и усиление неравенства, если продвинутые агенты получат преимущество перед более слабыми
В итоге, авторы делают вывод о необходимости проактивного дизайна правил и инфраструктуры для этих агентных рынков. Они предлагают ряд мер и механизмов – от аукционов для справедливого распределения ресурсов до создания «миссионных» экономик под цели всеобщего блага – которые позволили бы направлять эволюцию агентной экономики в безопасное русло. Ключевой рекомендацией является преднамеренная архитектура виртуальных рынков с встраиванием принципов доверия, прозрачности и подотчетности, чтобы грядущие изменения в экономике служили долгосрочному процветанию человечества.
В прододжении чуток расскажу про методологию анализа авторов.
#AI #Engineering #Architecture #DistributedSystems #ML #Software #Economics
Изучил очередной интересный whitepaper от ребят из Google на этот раз на тему агентской экономики. В этой работе они изучают зарождение нового слоя экономики, управляемого автономными агентами искусственного интеллекта. Они задались целью осмыслить, как массовое внедрение таких агентов повлияет на экономику и приведет к отдельной виртуальной агентной экономике, где цифровые агенты взаимодействуют, совершают сделки и координируются с масштабом и скоростью, недоступными для непосредственного контроля человека. Для описания этого явления авторы вводят понятие sandbox economy и предлагают характеризовать ее по двум осям
1. Происхождению: стихийно-эмерджентная vs. преднамеренно спроектированная
2. Степени отделенности от существующей человеческой экономики: проницаемая vs. непроницаемая
Основной вывод работы: без целенаправленного вмешательства велика вероятность стихийного формирования обширной агентной экономики с высокой степенью проницаемости границ, т.е. тесно связанной с реальным рынком. Тут есть плюсы и минусы
(+)Такая система сулит беспрецедентные возможности для координации и автоматизации – агенты способны самостоятельно создавать экономическую ценность, взаимодействуя друг с другом вне прямого участия человека
(-) У такой системы значительные риски: возможны новые формы системного экономического риска (например, мгновенные «флэш-кризисы» из-за сверхбыстрых сделок ИИ) и усиление неравенства, если продвинутые агенты получат преимущество перед более слабыми
В итоге, авторы делают вывод о необходимости проактивного дизайна правил и инфраструктуры для этих агентных рынков. Они предлагают ряд мер и механизмов – от аукционов для справедливого распределения ресурсов до создания «миссионных» экономик под цели всеобщего блага – которые позволили бы направлять эволюцию агентной экономики в безопасное русло. Ключевой рекомендацией является преднамеренная архитектура виртуальных рынков с встраиванием принципов доверия, прозрачности и подотчетности, чтобы грядущие изменения в экономике служили долгосрочному процветанию человечества.
В прододжении чуток расскажу про методологию анализа авторов.
#AI #Engineering #Architecture #DistributedSystems #ML #Software #Economics
👍4❤2🔥2
[2/2] Virtual Agent Economies (Рубрика #AI)
Продолжая рассказ про этот whitepaper, расскажу про методологию авторов, где они выполняли концептуальное моделирование виртуальных экономик агентов ИИ, опираясь на метафору «песочницы». Sandbox экономика определяется как набор связанных цифровых рынков, где агенты ИИ обмениваются между собой услугами и ресурсами. Такой «песочнице» можно придать разные свойства, варьируя два основных параметра:
1. Происхождение системы – стихийное развитие vs. намеренно спроектированная среда. В первом случае экономика агентов возникает как побочный продукт широкого внедрения ИИ без единого плана, во втором – люди сознательно создают ограниченную среду для экспериментов и отработки правил
2. Проницаемость границ – проницаемая экономика агентов, плотно интегрированная с человеческой (агенты свободно взаимодействуют с внешними рынками), vs. непроницаемая (закрытая от прямого влияния на внешнюю экономику, чтобы локализовать риски)
По оценке авторов, текущие технологии приведут к сценарию стихийно возникшей и проницаемой «песочницы». Дальше авторы решили рассмотреть альтернативные, умышленно управляемые конструкции, способные обеспечить большую изоляцию и контроль там, где это необходимо. Для исследования они не взяли одну конкретную техническую симуляцию, а использовали сценарный анализ и позаимствовали идеи из экономической теории и теории механизмов. Они проиллюстрировали идеи на таких примерах
1. Научные исследовательские агенты: Группа агентов могла бы совместно ускорять научный прогресс – одни генерируют гипотезы, другие проводят эксперименты, обмениваясь ресурсами. Поскольку исследования требуют доступа к оборудованию, данным и участию разных организаций, агенты должны договариваться о доступе к ресурсам и взаимно компенсировать затраты. По сути, возникает рынок, где агент лаборатории может “нанять” другого агент-аналитика или купить данные, а расчеты и учет вкладов осуществляются через блокчейн для надежного распределения кредитов за результаты исследований
2. Роботы-агенты: В сценарии из области робототехники предполагается, что физически воплощенные ИИ (роботы) будут обмениваться задачами для оптимизации усилий. А все транзакции будут фиксироваться на распределенном реестре (блокчейне), создавая доверенную запись о том, каково участие каждого агента.
3. Персональные ассистенты: Взаимодействие личных AI-ассистентов пользователей, где два ИИ-агента, представляющие интересы разных пользователей, вынуждены вести переговоры из-за конфликта предпочтений. В этом микромире агенты выступают как прокси для людей, автоматически достигая компромиссов – по сути, реализуя рыночный механизм спроса и предложения для персональных услуг.
Новизна подхода авторов состоит в том, что они попытались соединить современные возможности многокомпонентных систем ИИ с экономическими механизмами и принципами справедливости (аукционы), а также принести идею «миссионных экономик», то есть целевых рынков агентов, нацеленных на решение крупных общественных задач (напр., изменение климата, глобальные риски). Авторы предполагают, что можно спроектировать такие экономики, где ценовые сигналы и вознаграждения привязаны к достижению коллективных целей, стимулируя агентов координироваться во благо определенной миссии.
Для работы такой агентской экономики потребуется соответствущая инфраструктура: системы удостоверений и репутации для доверия, стандартизованные протоколы общения вроде Agent2Agent (A2A) и Model Context Protocol (MCP) для совместимости агентов, инструменты мониторинга и регулирования поведения агентов во времени, основанные на неизменяемых журнализационных записях (ledger) и многоуровневом надзоре (автоматизированные фильтры + человеческий контроль сложных случаев).
В общем, авторы предложили размышлять о виртуальной экономике агентов как об управляемом пространстве: не просто предоставить агентам свободу действий, а целенаправленно направлять их взаимодействия, чтобы максимизировать общественную пользу и минимизировать риски.
#AI #Engineering #Architecture #ML #Software #Economics
Продолжая рассказ про этот whitepaper, расскажу про методологию авторов, где они выполняли концептуальное моделирование виртуальных экономик агентов ИИ, опираясь на метафору «песочницы». Sandbox экономика определяется как набор связанных цифровых рынков, где агенты ИИ обмениваются между собой услугами и ресурсами. Такой «песочнице» можно придать разные свойства, варьируя два основных параметра:
1. Происхождение системы – стихийное развитие vs. намеренно спроектированная среда. В первом случае экономика агентов возникает как побочный продукт широкого внедрения ИИ без единого плана, во втором – люди сознательно создают ограниченную среду для экспериментов и отработки правил
2. Проницаемость границ – проницаемая экономика агентов, плотно интегрированная с человеческой (агенты свободно взаимодействуют с внешними рынками), vs. непроницаемая (закрытая от прямого влияния на внешнюю экономику, чтобы локализовать риски)
По оценке авторов, текущие технологии приведут к сценарию стихийно возникшей и проницаемой «песочницы». Дальше авторы решили рассмотреть альтернативные, умышленно управляемые конструкции, способные обеспечить большую изоляцию и контроль там, где это необходимо. Для исследования они не взяли одну конкретную техническую симуляцию, а использовали сценарный анализ и позаимствовали идеи из экономической теории и теории механизмов. Они проиллюстрировали идеи на таких примерах
1. Научные исследовательские агенты: Группа агентов могла бы совместно ускорять научный прогресс – одни генерируют гипотезы, другие проводят эксперименты, обмениваясь ресурсами. Поскольку исследования требуют доступа к оборудованию, данным и участию разных организаций, агенты должны договариваться о доступе к ресурсам и взаимно компенсировать затраты. По сути, возникает рынок, где агент лаборатории может “нанять” другого агент-аналитика или купить данные, а расчеты и учет вкладов осуществляются через блокчейн для надежного распределения кредитов за результаты исследований
2. Роботы-агенты: В сценарии из области робототехники предполагается, что физически воплощенные ИИ (роботы) будут обмениваться задачами для оптимизации усилий. А все транзакции будут фиксироваться на распределенном реестре (блокчейне), создавая доверенную запись о том, каково участие каждого агента.
3. Персональные ассистенты: Взаимодействие личных AI-ассистентов пользователей, где два ИИ-агента, представляющие интересы разных пользователей, вынуждены вести переговоры из-за конфликта предпочтений. В этом микромире агенты выступают как прокси для людей, автоматически достигая компромиссов – по сути, реализуя рыночный механизм спроса и предложения для персональных услуг.
Новизна подхода авторов состоит в том, что они попытались соединить современные возможности многокомпонентных систем ИИ с экономическими механизмами и принципами справедливости (аукционы), а также принести идею «миссионных экономик», то есть целевых рынков агентов, нацеленных на решение крупных общественных задач (напр., изменение климата, глобальные риски). Авторы предполагают, что можно спроектировать такие экономики, где ценовые сигналы и вознаграждения привязаны к достижению коллективных целей, стимулируя агентов координироваться во благо определенной миссии.
Для работы такой агентской экономики потребуется соответствущая инфраструктура: системы удостоверений и репутации для доверия, стандартизованные протоколы общения вроде Agent2Agent (A2A) и Model Context Protocol (MCP) для совместимости агентов, инструменты мониторинга и регулирования поведения агентов во времени, основанные на неизменяемых журнализационных записях (ledger) и многоуровневом надзоре (автоматизированные фильтры + человеческий контроль сложных случаев).
В общем, авторы предложили размышлять о виртуальной экономике агентов как об управляемом пространстве: не просто предоставить агентам свободу действий, а целенаправленно направлять их взаимодействия, чтобы максимизировать общественную пользу и минимизировать риски.
#AI #Engineering #Architecture #ML #Software #Economics
Telegram
Книжный куб
[1/2] Virtual Agent Economies (Рубрика #AI)
Изучил очередной интересный whitepaper от ребят из Google на этот раз на тему агентской экономики. В этой работе они изучают зарождение нового слоя экономики, управляемого автономными агентами искусственного интеллекта.…
Изучил очередной интересный whitepaper от ребят из Google на этот раз на тему агентской экономики. В этой работе они изучают зарождение нового слоя экономики, управляемого автономными агентами искусственного интеллекта.…
❤4👍4🔥2
Avito Tech Conf (Рубрика #Conference)
Сегодня приехало приглашение от Авито на их конференцию для менеджеров или как описывают организаторы это
Мне понравился креатив организаторов, которые подошли к делу творчески и в небольшой коробочке отгрузили
- Игру с вопросами для one2ones
- Специальное растворимое кофе, чтобы менеджеру было проще просыпаться по утрам
- Специальную свечку с пожеланием того, чтобы горела она, а не календарь
- Прозрачный кубик с чем-то зеленым внутри
Но не только приглашение выглядит интересно, но и темы:
- Про лидерство - куда развиваться лидеру, как управлять ограниченными ресурсами и как стать CTO
- Про AI - LLM в разработке и как проявлять лидерство в эпоху таких больших изменений
- Про процессы - как адаптироваться к изменениям и реорганизовывать все вокруг
- Про людей - про performance review и решение конфликтов в команде
В общем, приходите очно или смотрите трансляцию, а я постараюсь выделить 17 октября под этот event и прийти в оффлайн:)
#Conference #Software #Engineering #Management #Leadership
Сегодня приехало приглашение от Авито на их конференцию для менеджеров или как описывают организаторы это
Конференция для тех, кто управляет процессами, продуктами и людьми
Мне понравился креатив организаторов, которые подошли к делу творчески и в небольшой коробочке отгрузили
- Игру с вопросами для one2ones
- Специальное растворимое кофе, чтобы менеджеру было проще просыпаться по утрам
- Специальную свечку с пожеланием того, чтобы горела она, а не календарь
- Прозрачный кубик с чем-то зеленым внутри
Но не только приглашение выглядит интересно, но и темы:
- Про лидерство - куда развиваться лидеру, как управлять ограниченными ресурсами и как стать CTO
- Про AI - LLM в разработке и как проявлять лидерство в эпоху таких больших изменений
- Про процессы - как адаптироваться к изменениям и реорганизовывать все вокруг
- Про людей - про performance review и решение конфликтов в команде
В общем, приходите очно или смотрите трансляцию, а я постараюсь выделить 17 октября под этот event и прийти в оффлайн:)
#Conference #Software #Engineering #Management #Leadership
❤7🔥6👍3
[1/4] Панельная дискуссия про влияние AI на разработку софта (Рубрика #AI)
Вчера вечером я был на закрытом мероприятии в SVOY Hamovniki, где прошла презентация большого исследования IT One и Сколково про ИИ в разработкe, а также поучаствовал в дискуссионной панеле «Будущее применение AI в разработке и создании продуктов». В ней участвовали следующие джентельмены
- Сергей Щербинин - CEO Faust Consulting
- Андрей Плужников - СЕО Hoff Tech
- Алексей Ульенков - Первый вице-президент Газпромбанка
- Женя Бобков - главный по цифровым витринам в Мегафон (тут я прям ошибаюсь, но ты меня поправь)
- Дима Немов - директор по развитию продукта IT One
- и ваш покорный слуга
Мы обсудили вопросы ниже, а я решил не останавливаться на разговорной части и поделиться своими мыслями с читателями канала
1. Что изменилось в разработке из-за AI?
2. Как повышать adoption AI? Сверху или снизу?
3. Как выглядит баланс плюсов и минусов: скорость разработки vs баги, утечки данных, vendor lock, снижение квалификации инженеров
4. Как меняются процессы разработки и состав команд?
5. Есть ли доверие к возможностям AI или это просто хайп?
6. Что ждет разработку на горизонте 3х лет? Сингулярность наступит или хайп схлопнется?
Дальше будет три поста с разбором этих вопросов + я отдельно разберу итоги исследования:
- Разбор первых двух вопросов
#AI #Engineering #Architecture #ML #Software #Economics #Software
Вчера вечером я был на закрытом мероприятии в SVOY Hamovniki, где прошла презентация большого исследования IT One и Сколково про ИИ в разработкe, а также поучаствовал в дискуссионной панеле «Будущее применение AI в разработке и создании продуктов». В ней участвовали следующие джентельмены
- Сергей Щербинин - CEO Faust Consulting
- Андрей Плужников - СЕО Hoff Tech
- Алексей Ульенков - Первый вице-президент Газпромбанка
- Женя Бобков - главный по цифровым витринам в Мегафон (тут я прям ошибаюсь, но ты меня поправь)
- Дима Немов - директор по развитию продукта IT One
- и ваш покорный слуга
Мы обсудили вопросы ниже, а я решил не останавливаться на разговорной части и поделиться своими мыслями с читателями канала
1. Что изменилось в разработке из-за AI?
2. Как повышать adoption AI? Сверху или снизу?
3. Как выглядит баланс плюсов и минусов: скорость разработки vs баги, утечки данных, vendor lock, снижение квалификации инженеров
4. Как меняются процессы разработки и состав команд?
5. Есть ли доверие к возможностям AI или это просто хайп?
6. Что ждет разработку на горизонте 3х лет? Сингулярность наступит или хайп схлопнется?
Дальше будет три поста с разбором этих вопросов + я отдельно разберу итоги исследования:
- Разбор первых двух вопросов
#AI #Engineering #Architecture #ML #Software #Economics #Software
👍13🔥6❤5