This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural #пытаюсьпонять
Что делает A2A от google особенным?
В продолжение темы о которой уже писал ранее:
Агенты ИИ теперь говорят на одном языке.
Протокол прост и гениален!:
Форматы — это обычные JSON-структуры с понятной схемой.
Обмен сообщениями происходит через вызовы
Это означает: один формат — и ты можешь взаимодействовать хоть с LangChain, хоть с SAP, хоть с внутренним агентом компании.
Что входит в A2A-протокол?
Agent Maps — механизмы для обнаружения других агентов и их возможностей (описание через JSON:
Tasks & Artifacts — декларативная система задач и артефактов (на вход/выход):
UX Coordination — согласование пользовательского взаимодействия между агентами (в т.ч. интерфейсная адаптация)
Кто уже в деле?
Google, Salesforce, Atlassian, SAP, ServiceNow, LangChain и более 50 корпораций.
Почему это важно?
ИИ-агенты перестают быть «одиночками».
Теперь все могут:
- Интегрировать агентов из разных стеков и облаков
- Создавать настоящие распределенные ИИ-системы
- Объединять ИИ как модули одного мозга, даже если они работают в разных компаниях
Получается, что Контекст — за MCP (Model Context Protocol) от Anthropic. Поведение — за A2A.
Видимо это и есть архитектура будущего🤷🏻♂️🤷🏻♂️🤷🏻♂️
Что делает A2A от google особенным?
В продолжение темы о которой уже писал ранее:
Агенты ИИ теперь говорят на одном языке.
Протокол прост и гениален!:
Форматы — это обычные JSON-структуры с понятной схемой.
Обмен сообщениями происходит через вызовы
method
, params
и result
.Это означает: один формат — и ты можешь взаимодействовать хоть с LangChain, хоть с SAP, хоть с внутренним агентом компании.
Что входит в A2A-протокол?
Agent Maps — механизмы для обнаружения других агентов и их возможностей (описание через JSON:
capabilities
, intent
, modality
)Tasks & Artifacts — декларативная система задач и артефактов (на вход/выход):
task_id
, inputs
, outputs
, status
UX Coordination — согласование пользовательского взаимодействия между агентами (в т.ч. интерфейсная адаптация)
Кто уже в деле?
Google, Salesforce, Atlassian, SAP, ServiceNow, LangChain и более 50 корпораций.
Почему это важно?
ИИ-агенты перестают быть «одиночками».
Теперь все могут:
- Интегрировать агентов из разных стеков и облаков
- Создавать настоящие распределенные ИИ-системы
- Объединять ИИ как модули одного мозга, даже если они работают в разных компаниях
Получается, что Контекст — за MCP (Model Context Protocol) от Anthropic. Поведение — за A2A.
Видимо это и есть архитектура будущего🤷🏻♂️🤷🏻♂️🤷🏻♂️
🤯4❤3😱2
Forwarded from Альянс Цифровых Лидеров в стройке
This media is not supported in your browser
VIEW IN TELEGRAM
Примеров параметрического проектирования на ИИ все больше — вот на ChatGPT
Запрос
Что используют
⚫️ p5.js — библиотека на JavaScript — упрощает создание графики за счет интерактивного управления режимами рендеринга. В p5.js есть два режима: P2D (по умолчанию) и WEBGL.
⚫️ WEBGL позволяет более гибко управлять рендерингом, разбивает формы на треугольники и за счет этого требует меньше вычислительных мощностей. Кроме того, в этом режиме можно настраивать освещение и ракурс камеры и другие параметры
Запрос
Create a pSjs WEBGL sketch that draws a straight "bridge" made of Adjacent 3D boxes along the X-axis. Center the bridge in the canvas and apply a simple 3D camera (e.g. rotateX/rotateY).
Что используют
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡8👍5❤3
#unrealneural
Очень интересные мысли в докладе Тима Роктешеля на ICLR2025 об открытости и ИИ.
«Почти ни одна предпосылка к какому-либо крупному изобретению не была придумана с учетом этого изобретения».
«Почти все в моей лаборатории в UCL и в DeepMind прочитали эту книгу: «Почему величие невозможно спланировать».
Есть о чем задуматься 🧐
Очень интересные мысли в докладе Тима Роктешеля на ICLR2025 об открытости и ИИ.
«Почти ни одна предпосылка к какому-либо крупному изобретению не была придумана с учетом этого изобретения».
«Почти все в моей лаборатории в UCL и в DeepMind прочитали эту книгу: «Почему величие невозможно спланировать».
Есть о чем задуматься 🧐
⚡6❤3👍3
#unrealneural #новое
Paper2Code
PaperCoder — это многоагентная система LLM, которая преобразует документ в репозиторий кода.
Процесс состоит из трех этапов: планирование, анализ и генерация кода, каждый из которых выполняется специализированными агентами.
https://arxiv.org/pdf/2504.17192
Paper2Code
PaperCoder — это многоагентная система LLM, которая преобразует документ в репозиторий кода.
Процесс состоит из трех этапов: планирование, анализ и генерация кода, каждый из которых выполняется специализированными агентами.
https://arxiv.org/pdf/2504.17192
⚡5👍3❤2
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
Transformer Lab — это приложение для экспериментов с LLM:
- Тренируйтесь, настраивайте или общайтесь.
- Загрузка LLM в один клик (DeepSeek, Gemma и т. д.)
- Интерфейс Drag-n-Drop для RAG.
- Встроенное ведение журнала и многое другое.
Надо тестить
Transformer Lab — это приложение для экспериментов с LLM:
- Тренируйтесь, настраивайте или общайтесь.
- Загрузка LLM в один клик (DeepSeek, Gemma и т. д.)
- Интерфейс Drag-n-Drop для RAG.
- Встроенное ведение журнала и многое другое.
Надо тестить
👍6❤2⚡2
#unrealneural
«…Истинные прорывы часто рождаются не из четко спланированного действия, а из открытых исследований, из экспериментов и поиска, где многое заранее предсказать невозможно..»
Можно ли это примерить на автоматизацию архитектурного проектирования? Вроде как и не всегда, потому что есть много «прорывов по плану».
Это подходит к процессам, которые имеют четкую задачу, конкретную формулировку и понятный профит в моменте.
А что если жёсткая схема "спланировать — реализовать" может ограничивать развитие?
Возможности нейросетей не всегда очевидны на старте. Особенно в проектировании. Даже скорее часто неочевидны.
Всегда ли настоящее развитие приходит через цикл гипотеза → эксперимент → анализ → новая гипотеза?
«…Истинные прорывы часто рождаются не из четко спланированного действия, а из открытых исследований, из экспериментов и поиска, где многое заранее предсказать невозможно..»
Можно ли это примерить на автоматизацию архитектурного проектирования? Вроде как и не всегда, потому что есть много «прорывов по плану».
Это подходит к процессам, которые имеют четкую задачу, конкретную формулировку и понятный профит в моменте.
А что если жёсткая схема "спланировать — реализовать" может ограничивать развитие?
Возможности нейросетей не всегда очевидны на старте. Особенно в проектировании. Даже скорее часто неочевидны.
Всегда ли настоящее развитие приходит через цикл гипотеза → эксперимент → анализ → новая гипотеза?
💯5⚡2👍2🥱2
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
Генерить картинки диффузией конечно интересно, но как насчет генерации диффузионными моделями зданий в майнкрафте?
🤯5👍4⚡2
Чем пользуетесь каждый день?
Anonymous Poll
44%
ChatGPT
7%
Grok
6%
Gemini
30%
Deepseek
2%
Qwen
10%
другое
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural #новое
MCPify
Можно протестировать и создать свой MCP-сервер с помощью MCPify
https://mcpify.ai/
MCPify
Можно протестировать и создать свой MCP-сервер с помощью MCPify
https://mcpify.ai/
⚡4👍4❤2
Media is too big
VIEW IN TELEGRAM
#ЛабораторияИИ #Эксперименты
Генерация планировки квартиры с помощью LLM модели
Работа над решением задачи генерации планировочных решений продолжается. LLM модели очень универсальны с точки зрения работы со структурами данных, поэтому наши эксперименты активно реализуются с этой технологией в том числе.
В рамках модуля R2.ОПР нашей платформы мы начали первые эксперименты с локально-запущенной моделью, которая ужа на уровне небольших доработок позволяет подступиться к задаче генерации планировочных решений.
Выводы по генерации планировки квартиры в связке с локальной LLM:
1. В целом квартиры получаются отвратительные, хуже чем было у базового WallPlan
2. В половине случаев возникают пересечения и наложения помещений
3. Редактирование по промпту работает, простую задачу (типа сделай санузел шире, добавь гардеробную) понимает и выполняет в ~70% случаях внутри простых контуров
4. Понимание непрямых углов есть, в простых непрямоугольных контурах пытается вписать непрямоугольные помещения, но на непрямоугольность как будто уходит много внимания и если есть непрямые углы, то больше ошибается в компоновке помещений
Следующие шаги по этому направлению:
1. Упрощение структуры генерации в целом и дополнительная работа над ней
2. Учитывать специфику пред обучения LLM-ки, для большей эффективности (например использовать другие единицы измерения)
3. Попробовать за основу брать разные модели
Генерация планировки квартиры с помощью LLM модели
Работа над решением задачи генерации планировочных решений продолжается. LLM модели очень универсальны с точки зрения работы со структурами данных, поэтому наши эксперименты активно реализуются с этой технологией в том числе.
В рамках модуля R2.ОПР нашей платформы мы начали первые эксперименты с локально-запущенной моделью, которая ужа на уровне небольших доработок позволяет подступиться к задаче генерации планировочных решений.
Выводы по генерации планировки квартиры в связке с локальной LLM:
1. В целом квартиры получаются отвратительные, хуже чем было у базового WallPlan
2. В половине случаев возникают пересечения и наложения помещений
3. Редактирование по промпту работает, простую задачу (типа сделай санузел шире, добавь гардеробную) понимает и выполняет в ~70% случаях внутри простых контуров
4. Понимание непрямых углов есть, в простых непрямоугольных контурах пытается вписать непрямоугольные помещения, но на непрямоугольность как будто уходит много внимания и если есть непрямые углы, то больше ошибается в компоновке помещений
Следующие шаги по этому направлению:
1. Упрощение структуры генерации в целом и дополнительная работа над ней
2. Учитывать специфику пред обучения LLM-ки, для большей эффективности (например использовать другие единицы измерения)
3. Попробовать за основу брать разные модели
👍7❤2⚡2
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
AICommand
Можно моделировать с помощью ChatGPT на Unity! Как именно это реализовано пока не смотрел, но выглядит очень перспективно
https://github.com/keijiro/AICommand
AICommand
Можно моделировать с помощью ChatGPT на Unity! Как именно это реализовано пока не смотрел, но выглядит очень перспективно
https://github.com/keijiro/AICommand
👍7❤3⚡3
Темпы появления новых моделей поражают
Январь
• DeepSeek R1
• Qwen 2.5-Max
• o3-mini
Февраль
• Gemini 2.0 Flash
• Gemini 2.0 Pro
• Grok 3
• Grok 3 mini
• Claude 3.7 (Sonnet)
• QwQ-Max (preview)
• GPT-4.5
Март
• Gemma 3 (1B • 4B • 12B • 27B)
• Gemini 2.5 Pro (public preview)
• Llama 4 Scout
• Llama 4 Maverick
Апрель
• GPT-4.1
• GPT-4.1-mini
• GPT-4.1-nano
• o3 (full)
• o4-mini
• Gemini 2.5 Flash (preview)
• Gemma 3 QAT (1B • 4B • 12B • 27B)
Что будет дальше?
Январь
• DeepSeek R1
• Qwen 2.5-Max
• o3-mini
Февраль
• Gemini 2.0 Flash
• Gemini 2.0 Pro
• Grok 3
• Grok 3 mini
• Claude 3.7 (Sonnet)
• QwQ-Max (preview)
• GPT-4.5
Март
• Gemma 3 (1B • 4B • 12B • 27B)
• Gemini 2.5 Pro (public preview)
• Llama 4 Scout
• Llama 4 Maverick
Апрель
• GPT-4.1
• GPT-4.1-mini
• GPT-4.1-nano
• o3 (full)
• o4-mini
• Gemini 2.5 Flash (preview)
• Gemma 3 QAT (1B • 4B • 12B • 27B)
Что будет дальше?
⚡9👍5❤2
Цифровое строительство
Я также сделал бы ставку на протокол MCP и подход Agent2Agent, которые позволят LLM-моделям взаимодействовать с любыми программами, включая проектные. Это снизит порог вхождения в профессию и ускорит выполнение задач.
Согласны про то, что такие инструменты понизят порог вхождения в профессию?
Anonymous Poll
45%
да
32%
нет
24%
🤷🏻🤷🏻🤷🏻
🤔3⚡1😁1🤯1
This media is not supported in your browser
VIEW IN TELEGRAM
#ЛабораторияИИ #эксперименты
25-этажная башня в 1 промпт
Новый эксперимент с генерацией 3д формы от нашей Лаборатории ИИ
25-этажная башня в 1 промпт
Новый эксперимент с генерацией 3д формы от нашей Лаборатории ИИ
⚡4❤3👍3
#новое #unrealneural
На просторах новостной ленты наткнулся на только что вышедшие модели от Xiaomi.
Пишут, что основное предназначение - это решение математических задач, логические рассуждения и генерация кода.
Вот некоторые особенности модели MiMo-7B-Base:
- Обучение с нуля
- Использование синтетических данных для логического мышления
- Особый подход к предобработке данных и стратегии предобучения
- Внедрение метода Multiple-Token Prediction (MTP) — предсказание нескольких токенов одновременно для улучшения качества и скорости вывода
https://huggingface.co/XiaomiMiMo
На просторах новостной ленты наткнулся на только что вышедшие модели от Xiaomi.
Пишут, что основное предназначение - это решение математических задач, логические рассуждения и генерация кода.
Вот некоторые особенности модели MiMo-7B-Base:
- Обучение с нуля
- Использование синтетических данных для логического мышления
- Особый подход к предобработке данных и стратегии предобучения
- Внедрение метода Multiple-Token Prediction (MTP) — предсказание нескольких токенов одновременно для улучшения качества и скорости вывода
https://huggingface.co/XiaomiMiMo
👍4⚡1😁1
#unrealneural
ИИ может предсказать работу вашего мозга на следующие 5 секунд.
В новой статье представлена модель Transformer, которая с высокой точностью прогнозирует активность мозга, используя данные фМРТ, полученные всего за 21 секунду.
🤯🤯🤯
https://arxiv.org/pdf/2412.19814v1
ИИ может предсказать работу вашего мозга на следующие 5 секунд.
В новой статье представлена модель Transformer, которая с высокой точностью прогнозирует активность мозга, используя данные фМРТ, полученные всего за 21 секунду.
🤯🤯🤯
https://arxiv.org/pdf/2412.19814v1
🤯8⚡3