#лабораторияИИ #PROГОРОD2025
Фотоотчет о посещении форума PROГОРОD2025
Выступал с рассказом о наших экспериментах
Фотоотчет о посещении форума PROГОРОD2025
Выступал с рассказом о наших экспериментах
👍11❤4⚡3🔥3
Forwarded from Data Secrets
This media is not supported in your browser
VIEW IN TELEGRAM
О, Perplexity анонсировали крутого голосового ассистента для iOS
Это Siri на максималках (наверное, стоило написать в заголовке Siri – ВСЕ): агент сможет использовать браузер и некоторые приложения, рассылать письма, создавать брони, управлять календарем, проигрывать подкасты, YouTube ролики и другое медиа.
Обновить приложение в AppStore и попробовать (это бесплатно) можно уже сейчас
Это Siri на максималках (наверное, стоило написать в заголовке Siri – ВСЕ): агент сможет использовать браузер и некоторые приложения, рассылать письма, создавать брони, управлять календарем, проигрывать подкасты, YouTube ролики и другое медиа.
Обновить приложение в AppStore и попробовать (это бесплатно) можно уже сейчас
👍4🔥3
Метаверсище и ИИще
И тут я опять взвою вопросом: будут ли Deemos, Tripo, Hunyuan или Trellis изобретать свою Web-Maya или Nano-Blender внутри своих платформ, или кто-то типа Адобченко с готовым 3Д на борту прикрутит генерацию внутри имеющихся пайплайнов.
Понятно, что путь опенсорса лежит через плагины к Блендору.
Но я также подозреваю, что кто-то из больших игроков рано или поздно прикупит один из 3Д-генераторов и сделает свое решение.
Понятно, что путь опенсорса лежит через плагины к Блендору.
Но я также подозреваю, что кто-то из больших игроков рано или поздно прикупит один из 3Д-генераторов и сделает свое решение.
#пытаюсьпонять
Согласен с автором относительно незавершенности результатов подобных инструментов, что это лишь один из этапов, который пока работает как начальная стадия генерации.
И тем более в архитектурном проектировании. Мы работаем не просто с оболочкой а с цифровой моделью и в контексте наших задач модель массинга - это сложаная "цифровая книга", в которой учитывается много факторов.
А генераторы 3д в чистом виде - это лишь этап формирования такой "книги". Но стек LLM + HunYuan(как пример 3д генераторов) + Revit с MCP = уже становится реалистичным конвейером.
Согласен с автором относительно незавершенности результатов подобных инструментов, что это лишь один из этапов, который пока работает как начальная стадия генерации.
И тем более в архитектурном проектировании. Мы работаем не просто с оболочкой а с цифровой моделью и в контексте наших задач модель массинга - это сложаная "цифровая книга", в которой учитывается много факторов.
А генераторы 3д в чистом виде - это лишь этап формирования такой "книги". Но стек LLM + HunYuan(как пример 3д генераторов) + Revit с MCP = уже становится реалистичным конвейером.
👍5⚡3❤2
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural #пытаюсьпонять
Что делает A2A от google особенным?
В продолжение темы о которой уже писал ранее:
Агенты ИИ теперь говорят на одном языке.
Протокол прост и гениален!:
Форматы — это обычные JSON-структуры с понятной схемой.
Обмен сообщениями происходит через вызовы
Это означает: один формат — и ты можешь взаимодействовать хоть с LangChain, хоть с SAP, хоть с внутренним агентом компании.
Что входит в A2A-протокол?
Agent Maps — механизмы для обнаружения других агентов и их возможностей (описание через JSON:
Tasks & Artifacts — декларативная система задач и артефактов (на вход/выход):
UX Coordination — согласование пользовательского взаимодействия между агентами (в т.ч. интерфейсная адаптация)
Кто уже в деле?
Google, Salesforce, Atlassian, SAP, ServiceNow, LangChain и более 50 корпораций.
Почему это важно?
ИИ-агенты перестают быть «одиночками».
Теперь все могут:
- Интегрировать агентов из разных стеков и облаков
- Создавать настоящие распределенные ИИ-системы
- Объединять ИИ как модули одного мозга, даже если они работают в разных компаниях
Получается, что Контекст — за MCP (Model Context Protocol) от Anthropic. Поведение — за A2A.
Видимо это и есть архитектура будущего🤷🏻♂️🤷🏻♂️🤷🏻♂️
Что делает A2A от google особенным?
В продолжение темы о которой уже писал ранее:
Агенты ИИ теперь говорят на одном языке.
Протокол прост и гениален!:
Форматы — это обычные JSON-структуры с понятной схемой.
Обмен сообщениями происходит через вызовы
method
, params
и result
.Это означает: один формат — и ты можешь взаимодействовать хоть с LangChain, хоть с SAP, хоть с внутренним агентом компании.
Что входит в A2A-протокол?
Agent Maps — механизмы для обнаружения других агентов и их возможностей (описание через JSON:
capabilities
, intent
, modality
)Tasks & Artifacts — декларативная система задач и артефактов (на вход/выход):
task_id
, inputs
, outputs
, status
UX Coordination — согласование пользовательского взаимодействия между агентами (в т.ч. интерфейсная адаптация)
Кто уже в деле?
Google, Salesforce, Atlassian, SAP, ServiceNow, LangChain и более 50 корпораций.
Почему это важно?
ИИ-агенты перестают быть «одиночками».
Теперь все могут:
- Интегрировать агентов из разных стеков и облаков
- Создавать настоящие распределенные ИИ-системы
- Объединять ИИ как модули одного мозга, даже если они работают в разных компаниях
Получается, что Контекст — за MCP (Model Context Protocol) от Anthropic. Поведение — за A2A.
Видимо это и есть архитектура будущего🤷🏻♂️🤷🏻♂️🤷🏻♂️
🤯4❤3😱2
Forwarded from Альянс Цифровых Лидеров в стройке
This media is not supported in your browser
VIEW IN TELEGRAM
Примеров параметрического проектирования на ИИ все больше — вот на ChatGPT
Запрос
Что используют
⚫️ p5.js — библиотека на JavaScript — упрощает создание графики за счет интерактивного управления режимами рендеринга. В p5.js есть два режима: P2D (по умолчанию) и WEBGL.
⚫️ WEBGL позволяет более гибко управлять рендерингом, разбивает формы на треугольники и за счет этого требует меньше вычислительных мощностей. Кроме того, в этом режиме можно настраивать освещение и ракурс камеры и другие параметры
Запрос
Create a pSjs WEBGL sketch that draws a straight "bridge" made of Adjacent 3D boxes along the X-axis. Center the bridge in the canvas and apply a simple 3D camera (e.g. rotateX/rotateY).
Что используют
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡8👍5❤3
#unrealneural
Очень интересные мысли в докладе Тима Роктешеля на ICLR2025 об открытости и ИИ.
«Почти ни одна предпосылка к какому-либо крупному изобретению не была придумана с учетом этого изобретения».
«Почти все в моей лаборатории в UCL и в DeepMind прочитали эту книгу: «Почему величие невозможно спланировать».
Есть о чем задуматься 🧐
Очень интересные мысли в докладе Тима Роктешеля на ICLR2025 об открытости и ИИ.
«Почти ни одна предпосылка к какому-либо крупному изобретению не была придумана с учетом этого изобретения».
«Почти все в моей лаборатории в UCL и в DeepMind прочитали эту книгу: «Почему величие невозможно спланировать».
Есть о чем задуматься 🧐
⚡6❤3👍3
#unrealneural #новое
Paper2Code
PaperCoder — это многоагентная система LLM, которая преобразует документ в репозиторий кода.
Процесс состоит из трех этапов: планирование, анализ и генерация кода, каждый из которых выполняется специализированными агентами.
https://arxiv.org/pdf/2504.17192
Paper2Code
PaperCoder — это многоагентная система LLM, которая преобразует документ в репозиторий кода.
Процесс состоит из трех этапов: планирование, анализ и генерация кода, каждый из которых выполняется специализированными агентами.
https://arxiv.org/pdf/2504.17192
⚡5👍3❤2
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
Transformer Lab — это приложение для экспериментов с LLM:
- Тренируйтесь, настраивайте или общайтесь.
- Загрузка LLM в один клик (DeepSeek, Gemma и т. д.)
- Интерфейс Drag-n-Drop для RAG.
- Встроенное ведение журнала и многое другое.
Надо тестить
Transformer Lab — это приложение для экспериментов с LLM:
- Тренируйтесь, настраивайте или общайтесь.
- Загрузка LLM в один клик (DeepSeek, Gemma и т. д.)
- Интерфейс Drag-n-Drop для RAG.
- Встроенное ведение журнала и многое другое.
Надо тестить
👍6❤2⚡2
#unrealneural
«…Истинные прорывы часто рождаются не из четко спланированного действия, а из открытых исследований, из экспериментов и поиска, где многое заранее предсказать невозможно..»
Можно ли это примерить на автоматизацию архитектурного проектирования? Вроде как и не всегда, потому что есть много «прорывов по плану».
Это подходит к процессам, которые имеют четкую задачу, конкретную формулировку и понятный профит в моменте.
А что если жёсткая схема "спланировать — реализовать" может ограничивать развитие?
Возможности нейросетей не всегда очевидны на старте. Особенно в проектировании. Даже скорее часто неочевидны.
Всегда ли настоящее развитие приходит через цикл гипотеза → эксперимент → анализ → новая гипотеза?
«…Истинные прорывы часто рождаются не из четко спланированного действия, а из открытых исследований, из экспериментов и поиска, где многое заранее предсказать невозможно..»
Можно ли это примерить на автоматизацию архитектурного проектирования? Вроде как и не всегда, потому что есть много «прорывов по плану».
Это подходит к процессам, которые имеют четкую задачу, конкретную формулировку и понятный профит в моменте.
А что если жёсткая схема "спланировать — реализовать" может ограничивать развитие?
Возможности нейросетей не всегда очевидны на старте. Особенно в проектировании. Даже скорее часто неочевидны.
Всегда ли настоящее развитие приходит через цикл гипотеза → эксперимент → анализ → новая гипотеза?
💯5⚡2👍2🥱2
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
Генерить картинки диффузией конечно интересно, но как насчет генерации диффузионными моделями зданий в майнкрафте?
🤯5👍4⚡2
Чем пользуетесь каждый день?
Anonymous Poll
44%
ChatGPT
7%
Grok
6%
Gemini
30%
Deepseek
2%
Qwen
10%
другое
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural #новое
MCPify
Можно протестировать и создать свой MCP-сервер с помощью MCPify
https://mcpify.ai/
MCPify
Можно протестировать и создать свой MCP-сервер с помощью MCPify
https://mcpify.ai/
⚡4👍4❤2