AI LAB | Лаборатория ИИ
1.73K subscribers
623 photos
431 videos
23 files
892 links
Лаборатория ИИ
Эксперименты и интересные материалы на тему ИИ в архитектурном проектировании и не только.

По всем вопросам 24/7
@arthiteca

Вопросы сотрудничества и соучастия
@j_fede
Download Telegram
Channel name was changed to «AI LAB | Лаборатория ИИ»
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural #пытаюсьпонять
Что делает A2A от google особенным?
В продолжение темы о которой уже писал ранее:
Агенты ИИ теперь говорят на одном языке.

Протокол прост и гениален!:
Форматы — это обычные JSON-структуры с понятной схемой.
Обмен сообщениями происходит через вызовы method, params и result.
Это означает: один формат — и ты можешь взаимодействовать хоть с LangChain, хоть с SAP, хоть с внутренним агентом компании.

Что входит в A2A-протокол?
Agent Maps
— механизмы для обнаружения других агентов и их возможностей (описание через JSON: capabilities, intent, modality)
Tasks & Artifacts — декларативная система задач и артефактов (на вход/выход): task_id, inputs, outputs, status
UX Coordination — согласование пользовательского взаимодействия между агентами (в т.ч. интерфейсная адаптация)

Кто уже в деле?
Google, Salesforce, Atlassian, SAP, ServiceNow, LangChain и более 50 корпораций.

Почему это важно?
ИИ-агенты перестают быть «одиночками».
Теперь все могут:
- Интегрировать агентов из разных стеков и облаков
- Создавать настоящие распределенные ИИ-системы
- Объединять ИИ как модули одного мозга, даже если они работают в разных компаниях

Получается, что Контекст — за MCP (Model Context Protocol) от Anthropic. Поведение — за A2A.
Видимо это и есть архитектура будущего🤷🏻‍♂️🤷🏻‍♂️🤷🏻‍♂️
🤯43😱2
This media is not supported in your browser
VIEW IN TELEGRAM
Примеров параметрического проектирования на ИИ все больше — вот на ChatGPT

Запрос
Create a pSjs WEBGL sketch that draws a straight "bridge" made of Adjacent 3D boxes along the X-axis. Center the bridge in the canvas and apply a simple 3D camera (e.g. rotateX/rotateY).


Что используют
⚫️p5.js — библиотека на JavaScript — упрощает создание графики за счет интерактивного управления режимами рендеринга. В p5.js есть два режима: P2D (по умолчанию) и WEBGL.
⚫️WEBGL позволяет более гибко управлять рендерингом, разбивает формы на треугольники и за счет этого требует меньше вычислительных мощностей. Кроме того, в этом режиме можно настраивать освещение и ракурс камеры и другие параметры
Please open Telegram to view this post
VIEW IN TELEGRAM
8👍53
#unrealneural
Очень интересные мысли в докладе Тима Роктешеля на ICLR2025 об открытости и ИИ.

«Почти ни одна предпосылка к какому-либо крупному изобретению не была придумана с учетом этого изобретения».

«Почти все в моей лаборатории в UCL и в DeepMind прочитали эту книгу: «Почему величие невозможно спланировать».

Есть о чем задуматься 🧐
63👍3
#unrealneural #новое
Paper2Code

PaperCoder — это многоагентная система LLM, которая преобразует документ в репозиторий кода.

Процесс состоит из трех этапов: планирование, анализ и генерация кода, каждый из которых выполняется специализированными агентами.

https://arxiv.org/pdf/2504.17192
5👍32
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural

Transformer Lab — это приложение для экспериментов с LLM:
- Тренируйтесь, настраивайте или общайтесь.
- Загрузка LLM в один клик (DeepSeek, Gemma и т. д.)
- Интерфейс Drag-n-Drop для RAG.
- Встроенное ведение журнала и многое другое.

Надо тестить
👍622
#unrealneural
«…Истинные прорывы часто рождаются не из четко спланированного действия, а из открытых исследований, из экспериментов и поиска, где многое заранее предсказать невозможно..»

Можно ли это примерить на автоматизацию архитектурного проектирования? Вроде как и не всегда, потому что есть много «прорывов по плану».
Это подходит к процессам, которые имеют четкую задачу, конкретную формулировку и понятный профит в моменте.
А что если жёсткая схема "спланировать — реализовать" может ограничивать развитие?

Возможности нейросетей не всегда очевидны на старте. Особенно в проектировании. Даже скорее часто неочевидны.

Всегда ли настоящее развитие приходит через цикл гипотеза → эксперимент → анализ → новая гипотеза?
💯52👍2🥱2
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
Генерить картинки диффузией конечно интересно, но как насчет генерации диффузионными моделями зданий в майнкрафте?
🤯5👍42
Чем пользуетесь каждый день?
Anonymous Poll
44%
ChatGPT
7%
Grok
6%
Gemini
30%
Deepseek
2%
Qwen
10%
другое
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural #новое
MCPify

Можно протестировать и создать свой MCP-сервер с помощью MCPify
https://mcpify.ai/
4👍42
Media is too big
VIEW IN TELEGRAM
#ЛабораторияИИ #Эксперименты
Генерация планировки квартиры с помощью LLM модели

Работа над решением задачи генерации планировочных решений продолжается. LLM модели очень универсальны с точки зрения работы со структурами данных, поэтому наши эксперименты активно реализуются с этой технологией в том числе.

В рамках модуля R2.ОПР нашей платформы мы начали первые эксперименты с локально-запущенной моделью, которая ужа на уровне небольших доработок позволяет подступиться к задаче генерации планировочных решений.

Выводы по генерации планировки квартиры в связке с локальной LLM:
1. В целом квартиры получаются отвратительные, хуже чем было у базового WallPlan
2. В половине случаев возникают пересечения и наложения помещений
3. Редактирование по промпту работает, простую задачу (типа сделай санузел шире, добавь гардеробную) понимает и выполняет в ~70% случаях внутри простых контуров
4. Понимание непрямых углов есть, в простых непрямоугольных контурах пытается вписать непрямоугольные помещения, но на непрямоугольность как будто уходит много внимания и если есть непрямые углы, то больше ошибается в компоновке помещений

Следующие шаги по этому направлению:
1. Упрощение структуры генерации в целом и дополнительная работа над ней
2. Учитывать специфику пред обучения LLM-ки, для большей эффективности (например использовать другие единицы измерения)
3. Попробовать за основу брать разные модели
👍722
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
AICommand

Можно моделировать с помощью ChatGPT на Unity! Как именно это реализовано пока не смотрел, но выглядит очень перспективно

https://github.com/keijiro/AICommand
👍733
Темпы появления новых моделей поражают

Январь
• DeepSeek R1
• Qwen 2.5-Max
• o3-mini

Февраль
• Gemini 2.0 Flash
• Gemini 2.0 Pro
• Grok 3
• Grok 3 mini
• Claude 3.7 (Sonnet)
• QwQ-Max (preview)
• GPT-4.5

Март
• Gemma 3 (1B • 4B • 12B • 27B)
• Gemini 2.5 Pro (public preview)
• Llama 4 Scout
• Llama 4 Maverick

Апрель
• GPT-4.1
• GPT-4.1-mini
• GPT-4.1-nano
• o3 (full)
• o4-mini
• Gemini 2.5 Flash (preview)
• Gemma 3 QAT (1B • 4B • 12B • 27B)

Что будет дальше?
9👍52
This media is not supported in your browser
VIEW IN TELEGRAM
#ЛабораторияИИ #эксперименты
25-этажная башня в 1 промпт

Новый эксперимент с генерацией 3д формы от нашей Лаборатории ИИ
43👍3
#новое #unrealneural
На просторах новостной ленты наткнулся на только что вышедшие модели от Xiaomi.

Пишут, что основное предназначение - это решение математических задач, логические рассуждения и генерация кода.
Вот некоторые особенности модели MiMo-7B-Base:
- Обучение с нуля
- Использование синтетических данных для логического мышления
- Особый подход к предобработке данных и стратегии предобучения
- Внедрение метода Multiple-Token Prediction (MTP) — предсказание нескольких токенов одновременно для улучшения качества и скорости вывода

https://huggingface.co/XiaomiMiMo
👍41😁1
Forwarded from Denis Sexy IT 🤖
Me 🫦 Her
Please open Telegram to view this post
VIEW IN TELEGRAM
😁7🔥3
#unrealneural
ИИ может предсказать работу вашего мозга на следующие 5 секунд.

В новой статье представлена ​​модель Transformer, которая с высокой точностью прогнозирует активность мозга, используя данные фМРТ, полученные всего за 21 секунду.

🤯🤯🤯
https://arxiv.org/pdf/2412.19814v1
🤯83