Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Хмм.. любопытно.. chatGPT как rendering-движок, понимающий материалы.
Похоже у него в мозгах есть понимание того, как устроены шейдеры (начитался интернетика).
Более того, вы можете попробовать попросить его самого написать шейдеры в формате JSON.
А потом дать ему любую картинку и сказать - перетекстурируй.
Я попробовал на фотках и генерациях, а вы попробуйте на скринах из Блендора. И своих материалах.
Получается chatRenderMan какой-то.
Промпт:
@cgevent
Похоже у него в мозгах есть понимание того, как устроены шейдеры (начитался интернетика).
Более того, вы можете попробовать попросить его самого написать шейдеры в формате JSON.
А потом дать ему любую картинку и сказать - перетекстурируй.
Я попробовал на фотках и генерациях, а вы попробуйте на скринах из Блендора. И своих материалах.
Получается chatRenderMan какой-то.
Промпт:
retexture the whole attached image based on the JSON aesthetic below
{
"style": "photorealistic 3D render",
"material": "glass with transparent and iridescent effects",
"surface_texture": "smooth, polished with subtle reflections and refractive effects",
"lighting": {
"type": "studio HDRI",
"intensity": "high",
"direction": "angled top-left key light and ambient fill",
"accent_colors": ["blue", "green", "purple"],
"reflections": true,
"refractions": true,
"dispersion_effects": true,
"bloom": true
},
"color_scheme": {
"primary": "transparent with iridescent blue, green, and purple hues",
"secondary": "crystal-clear with subtle chromatic shifts",
"highlights": "soft, glowing accents reflecting rainbow-like effects",
"rim_light": "soft reflective light around edges"
},
"background": {
"color": "black",
"vignette": true,
"texture": "none"
},
"post_processing": {
"chromatic_aberration": true,
"glow": true,
"high_contrast": true,
"sharp_details": true
}
}
@cgevent
👍5⚡3🔥3
Forwarded from Data Secrets
This media is not supported in your browser
VIEW IN TELEGRAM
В Deep Research в ChatGPT добавили возможность интеграции GitHub
То есть теперь можно присоединить к боту определенный репозиторий и задать по нему любой вопрос. Модель уйдет на несколько минут искать ответ, а после вернется с большим отчетом.
Репорт, который будет отдавать модель, выглядит примерно так, то есть развернутое объяснение со ссылками на конкретные места в коде. Здорово, кстати, что ссылки – это значит именно переадрессация на определенные строки кода на гитхабе, а не просто скопированный в чат кусок файла. Так намного удобнее ориентироваться.
Фичу раскатят на всех платных пользователей в ближайшие дни 🍯
То есть теперь можно присоединить к боту определенный репозиторий и задать по нему любой вопрос. Модель уйдет на несколько минут искать ответ, а после вернется с большим отчетом.
Репорт, который будет отдавать модель, выглядит примерно так, то есть развернутое объяснение со ссылками на конкретные места в коде. Здорово, кстати, что ссылки – это значит именно переадрессация на определенные строки кода на гитхабе, а не просто скопированный в чат кусок файла. Так намного удобнее ориентироваться.
Фичу раскатят на всех платных пользователей в ближайшие дни 🍯
⚡6👍5🔥1
#unrealneural
CAD-Llama
Преобразует набор данных DeepCAD в удобный для LLM текстовый формат, а инструкция настраивает модель Llama-8B для генерации и редактирования САПР. Точность увеличивается в 4 раза по сравнению с GPT4, в 2 раза по сравнению с инструкцией на более «сыром» представлении САПР.
Берем к себе для тестов!
https://arxiv.org/abs/2505.04481
CAD-Llama
Преобразует набор данных DeepCAD в удобный для LLM текстовый формат, а инструкция настраивает модель Llama-8B для генерации и редактирования САПР. Точность увеличивается в 4 раза по сравнению с GPT4, в 2 раза по сравнению с инструкцией на более «сыром» представлении САПР.
Берем к себе для тестов!
https://arxiv.org/abs/2505.04481
⚡5👍4🔥4
Forwarded from Data Secrets
Media is too big
VIEW IN TELEGRAM
«Сложно сказать, насколько мы еще опережаем Китай. Я думаю, ненамного»
В сенате США вчера проводили слушание по вопросу укрепления позиций Америки в ИИ-гонке. В качестве свидетелей приглашали несколько представителей индустрии, в том числе Альтмана. Собрали интересные цитаты:
Если вдруг захотите посмотреть все 3 часа слушания, вот запись😶
В сенате США вчера проводили слушание по вопросу укрепления позиций Америки в ИИ-гонке. В качестве свидетелей приглашали несколько представителей индустрии, в том числе Альтмана. Собрали интересные цитаты:
➖ Мы убеждены, что OpenAI обладает лучшими моделями в мире. Тем не менее, очень сложно сказать, насколько мы опережаем Китай, но я бы сказал… ненамного.➖ DeepSeek добился двух впечатляющих результатов: сильная опенсорс модель и приложение, которое а какой-то момент стало более скачиваемым, чем ChatGPT. Пока что DeepSeek не обогнал ChatGPT в качестве потребительского ИИ по умолчанию, но если бы это случилось, это было бы… плохо.➖ В конечном итоге стоимость ИИ сравняется со стоимостью энергии. Роботы могут создавать чипы, оптимизировать сети, но электрон есть электрон. В конечном итоге интеллект будет масштабироваться настолько, насколько это позволит сеть.➖ Скоро в истории человечества произойдут большие перемены. Эти системы способны на вещи, которые мы даже не можем себе представить. (Да, куда же без высказываний в стиле «да не маркетинг это» )
Если вдруг захотите посмотреть все 3 часа слушания, вот запись
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👍3🤯2🤡1
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
Джим Фан говорит, что NVIDIA обучила гуманоидных роботов ходить и двигаться как люди.
10 лет обучения, сжатые в 2 часа симуляции. Оказывается, для освоения движения не нужна гигантская модель.
«1,5 миллиона параметров, а не миллиард, чтобы охватить подсознательные процессы человеческого тела».
Выглядит круто!
Джим Фан говорит, что NVIDIA обучила гуманоидных роботов ходить и двигаться как люди.
10 лет обучения, сжатые в 2 часа симуляции. Оказывается, для освоения движения не нужна гигантская модель.
«1,5 миллиона параметров, а не миллиард, чтобы охватить подсознательные процессы человеческого тела».
Выглядит круто!
🔥7👍3🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
LegoGPT
Эта авторегрессионная модель генерирует сборные конструкции из текстовых подсказок, воспроизводя законы и ограничения сборки в обучение LLM.
«LegoGPT — это небольшой первый шаг к генеративному производству физических объектов»
Есть ограничения, но зато опенсорс и очень привлекательная для проектирования история.
https://github.com/AvaLovelace1/LegoGPT
LegoGPT
Эта авторегрессионная модель генерирует сборные конструкции из текстовых подсказок, воспроизводя законы и ограничения сборки в обучение LLM.
«LegoGPT — это небольшой первый шаг к генеративному производству физических объектов»
Есть ограничения, но зато опенсорс и очень привлекательная для проектирования история.
https://github.com/AvaLovelace1/LegoGPT
⚡4👍3🔥3
Media is too big
VIEW IN TELEGRAM
#unrealneural
Fellou
Браузер — агент
Не только поиск и просмотр, но и сложные задачи (глубокие исследования, какая-то автоматизация и еще ряд возможностей). Наверняка может освободить от части ручной работы.
Fellou
Браузер — агент
Не только поиск и просмотр, но и сложные задачи (глубокие исследования, какая-то автоматизация и еще ряд возможностей). Наверняка может освободить от части ручной работы.
👍5⚡2🤔2
This media is not supported in your browser
VIEW IN TELEGRAM
#ЛабораторияИИ #Эксперименты #вкопилкуэрудита
Вайб-кодинг Часть 1 Модель диффузии Грея-Скотта
Начинаю изучать инструменты вайб-кодинга и вот первое приложение, как результат.
Система диффузии Грея-Скотта – это математическая модель, описывающая реакцию-диффузию, используемая для моделирования динамических узоров в различных системах, например, в биологии или химических реакциях. Она представляет собой систему уравнений, которые описывают изменение концентраций двух веществ в пространстве и времени.
Вайб-кодинг Часть 1 Модель диффузии Грея-Скотта
Начинаю изучать инструменты вайб-кодинга и вот первое приложение, как результат.
Система диффузии Грея-Скотта – это математическая модель, описывающая реакцию-диффузию, используемая для моделирования динамических узоров в различных системах, например, в биологии или химических реакциях. Она представляет собой систему уравнений, которые описывают изменение концентраций двух веществ в пространстве и времени.
⚡5❤3👍3
This media is not supported in your browser
VIEW IN TELEGRAM
#ЛабораторияИИ #Эксперименты
Вайб-кодинг Часть 2 Телеграм бот генератор фракталов
За пару промптов сделал локального tg бота, который присылает сгенерированные картинки с фракталами
Вайб-кодинг Часть 2 Телеграм бот генератор фракталов
За пару промптов сделал локального tg бота, который присылает сгенерированные картинки с фракталами
👍5⚡2❤1🔥1
Forwarded from ИИ и роботы в стройке
6 репозиториев Гитхаба для тех, кто проектирует — архитектуру или агентов
Мы уже писали, что MCP становится стандартом для интеграции ИИ, как когда-то REST для API. А мультиагентные системы — следующий шаг после одиночных LLM. Ниже — 6 интересных проектов с Гитхаба для тех, кто разрабатывает ИИ-агентов или использует нейросети в проектировании.
1️⃣ OpenWebUI превращает инструменты MCP в HTTP-серверы, совместимые с OpenAPI. Теперь ИИ-сервисы легко интегрируются с RESTful API без «костылей».
2️⃣ Unbody — модульный сервер для создания ИИ, который понимает контекст, а не просто перебирает данные. Он преобразует необработанные данные в структурированные знания, умеет рассуждать и выдавать результат через API. Работает в 4 слоях: восприятие → память → рассуждение → действие. Пригодится тем, кто строит умные чат-боты или аналитические системы с памятью и логикой.
3️⃣ OWL: мультиагентные системы в действии. Фреймворк для мультиагентных систем на основе CAMEL-AI. Позволяет запускать несколько специализированных ИИ-агентов, которые взаимодействуют друг с другом через браузер, терминал, API или MCP-инструменты.
OWL отлично подходит для экспериментов с распределённым ИИ, где разные агенты выполняют разные роли и задачи, а результат достигается за счёт их взаимодействия.
4️⃣ F/mcptools — MCP Tools CLI — терминал для взаимодействия с MCP-серверами через командную строку. Позволяет находить, вызывать и тестировать ИИ-инструменты прямо из терминала. Поддерживает JSON, HTTP и даже мок-серверы для тестов. Если вы работаете с MCP-инфраструктурой, то можно ускорить интеграцию, отладку и тестирование.
5️⃣ Letta — универсальный формат для ИИ-агентов. Открытый стандарт для упаковки и переноса ИИ-агентов между LangGraph, CrewAI и другими фреймворками без переписывания кода, с контролем версий и чекпоинтами. Letta использует файл-архив .af, в котором сохраняются память, поведение и состояние агента.
6️⃣ Блендер-MCP — инструмент для интеграции Blender с Claude AI через MCP. Теперь можно проектировать на Blender с помощью текста — в том числе управлять сценами, объектами и материалами. Мы даже показывали эксперименты с ним или с чем-то похожим.
Мы уже писали, что MCP становится стандартом для интеграции ИИ, как когда-то REST для API. А мультиагентные системы — следующий шаг после одиночных LLM. Ниже — 6 интересных проектов с Гитхаба для тех, кто разрабатывает ИИ-агентов или использует нейросети в проектировании.
OWL отлично подходит для экспериментов с распределённым ИИ, где разные агенты выполняют разные роли и задачи, а результат достигается за счёт их взаимодействия.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6⚡3
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
Машины непрерывного мышления (Continuous Thought Machines CTM)
Новая архитектура нейронной сети от SakanaAI
"... Нейроны в мозге используют синхронизацию и время в своих вычислениях. Это свойство кажется существенным для гибкости и адаптивности биологического интеллекта. Современные системы ИИ отказываются от этого фундаментального свойства в пользу эффективности и простоты. Мы нашли способ преодолеть разрыв между существующими мощными реализациями и масштабируемостью современного ИИ и парадигмой биологического правдоподобия, где синхронизация нейронов имеет значение . Результаты оказались удивительными и обнадеживающими ..."
https://pub.sakana.ai/ctm/
Машины непрерывного мышления (Continuous Thought Machines CTM)
Новая архитектура нейронной сети от SakanaAI
"... Нейроны в мозге используют синхронизацию и время в своих вычислениях. Это свойство кажется существенным для гибкости и адаптивности биологического интеллекта. Современные системы ИИ отказываются от этого фундаментального свойства в пользу эффективности и простоты. Мы нашли способ преодолеть разрыв между существующими мощными реализациями и масштабируемостью современного ИИ и парадигмой биологического правдоподобия, где синхронизация нейронов имеет значение . Результаты оказались удивительными и обнадеживающими ..."
https://pub.sakana.ai/ctm/
⚡5👍3❤2
#вкопилкуэрудита
Парадокс "двойного спуска" (Double Descent)
Классическая теория статистики предполагает, что с ростом сложности модели ошибка сначала уменьшается, а затем растёт из-за переобучения, образуя U-образную кривую. Однако в современных нейронках наблюдается иное поведение:
Первый спуск: При увеличении сложности модели (например, добавлении нейронов) ошибка на тестовых данных сначала уменьшается, как и ожидается.
Пик переобучения: Когда модель становится слишком сложной (число параметров сравнимо с объёмом данных), она переобучается, и ошибка на тестовых данных резко возрастает.
Второй спуск: Если продолжить увеличивать сложность модели (например, сделать её "сверхпараметризованной", когда параметров намного больше, чем данных), ошибка на тестовых данных неожиданно снова начинает уменьшаться, достигая даже лучших результатов, чем раньше.
Классическая теория говорит, что переусложнённые модели должны плохо обобщать, но в случае двойного спуска сверхбольшие модели работают лучше.
Парадокс "двойного спуска" (Double Descent)
Классическая теория статистики предполагает, что с ростом сложности модели ошибка сначала уменьшается, а затем растёт из-за переобучения, образуя U-образную кривую. Однако в современных нейронках наблюдается иное поведение:
Первый спуск: При увеличении сложности модели (например, добавлении нейронов) ошибка на тестовых данных сначала уменьшается, как и ожидается.
Пик переобучения: Когда модель становится слишком сложной (число параметров сравнимо с объёмом данных), она переобучается, и ошибка на тестовых данных резко возрастает.
Второй спуск: Если продолжить увеличивать сложность модели (например, сделать её "сверхпараметризованной", когда параметров намного больше, чем данных), ошибка на тестовых данных неожиданно снова начинает уменьшаться, достигая даже лучших результатов, чем раньше.
Классическая теория говорит, что переусложнённые модели должны плохо обобщать, но в случае двойного спуска сверхбольшие модели работают лучше.
👍6🔥2
Как думаете наберем сегодня 1000 подписчиков?😃😃😃
Anonymous Poll
77%
да 👍
11%
да хоть 2 ⚡️
13%
ну посмотрим 🧐
🎉10👍2⚡1👏1