Media is too big
VIEW IN TELEGRAM
🔥4❤3🥰2👎1
Media is too big
VIEW IN TELEGRAM
#ЛабораторияИИ #unrealneural
Видеогенерация Midjourney
Супрематические пространства в духе Малевича и Лисицкого
Видеогенерация Midjourney
Супрематические пространства в духе Малевича и Лисицкого
🔥8❤4⚡2👍1
#unrealneural #вкопилкуэрудита
Context-INFORMED Grounding Supervision (CINGS)
Обучение LLM с CINGS значительно повышает способности заземлять как в текстовых, так и в мультимодальных языковых моделях по сравнению со стандартной настройкой инструкций.
*Заземление модели (model grounding) — это процесс связывания предсказаний или представлений, которые создаёт модель искусственного интеллекта, с реальными объектами, событиями или концепциями в физическом или семантическом мире. Другими словами, это способ обеспечить, чтобы модель не просто оперировала абстрактными данными, а могла соотносить свои выводы с конкретными сущностями или контекстом в реальной среде.
Примеры:
- В задачах компьютерного зрения, таких как распознавание объектов, заземление означает, что модель не просто классифицирует изображение как «собака», а связывает это понятие с конкретным объектом на изображении (например, указывает, где именно на картинке находится собака).
- В обработке естественного языка (NLP) заземление может означать привязку слов или фраз к реальным сущностям (например, слово «Эйфелева башня» связывается с конкретным объектом в реальном мире).
https://arxiv.org/pdf/2506.15480
Context-INFORMED Grounding Supervision (CINGS)
Обучение LLM с CINGS значительно повышает способности заземлять как в текстовых, так и в мультимодальных языковых моделях по сравнению со стандартной настройкой инструкций.
*Заземление модели (model grounding) — это процесс связывания предсказаний или представлений, которые создаёт модель искусственного интеллекта, с реальными объектами, событиями или концепциями в физическом или семантическом мире. Другими словами, это способ обеспечить, чтобы модель не просто оперировала абстрактными данными, а могла соотносить свои выводы с конкретными сущностями или контекстом в реальной среде.
Примеры:
- В задачах компьютерного зрения, таких как распознавание объектов, заземление означает, что модель не просто классифицирует изображение как «собака», а связывает это понятие с конкретным объектом на изображении (например, указывает, где именно на картинке находится собака).
- В обработке естественного языка (NLP) заземление может означать привязку слов или фраз к реальным сущностям (например, слово «Эйфелева башня» связывается с конкретным объектом в реальном мире).
https://arxiv.org/pdf/2506.15480
👍3🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
Graph-Code — это графовая RAG-система.
Он анализирует кодовую базу Python и создает графы знаний, позволяющие выполнять запросы на естественном языке.
Основные характеристики:
- Глубокий анализ кода для извлечения классов, функций и связей.
- Использует Memgraph для хранения кодовой базы в виде графа.
- Анализирует pyproject для понимания внешних зависимостей.
- Извлекает фактические фрагменты исходного кода для найденных функций.
Graph-Code — это графовая RAG-система.
Он анализирует кодовую базу Python и создает графы знаний, позволяющие выполнять запросы на естественном языке.
Основные характеристики:
- Глубокий анализ кода для извлечения классов, функций и связей.
- Использует Memgraph для хранения кодовой базы в виде графа.
- Анализирует pyproject для понимания внешних зависимостей.
- Извлекает фактические фрагменты исходного кода для найденных функций.
👍4🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
MIDI: Диффузия с несколькими экзомплями для генерации одного изображения в 3D-сцены
- Сегментация сцены на объекты
- Многовидовая диффузия на каждом объекте
- В результате генерирует высококачественную 3D-сцену, состоящую из частей
MIDI: Диффузия с несколькими экзомплями для генерации одного изображения в 3D-сцены
- Сегментация сцены на объекты
- Многовидовая диффузия на каждом объекте
- В результате генерирует высококачественную 3D-сцену, состоящую из частей
⚡5👍3
Forwarded from Data Secrets
Китайский стартап выпустил Deep Research агента, который лучше аналогов от OpenAI и Google
Kimi.ai – не новый стартап, и он уже радовал нас несколькими приятными релизами. Но такой прорыв у них в первый раз.
Взгляните на метрики: их агент Kimi-Researcher занимает лидирующие позиции на всех бенчмарках, включая известный Humanity’s Last Exam.
Говорят, для одной задачи агент в среднем делает 23 ризонинг-шага и параллельно исследует более 200 URL.
За основу взята собственная модель стартапа k 1.5, которую end-to-end дообучали с помощью обучения с подкреплением. При этом потребовалось минимум размеченных данных, потому что выдача награды была, в основном, автоматизирована. Отдельно тюнили умение использовать инструменты (там кстати, подкручены MCP).
Все подробности о данных, подходах в обучении и строении инфраструктуры исследователи подробно расписали в блогпосте.
Попробовать агента скоро можно будет здесь. Если хотите получить ранний доступ, лучше записаться в лист ожидания
Умеют удивлять
Kimi.ai – не новый стартап, и он уже радовал нас несколькими приятными релизами. Но такой прорыв у них в первый раз.
Взгляните на метрики: их агент Kimi-Researcher занимает лидирующие позиции на всех бенчмарках, включая известный Humanity’s Last Exam.
Говорят, для одной задачи агент в среднем делает 23 ризонинг-шага и параллельно исследует более 200 URL.
За основу взята собственная модель стартапа k 1.5, которую end-to-end дообучали с помощью обучения с подкреплением. При этом потребовалось минимум размеченных данных, потому что выдача награды была, в основном, автоматизирована. Отдельно тюнили умение использовать инструменты (там кстати, подкручены MCP).
Все подробности о данных, подходах в обучении и строении инфраструктуры исследователи подробно расписали в блогпосте.
Попробовать агента скоро можно будет здесь. Если хотите получить ранний доступ, лучше записаться в лист ожидания
Умеют удивлять
👍4👌2
#вкопилкуэрудита
Теорема универсальной аппроксимации
Теорема гласит, что нейронная сеть с одним скрытым слоем, содержащим достаточно большое количество нейронов, и использующая нелинейную функцию активации (например, сигмоиду, ReLU или гиперболический тангенс), может с любой заданной точностью аппроксимировать любую непрерывную функцию, определённую на компактном подмножестве, при условии, что параметры сети (веса и смещения) выбраны подходящим образом.
- Теорема даёт уверенность, что нейронные сети способны решать сложные задачи, если правильно настроить их архитектуру и параметры.
- Она объясняет, почему нейронные сети могут адаптироваться к разнообразным задачам, от регрессии до генерации данных.
- Хотя теорема гарантирует существование аппроксимирующей сети, она не говорит, как найти оптимальные веса или сколько нейронов нужно.
Теорема универсальной аппроксимации
Теорема гласит, что нейронная сеть с одним скрытым слоем, содержащим достаточно большое количество нейронов, и использующая нелинейную функцию активации (например, сигмоиду, ReLU или гиперболический тангенс), может с любой заданной точностью аппроксимировать любую непрерывную функцию, определённую на компактном подмножестве, при условии, что параметры сети (веса и смещения) выбраны подходящим образом.
- Теорема даёт уверенность, что нейронные сети способны решать сложные задачи, если правильно настроить их архитектуру и параметры.
- Она объясняет, почему нейронные сети могут адаптироваться к разнообразным задачам, от регрессии до генерации данных.
- Хотя теорема гарантирует существование аппроксимирующей сети, она не говорит, как найти оптимальные веса или сколько нейронов нужно.
👍5🤯5⚡4👎2😁1
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
Еще один пример завораживающего вайб-кодинга 🥹
Еще один пример завораживающего вайб-кодинга 🥹
🔥8❤🔥4🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
RLT: Reinforcement-Learned Teachers
Новый подход к обучению студентов магистратуры права ( это модели ИИ 🙂) рассуждению с помощью RL.
RLT — модели (7B параметров), которые генерируют понятные пошаговые объяснения, обучая студентов ИИ. Они превосходят крупные LLM в задачах конкурентного мышления и холодного запуска, эффективно работая даже с 32B-студентами. Новый стандарт для компактных моделей рассуждения с RL!
arxiv.org/abs/2506.08388
RLT: Reinforcement-Learned Teachers
Новый подход к обучению студентов магистратуры права ( это модели ИИ 🙂) рассуждению с помощью RL.
RLT — модели (7B параметров), которые генерируют понятные пошаговые объяснения, обучая студентов ИИ. Они превосходят крупные LLM в задачах конкурентного мышления и холодного запуска, эффективно работая даже с 32B-студентами. Новый стандарт для компактных моделей рассуждения с RL!
arxiv.org/abs/2506.08388
👍4⚡2
Forwarded from ИИ и роботы в стройке
This media is not supported in your browser
VIEW IN TELEGRAM
И снова — работа студента курса по параметрическому проектированию с помощью ИИ лондонского бюро Studio Tim Fu (STF). Еще и с кодом.
Красиво🟣
Красиво
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9⚡5❤2
Forwarded from Data Secrets
В Cursor появился MCP Hugging Face
Это значит, что теперь HF можно в два клика подсоединить к вашему проекту, и агент будет на лету искать и прикручивать подходящие вам датасеты, модели или готовые приложения. А еще сможет пользоваться научными статьями (ну вдруг пригодится).
Очень приятное обновление, сразу захотелось потестить
Это значит, что теперь HF можно в два клика подсоединить к вашему проекту, и агент будет на лету искать и прикручивать подходящие вам датасеты, модели или готовые приложения. А еще сможет пользоваться научными статьями (ну вдруг пригодится).
Очень приятное обновление, сразу захотелось потестить
⚡4👍2🔥1
#unrealneural
EvoLM: в поисках динамики обучения модели утраченного языка
«Мы представляем EvoLM, набор моделей, который позволяет проводить систематический и прозрачный анализ динамики обучения LM на этапе предварительного обучения, непрерывного предварительного обучения, контролируемой тонкой настройки и обучения с подкреплением. Обучая более 100 LM с параметрами 1B и 4B с нуля, мы строго оцениваем как восходящие (моделирование языка), так и нисходящие (решение проблем) способности к рассуждению, включая рассмотрение как внутридоменного, так и внедоменного обобщения».
https://arxiv.org/abs/2506.16029
EvoLM: в поисках динамики обучения модели утраченного языка
«Мы представляем EvoLM, набор моделей, который позволяет проводить систематический и прозрачный анализ динамики обучения LM на этапе предварительного обучения, непрерывного предварительного обучения, контролируемой тонкой настройки и обучения с подкреплением. Обучая более 100 LM с параметрами 1B и 4B с нуля, мы строго оцениваем как восходящие (моделирование языка), так и нисходящие (решение проблем) способности к рассуждению, включая рассмотрение как внутридоменного, так и внедоменного обобщения».
https://arxiv.org/abs/2506.16029
👍3⚡2🔥2
Forwarded from ЗВОНАРЁВА.ОНЛАЙН
Жизнь прекрасная штука), только недавно в Питере познакомлились с Артуром Ишмаевым, лаборатория ИИ ПИК .
А сегодня уже вместе на одном шикарнейшем мероприятии, которое проходит в Москве на пощадке АНО "Среда возможностей ".
Артур делится наработками лаборатории ИИ ПИК.
С нами и Андрей Лупий, АНО "Агентство Цифрового развития"
В зале большое количестао представителей самых различных органов исполнителтной власти Москвы.
А сегодня уже вместе на одном шикарнейшем мероприятии, которое проходит в Москве на пощадке АНО "Среда возможностей ".
Артур делится наработками лаборатории ИИ ПИК.
С нами и Андрей Лупий, АНО "Агентство Цифрового развития"
В зале большое количестао представителей самых различных органов исполнителтной власти Москвы.
❤7🔥5👏2⚡1
#пытаюсьпонять
Cвёрточные сети больше не нужны?
Современные мультимодальные модели, такие как ViT, CLIP и DALL·E, предпочитают трансформеры свёрточным сетям (CNN). Механизм внимания трансформеров лучше улавливает глобальные зависимости в данных (текст, изображения, аудио), чем локальные фильтры свёрток. Трансформеры обрабатывают данные как последовательности (патчи или токены), что идеально для мультимодальности, и превосходно масштабируются на больших датасетах.
Однако свёртки не исчезнут, но станут нишевым инструментом. Они будут применяться в энергоэффективных системах и задачах с локальной структурой данных. Гибридные модели, сочетающие свёртки и трансформеры, усилят? (подкрепят) их роль.
Cвёрточные сети больше не нужны?
Современные мультимодальные модели, такие как ViT, CLIP и DALL·E, предпочитают трансформеры свёрточным сетям (CNN). Механизм внимания трансформеров лучше улавливает глобальные зависимости в данных (текст, изображения, аудио), чем локальные фильтры свёрток. Трансформеры обрабатывают данные как последовательности (патчи или токены), что идеально для мультимодальности, и превосходно масштабируются на больших датасетах.
Однако свёртки не исчезнут, но станут нишевым инструментом. Они будут применяться в энергоэффективных системах и задачах с локальной структурой данных. Гибридные модели, сочетающие свёртки и трансформеры, усилят? (подкрепят) их роль.
👍6🤔3❤1⚡1
Forwarded from ИИ и роботы в стройке
This media is not supported in your browser
VIEW IN TELEGRAM
Тем временем разработчики Finch анонсировали ИИ-агента и пообещали ИИ не только в генерации планов, но и в инструментах редактирования. finch, по их словам, становится все круче в предсказании следующих действий пользователя.
🟢 Что под капотом
Графы в Finch применяются для моделирования и анализа структуры зданий и их компонентов как графов — сетей взаимосвязанных элементов (комнат, стен, дверей и т.д.). Графы дают возможность представлять архитектурный проект в виде узлов и связей, что упрощает вычисления и улучшает качество обратной связи в режиме реального времени.
Интеграция с Revit, Rhino и Grasshopper позволяет, не отходя от кассы и работая в привычных инструментах, использовать ИИ для анализа и оптимизации проекта.
Алгоритмы ИИ Finch применяет при генерации планировок, автоматического заполнения этажей, а также для мгновенной оценки ключевых показателей — распределения площадей, углеродного следа, симуляции дневного света и других параметров.
Вот тут можно попробовать.
«Подобные технологии мы уже видели в инструментах для разработчиков, например, в Cursor. Теперь мы приносим эту технологию в сферу AEC»
Графы в Finch применяются для моделирования и анализа структуры зданий и их компонентов как графов — сетей взаимосвязанных элементов (комнат, стен, дверей и т.д.). Графы дают возможность представлять архитектурный проект в виде узлов и связей, что упрощает вычисления и улучшает качество обратной связи в режиме реального времени.
Интеграция с Revit, Rhino и Grasshopper позволяет, не отходя от кассы и работая в привычных инструментах, использовать ИИ для анализа и оптимизации проекта.
Алгоритмы ИИ Finch применяет при генерации планировок, автоматического заполнения этажей, а также для мгновенной оценки ключевых показателей — распределения площадей, углеродного следа, симуляции дневного света и других параметров.
Вот тут можно попробовать.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍4⚡2
Возник такой вопрос: почему до сих пор в ответах ChatGPT и других моделей нет рекламы 🤔? Или она есть, но мы ее не замечаем?
Anonymous Poll
24%
не будет рекламы
65%
будет добавлена незаметно
11%
другое