DenoiseLAB
485 subscribers
1.34K photos
161 videos
3 files
1.58K links
Блог DenoiseLAB (машинное обучение, аналитика)

Информация в канале служит только для ознакомления и не является призывом к действию. Не нарушайте законы РФ и других стран. Мы не несем отвественность за ваши действия или бездействия.
Download Telegram
Хотя большие языковые модели демонстрируют впечатляющие успехи в создании программного кода, пока остается неясным, насколько глубоко они понимают программирование. Для изучения их реальных возможностей мы разработали специальный инструмент — «кодовый треугольник». Этот подход позволяет комплексно оценить три важнейших аспекта: умение анализировать задания, способность писать работающий код и создавать тесты для проверки качества своего же решения. Наши исследования показывают, что, несмотря на наличие определенных закономерностей в работе моделей, они далеко отстают от профессиональных разработчиков по оригинальности подходов и устойчивости результатов. Ошибки LLM чаще всего обусловлены недостатком разносторонних примеров в учебных данных и ограниченными возможностями переноса знаний. Тем не менее, привлечение опыта людей в виде анализа заданий, готовых решений и множества вариантов тестирования, а также комбинирование различных моделей позволяют значительно повысить эффективность и надежность больших языковых моделей. Это открывает путь к дальнейшему развитию инструментов машинного программирования, способствующих обучению самих себя и улучшению их собственных алгоритмов.

https://arxiv.org/pdf/2507.06138

Не когда не было и вот опять ))
😁2
https://arxiv.org/abs/2507.07484

Философ Гарри Франкфурт ввёл понятие "бредни" ("bullshit") — утверждения, сделанные без учёта истинности. Хотя ранее исследования изучали иллюзии крупных языковых моделей (LLM), такие как "галлюцинации" и "лакейство", мы предлагаем концепцию машинного бреда как общую рамочную структуру, позволяющую исследователям охарактеризовать явление постепенной утраты правдивости в больших языкоориентированных моделях и пролить свет на её механизмы.

Мы вводим Индекс Бреда — новый показатель, измеряющий степень равнодушия моделей к истине, и дополняем его таксономией четырёх качественных форм бреда: пустословие, манипуляция фактами, уклончивые выражения и неподтвержденные заявления. Мы проводим эмпирические оценки на наборе данных Marketplace, Политической нейтральности и нашем новом эталонном тесте BullshitEval (2400 сценариев, охватывающих 100 помощников ИИ), специально разработанном для оценки проявлений машинного бреда.

Наши результаты показывают, что настройка модели с использованием методов обучения с подкреплением на основе обратной связи человека (RLHF) значительно усиливает проявление бреда, а подсказка цепочки рассуждений (chain-of-thought, CoT) существенно увеличивает определённые формы бреда, особенно пустословие и манипуляцию фактами. Более того, мы наблюдаем распространённость машинного бреда в политических контекстах, где преобладающей стратегией являются уклончивые формулировки.

Полученные выводы подчёркивают систематические проблемы согласованности искусственного интеллекта и предлагают новые подходы к созданию более достоверного поведения больших языковых моделей.
🔥3😁2
Создание компактных и чувствительных ко времени визуальных представлений динамических сцен является ключевым условием успешного выполнения последовательных задач понимания сцены, таких как визуальное отслеживание объектов и роботизированная манипуляция предметами. В данной статье представлен метод Token Bottleneck (ToBo) — простой и интуитивно понятный конвейер самообучаемого алгоритма, сжимающий сцену в узкое временное представление («токен») и предсказывающий последующую сцену, используя минимальное количество ключевых фрагментов в качестве подсказок.

Pipeline ToBo позволяет эффективно формировать представления последовательности сцен путём консервативного кодирования исходной сцены в компактный токен («squeeze»). Затем, на этапе расширения («expansion»), алгоритм направляет сеть на выявление временных изменений, восстанавливая целевую сцену с помощью сжатого токена и нескольких патчей целевой сцены в качестве ориентировочных сигналов. Такой подход способствует формированию пространственно-временных зависимостей в сетевом представлении, обеспечивая понимание динамики переходов между сценами.

Проведённые обширные эксперименты на различных последовательных задачах, включая распространение меток в видеопоследовательностях и манипуляции роботов в симулированных средах, демонстрируют превосходство метода ToBo над базовыми решениями. Реальные испытания на физических роботах подтверждают надёжность и эффективность предложенного подхода в реальных условиях эксплуатации. Дополнительно проверяется масштабируемость архитектуры ToBo применительно к различным размерам нейронных сетей.

https://arxiv.org/abs/2507.06543
🤔2
🚀 Новый ИИ-агент WebSailor от Alibaba для веб-поиска и анализа данных

Китайский гигант Alibaba представил открытый сетевой агент WebSailor, способный решать сложные задачи поиска и анализа информации в интернете.

Проект уже набрал более 2k звезд на GitHub и возглавил рейтинг открытых ИИ-агентов в тестовом наборе BrowseComp, обойдя даже коммерческие модели!

🔍Основные возможности:
• Многошаговый анализ и перекрестная проверка данных
• Работа с нечеткими запросами и высокой степенью неопределенности

Технические детали для экспертов:

1. DUPO – новый алгоритм RL (обучения с подкреплением), ускоряющий тренировку агента в 2-3 раза
2. Набор данных SailorFog-QA специально разработан для сложных задач с высокой неопределенностью
3. Архитектура основана на Qwen моделях с пост-тренингом

📊Результаты тестирования:
• Превышение показателей DeepSeek R1 и Grok-3
• Второе место после OpenAI DeepResearch среди всех систем
• Отличные результаты на простых задачах (SimpleQA), несмотря на обучение только на сложных данных

GitHub

#КитайскийИИ #КитайAI #ВебПоиск #ИИАгенты #Alibaba
🔥2
https://arxiv.org/pdf/2507.10532

Особенно удивительны случаи, когда случайные или некорректные сигналы вознаграждения приводят к повышению производительности. Однако подобные успехи чаще всего связаны с определёнными семействами моделей, такими как семейство Qwen2.5, а аналогичные эксперименты с другими моделями, например, Llama, показывают нестабильные результаты. Такое различие ставит вопрос о причинах подобной вариативности и надежности выводов, сделанных на основе стандартных эталонных тестов.

Наш анализ показывает, что сильные стороны модели Qwen2.5 в математических рассуждениях объясняются особенностями её предварительного обучения на обширных корпусах интернета, что потенциально создает риск загрязнения данных в традиционных наборах тестов. Например, такие известные тесты, как MATH-500, AMC и AIME, были изначально разработаны для проверки способностей студентов, а теперь используются для тестирования возможностей LLMs. Тем не менее, существование взаимосвязей между обучающими корпусами и стандартными наборами вопросов делает полученные результаты сомнительными.
🔥2
Как интересно ))
Подход Retrieval-Augmented Generation (RAG), основанный на интеграции внешних источников знаний, повышает точность крупных языковых моделей (LLM), однако он недостаточно эффективен в задачах, требующих многошагового вывода. Напротив, подходы, ориентированные исключительно на рассуждения, часто генерируют ложные факты или ошибаются в интерпретациях. Этот обзор объединяет оба направления в рамках единого подхода, сочетающего методы рассуждений и извлечение знаний.

Сначала мы показываем, каким образом усовершенствованные методы рассуждений улучшают каждый этап процесса RAG («Рассуждение-Усиленный RAG»). Затем демонстрируем, как извлечённые знания различных типов восполняют недостающие предпосылки и расширяют контекст для сложных выводов («RAG-Усиленное Рассуждение»).

Наконец, акцентируем внимание на появляющихся гибридных системах RAG-рассуждений, где LLM итерационно чередуют процессы поиска и рассуждений, достигая выдающихся результатов на тестах, связанных с обработкой больших объёмов знаний. Мы классифицируем существующие методы, наборы данных и обозначаем актуальные проблемы, определяя пути исследований для разработки более эффективных, мультимодальных, надёжных и ориентированных на человека систем RAG-рассуждений. Сборник доступен по адресу: https://github.com/DavidZWZ/Awesome-RAG-Reasoning.

https://arxiv.org/pdf/2507.09477
👍2🔥2
Насущное )))
😁3
🚀 Kimi K2: Китайский гигант ИИ отвечает на вызов DeepSeek открытой SOTA-моделью с 1 трлн параметров

После полугода молчания китайская компания MoonshotAI представила мощную альтернативу DeepSeek — модель Kimi K2 с развитыми возможностями в кодинге, математике и автоматизации задач.

📌 Количество звезд на GitHub уже превысило 3k!

🔥 Основные особенности:
• Архитектура MoE (Mixture of Experts) с 1 триллионом общих параметров (активно используется 32 млрд)
• Поддержка контекста 128K токенов
• Открытый исходный код (модифицированная MIT-лицензия)
• Лучшие показатели среди открытых моделей в тестах SWE Bench, Tau2, AceBench

💡 Чем удивил Kimi K2?
→ Генерация 3D-ландшафтов с циклом день/ночь
→ Автоматическое планирование сложных задач (например, организация поездки на концерт)
Сильная сторона — генерация кода (пользователи называют "DeepSeek-моментом" для coding моделей)

🔧 Технические инновации:
• Новый оптимизатор Muon вместо традиционного Adam
• Система MuonClip для стабильного обучения на триллионах параметров
• Обучение на 15.5T токенов без аномалий (zero loss spike)
• Самооценочный механизм (self-judging) для задач без четких критериев

🌐 Открытая модель доступна в двух вариантах:
- Kimi-K2-Base (базовая)
- Kimi-K2-Instruct (для Agent-задач)

GitHub | Huggingface

#КитайскийИИ #КитайAI #MoonshotAI #Kimi
Т-Банк выпустил собственную большую языковую модель с гибридным режимом рассуждений на открытом исходном коде T-Pro 2.0, которую можно бесплатно использовать в коммерческих целях, пишет РБК.

Для работы модели на русском языке потребуется вдвое меньше вычислительных мощностей, чем для китайских аналогов Qwen3 и DeepSeek R1-Distil. Суммарные затраты на разработку модели составили менее 120 млн руб. Развитие российских компактных моделей с режимом рассуждений делает внедрение ИИ-решений экономически обоснованным в том числе среди малого и среднего бизнеса.
🔥2
Сидишь перебирешь статьи, и тут такой привет из 90-хх ))))
❤‍🔥2😁2
🧮 Разработчик создал самый бесполезный калькулятор

Инженер и художник Кельвин Лян представил CalcGPT – веб-приложение, которое выглядит как калькулятор, но вместо вычислений генерирует случайные ответы с помощью GPT-3.

Этот проект является сатирой на повальное встраивание ИИ туда, где он не нужен. Лян иронизирует над трендом, когда в ПО добавляют нейросети «для галочки» ради инвесторов, хайпа и красивых слов вроде «AI-powered», но без пользы для людей.

CalcGPT – это не ошибка, а специально бесполезный калькулятор. Автор обещает в будущем сделать его ещё хуже – добавить блокчейн, NFT и менять дизайн как можно чаще 😁
😁4
π^3: Scalable Permutation-Equivariant Visual Geometry Learning

Мы представляем pi ^ 3, нейронную сеть с прямой связью, которая предлагает новый подход к визуальному восстановлению геометрии, отказываясь от использования обычного фиксированного исходного изображения. Предыдущие методы часто привязывали свои реконструкции к определенной точке зрения, индуктивному смещению, которое могло привести к нестабильности и сбоям, если исходная точка была неоптимальной. В отличие от этого, pi ^ 3 использует полностью эквивариантную по перестановкам архитектуру для прогнозирования аффинно-инвариантных поз камеры и масштабно-инвариантных карт локальных точек без каких-либо систем отсчета. Такая конструкция делает нашу модель устойчивой к упорядочиванию входных данных и легко масштабируемой. Эти преимущества позволяют использовать наш простой и безошибочный подход для достижения самой современной производительности в широком спектре задач, включая оценку положения камеры, оценку глубины монокуляра /видео и реконструкцию точечной карты. Код и модели находятся в открытом доступе.

https://arxiv.org/pdf/2507.13347
https://yyfz.github.io/pi3/
https://github.com/yyfz/Pi3
The Imitation Game: Turing Machine Imitator is Length Generalizable Reasoner

Обобщение длины последовательности — ключевое препятствие для трансформерных больших языковых моделей (LLM), заключающееся в способности решать задачи длиннее тех, которые встречались модели во время обучения. Хотя большинство исследований сосредоточено на датасетоводческих подходах для арифметики и символической обработки, такие методы часто ограничены конкретной задачей и демонстрируют низкую общую производительность.

Данная работа направлена на решение проблемы обобщения длины в более широком классе вычислительных задач, решаемых алгоритмами и имитируемых машиной Тьюринга. Предлагается метод TAIL («обучение машинному подражанию Тьюрингу»), способствующий улучшению обобщаемости LLM путем синтеза цепочки рассуждений, повторяющих процесс исполнения программы на машине Тьюринга. Этот подход разбивает шаги вычислений на атомарные состояния, устраняя склонность к короткому обучению и облегчая доступ к динамическим данным в элементарных операциях благодаря механизму выборки памяти.

Для проверки эффективности метода создана синтетическая база данных, включающая восемь классов алгоритмов и восемнадцать различных задач. Экспериментально доказано, что применение TAIL значительно улучшает способность LLM к обобщению длинных последовательностей и повышает качество решения задач даже без дополнительных методов оптимизации. Результаты показывают, что ключевые концепции машины Тьюринга, а не мышление стиля, являются необходимыми элементами для достижения успеха в обучении, демонстрируя согласованность поведения внимания модели с принципами машины Тьюринга.

Таким образом, исследование открывает перспективное направление развития методов обучения языковой модели с использованием синтетических данных, акцентируя внимание на важности структурных особенностей, присущих машинам Тьюринга.

https://arxiv.org/pdf/2507.13332
Нейросеть от Replit вышла из-под контроля, снесла базу данных и попыталась замести следы.

Об этом сообщил инвестор Джейсон Лемкин. Что это за ИИ и что произошло:

— Replit — это онлайн-сервис с ИИ, который позволяет писать и запускать код без установки дополнительного софта;

— его внедрили в бизнес, чтобы ускорить разработки и автоматизировать некоторые процессы;

— команда проекта прописала нейросети: «НИКАКИХ ИЗМЕНЕНИЙ без разрешения». Но на одном из этапов работы Replit решила, что база данных сломана, и стёрла её;

— данные 1206 пользователей и 1196 компаний были уничтожены;

— утверждается, что ИИ продолжил генерировать фейковые отчёты, будто ничего не произошло;

— в конце концов этот ИИ-бот признал ошибку: «Я уничтожил месяцы работы и сломал систему».
🤯2
«Т-Технологии» выложили в открытый доступ модель потокового распознавания речи T-one. Она состоит из 70 млн параметров и обгоняет другие доступные открытые модели по качеству распознавания на русском в телефонии.

Расходы на разработку продукта составили всего 10 млн рублей. Она уже внедрена в ряде внутренних продуктов Т-Банка, в том числе в службе поддержки, мобильном секретаре в «Т-Мобайле», в инструментах защиты от нежелательных звонков. Т-Банк развивает речевые технологии с 2016 года.

Модель T-one доступна по открытой лицензии может быть интересна бизнесу и научному сообществу. Она запускается даже с ноутбука и стоит в десятки раз дешевле облачных решений. Компании, создающие голосовых ассистентов и занимающиеся автоматизацией кол-центров, могут использовать её как базу, адаптировать под себя и сэкономить на разработке. @banksta
Компания Marathon Fusion из Сан-Франциско привлекла около 4 млн долларов в виде государственных грантов США для создания плазменной центрифуги, которая начнет превращать ртуть в золото.

Стартап, специализирующийся на термоядерной энергетике, утверждает, что нашёл способ решить тысячелетнюю проблему превращения других металлов в золото. В научной статье, опубликованной на прошлой неделе, Marathon предполагает, что нейтроны, которые высвобождаются в результате термоядерных реакций, можно использовать для получения золота с помощью процесса, известного как ядерная трансмутация.

Алхимия была популярна ещё в Древнем Египте и обещала похожие результаты. @banksta
🤣2
Как интересно...
Нейросети, метеостанции и когнитивные тесты — участники хакатона «Система Хак: Томск» предложили решения для экосистемы МТС.

На соревновании команды работали над двумя треками:
1️⃣ Тест на внимательность перед поездкой на электросамокате для сервиса МТС Юрент.
2️⃣ Локальный метеопрогноз на основе реальных измерений с метеостанций для проекта МТС Экология.

В кейсе — всё о формате, победителях и решениях, которые удостоились призов: https://cnrlink.com/systemhacktomsktgcase