https://habr.com/ru/articles/928994/ - очень выходное чтиво ))))
Хабр
Как выйти из IT?.. и пойти слесарем на завод. Моя попыточка дауншифтинга [2|5]
Вторая часть нашего слесарно-айтишного балета будет с элементами 18+, поэтому уберите от экранов джунов. В Сингапуре - 21+. Нет, ты будешь! - самый жёсткий HeadHunt в моей практике Успешно провалив...
😁2
🚀 Kimi K2: Китайский гигант ИИ отвечает на вызов DeepSeek открытой SOTA-моделью с 1 трлн параметров
После полугода молчания китайская компания MoonshotAI представила мощную альтернативу DeepSeek — модель Kimi K2 с развитыми возможностями в кодинге, математике и автоматизации задач.
📌 Количество звезд на GitHub уже превысило 3k!
🔥 Основные особенности:
• Архитектура MoE (Mixture of Experts) с 1 триллионом общих параметров (активно используется 32 млрд)
• Поддержка контекста
• Открытый исходный код (модифицированная MIT-лицензия)
• Лучшие показатели среди открытых моделей в тестах SWE Bench, Tau2, AceBench
💡 Чем удивил Kimi K2?
→ Генерация 3D-ландшафтов с циклом день/ночь
→ Автоматическое планирование сложных задач (например, организация поездки на концерт)
→ Сильная сторона — генерация кода (пользователи называют "DeepSeek-моментом" для coding моделей)
🔧 Технические инновации:
• Новый оптимизатор Muon вместо традиционного Adam
• Система
• Обучение на 15.5T токенов без аномалий (zero loss spike)
• Самооценочный механизм (self-judging) для задач без четких критериев
🌐 Открытая модель доступна в двух вариантах:
- Kimi-K2-Base (базовая)
- Kimi-K2-Instruct (для Agent-задач)
GitHub | Huggingface
#КитайскийИИ #КитайAI #MoonshotAI #Kimi
После полугода молчания китайская компания MoonshotAI представила мощную альтернативу DeepSeek — модель Kimi K2 с развитыми возможностями в кодинге, математике и автоматизации задач.
📌 Количество звезд на GitHub уже превысило 3k!
🔥 Основные особенности:
• Архитектура MoE (Mixture of Experts) с 1 триллионом общих параметров (активно используется 32 млрд)
• Поддержка контекста
128K токенов• Открытый исходный код (модифицированная MIT-лицензия)
• Лучшие показатели среди открытых моделей в тестах SWE Bench, Tau2, AceBench
💡 Чем удивил Kimi K2?
→ Генерация 3D-ландшафтов с циклом день/ночь
→ Автоматическое планирование сложных задач (например, организация поездки на концерт)
→ Сильная сторона — генерация кода (пользователи называют "DeepSeek-моментом" для coding моделей)
🔧 Технические инновации:
• Новый оптимизатор Muon вместо традиционного Adam
• Система
MuonClip для стабильного обучения на триллионах параметров• Обучение на 15.5T токенов без аномалий (zero loss spike)
• Самооценочный механизм (self-judging) для задач без четких критериев
🌐 Открытая модель доступна в двух вариантах:
- Kimi-K2-Base (базовая)
- Kimi-K2-Instruct (для Agent-задач)
GitHub | Huggingface
#КитайскийИИ #КитайAI #MoonshotAI #Kimi
GitHub
GitHub - MoonshotAI/Kimi-K2: Kimi K2 is the large language model series developed by Moonshot AI team
Kimi K2 is the large language model series developed by Moonshot AI team - MoonshotAI/Kimi-K2
Т-Банк выпустил собственную большую языковую модель с гибридным режимом рассуждений на открытом исходном коде T-Pro 2.0, которую можно бесплатно использовать в коммерческих целях, пишет РБК.
Для работы модели на русском языке потребуется вдвое меньше вычислительных мощностей, чем для китайских аналогов Qwen3 и DeepSeek R1-Distil. Суммарные затраты на разработку модели составили менее 120 млн руб. Развитие российских компактных моделей с режимом рассуждений делает внедрение ИИ-решений экономически обоснованным в том числе среди малого и среднего бизнеса.
Для работы модели на русском языке потребуется вдвое меньше вычислительных мощностей, чем для китайских аналогов Qwen3 и DeepSeek R1-Distil. Суммарные затраты на разработку модели составили менее 120 млн руб. Развитие российских компактных моделей с режимом рассуждений делает внедрение ИИ-решений экономически обоснованным в том числе среди малого и среднего бизнеса.
РБК
Т-банк выпустил российский аналог DeepSeek и Qwen
Т-банк выпустил российскую языковую модель с режимом рассуждений, которую можно бесплатно использовать в коммерческих целях, например для создания ИИ-агентов. Ранее для этого подходили только
🔥2
🧮 Разработчик создал самый бесполезный калькулятор
Инженер и художник Кельвин Лян представил CalcGPT – веб-приложение, которое выглядит как калькулятор, но вместо вычислений генерирует случайные ответы с помощью GPT-3.
Этот проект является сатирой на повальное встраивание ИИ туда, где он не нужен. Лян иронизирует над трендом, когда в ПО добавляют нейросети «для галочки» ради инвесторов, хайпа и красивых слов вроде «AI-powered», но без пользы для людей.
CalcGPT – это не ошибка, а специально бесполезный калькулятор. Автор обещает в будущем сделать его ещё хуже – добавить блокчейн, NFT и менять дизайн как можно чаще 😁
Инженер и художник Кельвин Лян представил CalcGPT – веб-приложение, которое выглядит как калькулятор, но вместо вычислений генерирует случайные ответы с помощью GPT-3.
Этот проект является сатирой на повальное встраивание ИИ туда, где он не нужен. Лян иронизирует над трендом, когда в ПО добавляют нейросети «для галочки» ради инвесторов, хайпа и красивых слов вроде «AI-powered», но без пользы для людей.
CalcGPT – это не ошибка, а специально бесполезный калькулятор. Автор обещает в будущем сделать его ещё хуже – добавить блокчейн, NFT и менять дизайн как можно чаще 😁
calcgpt.io
A silly calculator unnecessarily powered by GPT
😁4
π^3: Scalable Permutation-Equivariant Visual Geometry Learning
Мы представляем pi ^ 3, нейронную сеть с прямой связью, которая предлагает новый подход к визуальному восстановлению геометрии, отказываясь от использования обычного фиксированного исходного изображения. Предыдущие методы часто привязывали свои реконструкции к определенной точке зрения, индуктивному смещению, которое могло привести к нестабильности и сбоям, если исходная точка была неоптимальной. В отличие от этого, pi ^ 3 использует полностью эквивариантную по перестановкам архитектуру для прогнозирования аффинно-инвариантных поз камеры и масштабно-инвариантных карт локальных точек без каких-либо систем отсчета. Такая конструкция делает нашу модель устойчивой к упорядочиванию входных данных и легко масштабируемой. Эти преимущества позволяют использовать наш простой и безошибочный подход для достижения самой современной производительности в широком спектре задач, включая оценку положения камеры, оценку глубины монокуляра /видео и реконструкцию точечной карты. Код и модели находятся в открытом доступе.
✅https://arxiv.org/pdf/2507.13347
✅https://yyfz.github.io/pi3/
✅https://github.com/yyfz/Pi3
Мы представляем pi ^ 3, нейронную сеть с прямой связью, которая предлагает новый подход к визуальному восстановлению геометрии, отказываясь от использования обычного фиксированного исходного изображения. Предыдущие методы часто привязывали свои реконструкции к определенной точке зрения, индуктивному смещению, которое могло привести к нестабильности и сбоям, если исходная точка была неоптимальной. В отличие от этого, pi ^ 3 использует полностью эквивариантную по перестановкам архитектуру для прогнозирования аффинно-инвариантных поз камеры и масштабно-инвариантных карт локальных точек без каких-либо систем отсчета. Такая конструкция делает нашу модель устойчивой к упорядочиванию входных данных и легко масштабируемой. Эти преимущества позволяют использовать наш простой и безошибочный подход для достижения самой современной производительности в широком спектре задач, включая оценку положения камеры, оценку глубины монокуляра /видео и реконструкцию точечной карты. Код и модели находятся в открытом доступе.
✅https://arxiv.org/pdf/2507.13347
✅https://yyfz.github.io/pi3/
✅https://github.com/yyfz/Pi3
The Imitation Game: Turing Machine Imitator is Length Generalizable Reasoner
Обобщение длины последовательности — ключевое препятствие для трансформерных больших языковых моделей (LLM), заключающееся в способности решать задачи длиннее тех, которые встречались модели во время обучения. Хотя большинство исследований сосредоточено на датасетоводческих подходах для арифметики и символической обработки, такие методы часто ограничены конкретной задачей и демонстрируют низкую общую производительность.
Данная работа направлена на решение проблемы обобщения длины в более широком классе вычислительных задач, решаемых алгоритмами и имитируемых машиной Тьюринга. Предлагается метод TAIL («обучение машинному подражанию Тьюрингу»), способствующий улучшению обобщаемости LLM путем синтеза цепочки рассуждений, повторяющих процесс исполнения программы на машине Тьюринга. Этот подход разбивает шаги вычислений на атомарные состояния, устраняя склонность к короткому обучению и облегчая доступ к динамическим данным в элементарных операциях благодаря механизму выборки памяти.
Для проверки эффективности метода создана синтетическая база данных, включающая восемь классов алгоритмов и восемнадцать различных задач. Экспериментально доказано, что применение TAIL значительно улучшает способность LLM к обобщению длинных последовательностей и повышает качество решения задач даже без дополнительных методов оптимизации. Результаты показывают, что ключевые концепции машины Тьюринга, а не мышление стиля, являются необходимыми элементами для достижения успеха в обучении, демонстрируя согласованность поведения внимания модели с принципами машины Тьюринга.
Таким образом, исследование открывает перспективное направление развития методов обучения языковой модели с использованием синтетических данных, акцентируя внимание на важности структурных особенностей, присущих машинам Тьюринга.
https://arxiv.org/pdf/2507.13332
Обобщение длины последовательности — ключевое препятствие для трансформерных больших языковых моделей (LLM), заключающееся в способности решать задачи длиннее тех, которые встречались модели во время обучения. Хотя большинство исследований сосредоточено на датасетоводческих подходах для арифметики и символической обработки, такие методы часто ограничены конкретной задачей и демонстрируют низкую общую производительность.
Данная работа направлена на решение проблемы обобщения длины в более широком классе вычислительных задач, решаемых алгоритмами и имитируемых машиной Тьюринга. Предлагается метод TAIL («обучение машинному подражанию Тьюрингу»), способствующий улучшению обобщаемости LLM путем синтеза цепочки рассуждений, повторяющих процесс исполнения программы на машине Тьюринга. Этот подход разбивает шаги вычислений на атомарные состояния, устраняя склонность к короткому обучению и облегчая доступ к динамическим данным в элементарных операциях благодаря механизму выборки памяти.
Для проверки эффективности метода создана синтетическая база данных, включающая восемь классов алгоритмов и восемнадцать различных задач. Экспериментально доказано, что применение TAIL значительно улучшает способность LLM к обобщению длинных последовательностей и повышает качество решения задач даже без дополнительных методов оптимизации. Результаты показывают, что ключевые концепции машины Тьюринга, а не мышление стиля, являются необходимыми элементами для достижения успеха в обучении, демонстрируя согласованность поведения внимания модели с принципами машины Тьюринга.
Таким образом, исследование открывает перспективное направление развития методов обучения языковой модели с использованием синтетических данных, акцентируя внимание на важности структурных особенностей, присущих машинам Тьюринга.
https://arxiv.org/pdf/2507.13332
Нейросеть от Replit вышла из-под контроля, снесла базу данных и попыталась замести следы.
Об этом сообщил инвестор Джейсон Лемкин. Что это за ИИ и что произошло:
— Replit — это онлайн-сервис с ИИ, который позволяет писать и запускать код без установки дополнительного софта;
— его внедрили в бизнес, чтобы ускорить разработки и автоматизировать некоторые процессы;
— команда проекта прописала нейросети: «НИКАКИХ ИЗМЕНЕНИЙ без разрешения». Но на одном из этапов работы Replit решила, что база данных сломана, и стёрла её;
— данные 1206 пользователей и 1196 компаний были уничтожены;
— утверждается, что ИИ продолжил генерировать фейковые отчёты, будто ничего не произошло;
— в конце концов этот ИИ-бот признал ошибку: «Я уничтожил месяцы работы и сломал систему».
Об этом сообщил инвестор Джейсон Лемкин. Что это за ИИ и что произошло:
— Replit — это онлайн-сервис с ИИ, который позволяет писать и запускать код без установки дополнительного софта;
— его внедрили в бизнес, чтобы ускорить разработки и автоматизировать некоторые процессы;
— команда проекта прописала нейросети: «НИКАКИХ ИЗМЕНЕНИЙ без разрешения». Но на одном из этапов работы Replit решила, что база данных сломана, и стёрла её;
— данные 1206 пользователей и 1196 компаний были уничтожены;
— утверждается, что ИИ продолжил генерировать фейковые отчёты, будто ничего не произошло;
— в конце концов этот ИИ-бот признал ошибку: «Я уничтожил месяцы работы и сломал систему».
🤯2
«Т-Технологии» выложили в открытый доступ модель потокового распознавания речи T-one. Она состоит из 70 млн параметров и обгоняет другие доступные открытые модели по качеству распознавания на русском в телефонии.
Расходы на разработку продукта составили всего 10 млн рублей. Она уже внедрена в ряде внутренних продуктов Т-Банка, в том числе в службе поддержки, мобильном секретаре в «Т-Мобайле», в инструментах защиты от нежелательных звонков. Т-Банк развивает речевые технологии с 2016 года.
Модель T-one доступна по открытой лицензии может быть интересна бизнесу и научному сообществу. Она запускается даже с ноутбука и стоит в десятки раз дешевле облачных решений. Компании, создающие голосовых ассистентов и занимающиеся автоматизацией кол-центров, могут использовать её как базу, адаптировать под себя и сэкономить на разработке. @banksta
Расходы на разработку продукта составили всего 10 млн рублей. Она уже внедрена в ряде внутренних продуктов Т-Банка, в том числе в службе поддержки, мобильном секретаре в «Т-Мобайле», в инструментах защиты от нежелательных звонков. Т-Банк развивает речевые технологии с 2016 года.
Модель T-one доступна по открытой лицензии может быть интересна бизнесу и научному сообществу. Она запускается даже с ноутбука и стоит в десятки раз дешевле облачных решений. Компании, создающие голосовых ассистентов и занимающиеся автоматизацией кол-центров, могут использовать её как базу, адаптировать под себя и сэкономить на разработке. @banksta
Известия
В России стала доступна модель распознавания речи на русском языке
Центр искусственного интеллекта группы «Т-Технологии» выложил в открытый доступ потоковую модель распознавания речи T-one. При сравнительно небольшом размере она лидирует по качеству распознавания на русском языке на шумных и сжатых записях из колл-центров…
Компания Marathon Fusion из Сан-Франциско привлекла около 4 млн долларов в виде государственных грантов США для создания плазменной центрифуги, которая начнет превращать ртуть в золото.
Стартап, специализирующийся на термоядерной энергетике, утверждает, что нашёл способ решить тысячелетнюю проблему превращения других металлов в золото. В научной статье, опубликованной на прошлой неделе, Marathon предполагает, что нейтроны, которые высвобождаются в результате термоядерных реакций, можно использовать для получения золота с помощью процесса, известного как ядерная трансмутация.
Алхимия была популярна ещё в Древнем Египте и обещала похожие результаты. @banksta
Стартап, специализирующийся на термоядерной энергетике, утверждает, что нашёл способ решить тысячелетнюю проблему превращения других металлов в золото. В научной статье, опубликованной на прошлой неделе, Marathon предполагает, что нейтроны, которые высвобождаются в результате термоядерных реакций, можно использовать для получения золота с помощью процесса, известного как ядерная трансмутация.
Алхимия была популярна ещё в Древнем Египте и обещала похожие результаты. @banksta
🤣2
Нейросети, метеостанции и когнитивные тесты — участники хакатона «Система Хак: Томск» предложили решения для экосистемы МТС.
На соревновании команды работали над двумя треками:
1️⃣ Тест на внимательность перед поездкой на электросамокате для сервиса МТС Юрент.
2️⃣ Локальный метеопрогноз на основе реальных измерений с метеостанций для проекта МТС Экология.
В кейсе — всё о формате, победителях и решениях, которые удостоились призов: https://cnrlink.com/systemhacktomsktgcase
На соревновании команды работали над двумя треками:
1️⃣ Тест на внимательность перед поездкой на электросамокате для сервиса МТС Юрент.
2️⃣ Локальный метеопрогноз на основе реальных измерений с метеостанций для проекта МТС Экология.
В кейсе — всё о формате, победителях и решениях, которые удостоились призов: https://cnrlink.com/systemhacktomsktgcase
Будьте в курсе лучших кейсов хакатонов, ML-турниров, CTF и соревнований по спортивному программированию на Codenrock
Кейс «Система Хак: Томск»: как студенты разработали решения для экосистемы МТС – Будьте в курсе лучших кейсов хакатонов, ML-турниров…
Благотворительный фонд «Система» совместно с экспертами МТС провели хакатон «Система Хак: Томск». Команды представили на соревновании решения для оценки внимательности водителей электросамокатов в треке от МТС Юрент и способы улучшения точности метеопрогнозов…
AnyCap Project: A Unified Framework, Dataset, and Benchmark for Controllable Omni-modal Captioning
Проект AnyCap направлен на устранение недостатка тонкой настройки и надежного тестирования контролируемых мультимодальных моделей создания подписей. Предлагаемая модель AnyCapModel (ACM) представляет собой компактную расширяемую структуру, повышающую управляемость стандартных моделей мультимодальной генерации подписей без повторного обучения основной модели. Она сохраняет оригинальную подпись базового генератора, дополнительно интегрирует инструкции пользователей и особенности входных модальностей, обеспечивая улучшение результатов.
Для преодоления дефицита данных в области контролируемого мультимодального создания подписей представлен новый набор данных AnyCapDataset (ACD), включающий три типа модальностей, 28 видов пользовательских запросов и свыше 300 тыс. качественных образцов данных.
Также предлагается оценка AnyCapEval, предлагающая новые критерии для объективной оценки качества создаваемых подписей, выделяя отдельно точность передачи смысла и соблюдение заданного стиля. Использование ACM заметно улучшило качество генерируемых подписей по ряду популярных моделей. Так, модификация ACM-8B обеспечила повышение показателей точности текста на 45% и стилизации на 12% по сравнению с моделью GPT-4o, показывая значительный прогресс и на общепризнанных тестах, таких как MIA-Bench и VidCapBench.
✅https://arxiv.org/pdf/2507.12841
✅https://github.com/qishisuren123/AnyCap
Проект AnyCap направлен на устранение недостатка тонкой настройки и надежного тестирования контролируемых мультимодальных моделей создания подписей. Предлагаемая модель AnyCapModel (ACM) представляет собой компактную расширяемую структуру, повышающую управляемость стандартных моделей мультимодальной генерации подписей без повторного обучения основной модели. Она сохраняет оригинальную подпись базового генератора, дополнительно интегрирует инструкции пользователей и особенности входных модальностей, обеспечивая улучшение результатов.
Для преодоления дефицита данных в области контролируемого мультимодального создания подписей представлен новый набор данных AnyCapDataset (ACD), включающий три типа модальностей, 28 видов пользовательских запросов и свыше 300 тыс. качественных образцов данных.
Также предлагается оценка AnyCapEval, предлагающая новые критерии для объективной оценки качества создаваемых подписей, выделяя отдельно точность передачи смысла и соблюдение заданного стиля. Использование ACM заметно улучшило качество генерируемых подписей по ряду популярных моделей. Так, модификация ACM-8B обеспечила повышение показателей точности текста на 45% и стилизации на 12% по сравнению с моделью GPT-4o, показывая значительный прогресс и на общепризнанных тестах, таких как MIA-Bench и VidCapBench.
✅https://arxiv.org/pdf/2507.12841
✅https://github.com/qishisuren123/AnyCap
Искусственный интеллект из России впервые получил международный сертификат качества ISO, пишут "Известия".
«Яндекс» получил сертификат соответствия международному стандарту ISO/IEC 42001. Он задаёт требования к качеству разработки и безопасности искусственного интеллекта. Стандарт описывает как обеспечивается безопасность данных пользователей, как ведется мониторинг ошибок и аномалий в работе ИИ, учитывают ли разработчики этические и социальные риски, связанные с развитием ИИ, говорится в сообщении.
«Яндекс» получил сертификат соответствия международному стандарту ISO/IEC 42001. Он задаёт требования к качеству разработки и безопасности искусственного интеллекта. Стандарт описывает как обеспечивается безопасность данных пользователей, как ведется мониторинг ошибок и аномалий в работе ИИ, учитывают ли разработчики этические и социальные риски, связанные с развитием ИИ, говорится в сообщении.
👍2🔥2😁2
Diffuman4D: 4D Consistent Human View Synthesis from Sparse-View Videos with Spatio-Temporal Diffusion Models
В этой статье рассматривается задача получения высококачественных изображений людей с использованием видеозаписей с ограниченным просмотром в качестве входных данных. Предыдущие методы решали проблему недостаточной наблюдательности, используя 4D-модели диффузии для создания видео с новых точек обзора. Однако сгенерированные видео с использованием этих моделей часто не имеют пространственно-временной согласованности, что ухудшает качество синтеза изображений. В этой статье мы предлагаем новый скользящий итеративный процесс устранения шума для повышения пространственно-временной согласованности 4D-модели диффузии. В частности, мы определяем скрытую сетку, в которой каждая скрытая точка кодирует изображение, позу камеры и позу человека для определенной точки обзора и временной метки, затем поочередно отключаем скрытую сетку в пространственном и временном измерениях с помощью скользящего окна и, наконец, декодируем видео в целевых точках обзора из соответствующих скрытых точек без шума. Благодаря итеративному перемещению информация в достаточной степени передается по скрытой сетке, что позволяет диффузионной модели получать большое поле восприятия и, таким образом, повышать согласованность выходных данных в формате 4D, одновременно снижая потребление памяти графического процессора. Эксперименты с наборами данных DNA-Rendering и ActorsHQ демонстрируют, что наш метод способен синтезировать высококачественные и непротиворечивые видеоролики для просмотра в режиме реального времени и значительно превосходит существующие подходы. Интерактивные демонстрации и видео-результаты смотрите на странице нашего проекта: https://diffuman4d.github.io/ .
✅https://arxiv.org/pdf/2507.13344
✅https://diffuman4d.github.io/
✅https://github.com/zju3dv/Diffuman4D
В этой статье рассматривается задача получения высококачественных изображений людей с использованием видеозаписей с ограниченным просмотром в качестве входных данных. Предыдущие методы решали проблему недостаточной наблюдательности, используя 4D-модели диффузии для создания видео с новых точек обзора. Однако сгенерированные видео с использованием этих моделей часто не имеют пространственно-временной согласованности, что ухудшает качество синтеза изображений. В этой статье мы предлагаем новый скользящий итеративный процесс устранения шума для повышения пространственно-временной согласованности 4D-модели диффузии. В частности, мы определяем скрытую сетку, в которой каждая скрытая точка кодирует изображение, позу камеры и позу человека для определенной точки обзора и временной метки, затем поочередно отключаем скрытую сетку в пространственном и временном измерениях с помощью скользящего окна и, наконец, декодируем видео в целевых точках обзора из соответствующих скрытых точек без шума. Благодаря итеративному перемещению информация в достаточной степени передается по скрытой сетке, что позволяет диффузионной модели получать большое поле восприятия и, таким образом, повышать согласованность выходных данных в формате 4D, одновременно снижая потребление памяти графического процессора. Эксперименты с наборами данных DNA-Rendering и ActorsHQ демонстрируют, что наш метод способен синтезировать высококачественные и непротиворечивые видеоролики для просмотра в режиме реального времени и значительно превосходит существующие подходы. Интерактивные демонстрации и видео-результаты смотрите на странице нашего проекта: https://diffuman4d.github.io/ .
✅https://arxiv.org/pdf/2507.13344
✅https://diffuman4d.github.io/
✅https://github.com/zju3dv/Diffuman4D
diffuman4d.github.io
Diffuman4D enables high-fidelity free-viewpoint rendering of human performances from sparse-view videos.
Важно, чтобы в России был «суверенный искусственный интеллект и [он] суверенно законодательно регулировался», заявила глава Совфеда Валентина Матвиенко.
🔊 «Мы должны поставить заслон для проникновения чужеродного ИИ, потому что это на самом деле будет влияние на любое суверенное государство с использованием таких суперсовременных тенденций», - сказала она.
Не думаю, что это случится очень скоро, но затягивать с этим нельзя, подчеркнула Матвиенко.
«Искусственных фейков просто море уже. И про меня есть, и я сама не могу отличить», - добавила она.
📰 Подпишитесь на «Ведомости»
Не думаю, что это случится очень скоро, но затягивать с этим нельзя, подчеркнула Матвиенко.
«Искусственных фейков просто море уже. И про меня есть, и я сама не могу отличить», - добавила она.
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
ВЕДОМОСТИ
Деловое издание «Ведомости» – vedomosti.ru
⚡️Проголосовать: t.me/boost/vedomosti
Сотрудничество — socialmedia@vedomosti.ru,
Реклама — tg-adv@vedomosti.ru
Регистрация в РКН: clck.ru/3NAdoL
⚡️Проголосовать: t.me/boost/vedomosti
Сотрудничество — socialmedia@vedomosti.ru,
Реклама — tg-adv@vedomosti.ru
Регистрация в РКН: clck.ru/3NAdoL
🤣1
Модели искусственного интеллекта (LLM-ки) ведут себя как идеальные экономические агенты: нейтральны к риску, не боятся потерь, выбирают максимальное ожидаемое значение и… вопреки здравому смыслу, почти всегда предпочитают отложенную выгоду немедленной. Это делает их похожими не столько на рационального инвестора, сколько на мифическую утопию homo economicus, которую никогда не встречали вживую.
Авторы статьи на arXiv сравнили поведение LLM (от GPT‑4o до DeepSeek R1) с ответами реальных людей из 53 стран и обнаружили: ближе всего модели к жителям (!) Танзании.
Восточная Африка - крупнейший хаб по аутсорсингу дешевой ручной разметки данных. Именно там, в Уганде, Кении и Танзании, сидят тысячи невидимых учителей ИИ, обучающих его быть «разумным» на английском языке. Английский у них действительно хороший, а вот как обстоят дела с доходами, социальным фоном, отношением ко времени и риску?
Выходит, LLM не просто вычисляют, а впитывают поведенческую логику тех, кто им объяснял мир.
Авторы статьи на arXiv сравнили поведение LLM (от GPT‑4o до DeepSeek R1) с ответами реальных людей из 53 стран и обнаружили: ближе всего модели к жителям (!) Танзании.
Восточная Африка - крупнейший хаб по аутсорсингу дешевой ручной разметки данных. Именно там, в Уганде, Кении и Танзании, сидят тысячи невидимых учителей ИИ, обучающих его быть «разумным» на английском языке. Английский у них действительно хороший, а вот как обстоят дела с доходами, социальным фоном, отношением ко времени и риску?
Выходит, LLM не просто вычисляют, а впитывают поведенческую логику тех, кто им объяснял мир.
arXiv.org
Artificial Finance: How AI Thinks About Money
In this paper, we explore how large language models (LLMs) approach financial decision-making by systematically comparing their responses to those of human participants across the globe. We posed...
👍3
RiemannLoRA: A Unified Riemannian Framework for Ambiguity-Free LoRA Optimization
Адаптация низкого уровня (LoRa) стала широко распространенным стандартом для эффективной настройки параметров больших языковых моделей (LLM), что значительно сокращает объем памяти и вычислительные требования. Однако проблемы остаются, в том числе поиск оптимальных стратегий инициализации или снижение избыточной параметризации при разложении матриц низкого ранга на множители. В этой работе мы предлагаем новый подход, который решает обе проблемы одновременно в рамках единой структуры. Наш метод рассматривает набор матриц LoRa фиксированного ранга как гладкое многообразие. Рассмотрение адаптеров в качестве элементов на этом коллекторе устраняет избыточную параметризацию, в то время как определение направления наиболее быстрого уменьшения потерь вдоль коллектора обеспечивает инициализацию. Особое внимание уделяется получению численно стабильной и вычислительно эффективной реализации нашего метода с использованием лучших практик численной линейной алгебры и римановой оптимизации. Результаты экспериментов с архитектурами LLM и diffusion model демонстрируют, что RiemannLoRA неизменно повышает скорость конвергенции и конечную производительность по сравнению со стандартной LoRa и ее современными модификациями.
✅https://arxiv.org/pdf/2507.12142
Адаптация низкого уровня (LoRa) стала широко распространенным стандартом для эффективной настройки параметров больших языковых моделей (LLM), что значительно сокращает объем памяти и вычислительные требования. Однако проблемы остаются, в том числе поиск оптимальных стратегий инициализации или снижение избыточной параметризации при разложении матриц низкого ранга на множители. В этой работе мы предлагаем новый подход, который решает обе проблемы одновременно в рамках единой структуры. Наш метод рассматривает набор матриц LoRa фиксированного ранга как гладкое многообразие. Рассмотрение адаптеров в качестве элементов на этом коллекторе устраняет избыточную параметризацию, в то время как определение направления наиболее быстрого уменьшения потерь вдоль коллектора обеспечивает инициализацию. Особое внимание уделяется получению численно стабильной и вычислительно эффективной реализации нашего метода с использованием лучших практик численной линейной алгебры и римановой оптимизации. Результаты экспериментов с архитектурами LLM и diffusion model демонстрируют, что RiemannLoRA неизменно повышает скорость конвергенции и конечную производительность по сравнению со стандартной LoRa и ее современными модификациями.
✅https://arxiv.org/pdf/2507.12142