Sakana AI впервые провела реальный эксперимент: три научные статьи, полностью сгенерированные ИИ (The AI Scientist-v2), были отправлены на слепое рецензирование на ICLR Workshop 2025.
Одна из них получила баллы выше среднего уровня принятия — лучше многих статей, написанных людьми. Это исторический момент в научной публикационной практике.
Статьи были на 100% созданы AI — от идеи до финального форматирования и списка литературы.
Человек не правил ни одного слова: только выбрал тему и три лучшие статьи из набора, сгенерированного AI.
В ICLR Workshop было отправлено 3 статьи из 43 (≈7%) — рецензенты знали, что среди них есть AI-работы, но не знали, какие именно.
- 2 статьи были отклонены.
- 1 статья прошла, получив баллы:
Средняя оценка статьи: 6.33 — это выше, чем у многих человеческих работ, принятых на воркшоп.
— Придумывает научные идеи
— Пишет и запускает код для экспериментов
— Анализирует результаты, строит графики
— Сама пишет статью в научном формате
— И… сама себя рецензирует
@ai_machinelearning_big_data
#ai #ml #Sakana
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Свежее обновление AI Mode в Google Поиске добавило мультимодальные функции — система анализирует изображения, понимая контекст и связи между объектами. Загрузите фото или сделайте снимок через Lens, задайте вопрос — нейросеть на основе Gemini выдаст развёрнутый ответ с рекомендациями и ссылками.
Раньше эта функция была доступна подписчикам Google One AI Premium, но теперь она доступна через Google Labs.
blog.google
С 7 апреля владельцы Galaxy S25 получат бесплатное обновление Gemini Live. Теперь можно обсуждать увиденное через камеру или экран, удерживая боковую кнопку. Например, ИИ подскажет, как организовать шкаф или выбрать одежду, анализируя изображение в реальном времени. Функция доступна бесплатно, но требует подключения к интернету и активации в поддерживаемых странах.
news.samsung.com
Cloudflare представила серию обновлений, ускоряющих разработку AI-агентов. Теперь в Agents SDK добавлена поддержка MCP, позволяющая агентам подключаться к внешним сервисам с автоматической аутентификацией и управлением соединениями. Для безопасного доступа интегрированы провайдеры Stytch, Auth0 и WorkOS — это упрощает настройку прав доступа через OAuth 2.1 и гибкие сценарии разрешений.
Новинка в SDK — гибернация для MСРAgent: серверы автоматически «засыпают» при простое, экономя ресурсы, и мгновенно активируются при новых запросах. Для хранения состояния агентов теперь доступны Durable Objects даже на бесплатном тарифе — с поддержкой SQLite и 5 ГБ памяти.
Обновления дополнены примерами готовых MCP-серверов — от управления задачами до анализа кода. Разработчики могут развернуть их через кнопку Deploy и настроить под свои нужды.
blog.cloudflare.com
Google анонсировал экспериментальную модель Sec-Gemini v1, которая создана для помощи специалистам по кибербезопасности через интеграцию ИИ и актуальных данных об угрозах.
Система объединяет OSV, Mandiant Threat Intelligence и Google Threat Intelligence, обеспечивая анализ в реальном времени. По внутренним тестам Google, модель на 11% эффективнее аналогов в CTI-MCQ (оценка знаний об угрозах) и на 10,5% — в CTI-RCM (поиск первопричин инцидентов). Она ускоряет обнаружение атак, оценку уязвимостей и даже идентификацию хакерских групп.
Sec-Gemini v1 уже доступна бесплатно для НКО, исследователей и компаний — это часть стратегии Google по совместной борьбе с угрозами. Модель не только предупреждает о рисках, но и объясняет контекст уязвимостей, помогая командам быстрее реагировать.
cybermagazine.com
Исследование, опубликованное в Nature, показало, что LLM дают неоднозначные результаты в биомедицинских задачах. Закрытые модели (GPT-4) превзошли конкурентов в задачх, требующих логики — например, отвечая на медицинские тесты с точностью до 75%. Однако в извлечении данных (распознавание болезней, связей между белками) лидируют традиционные подходы с файнтюном BERT-моделей, опережая LLM на 30–40%.
Открытые решения без дообучения справляются хуже: в 22% случаев генерируют недостоверную информацию. Эксперты отмечают, что даже добавление одного примера в промпт снижает число ошибок. Все данные и выводы исследования доступны в репозитории для независимой проверки.
nature.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
DeepSeek-AI и Университет Цинхуа опубликовали исследование о методе Self-Principled Critique Tuning (SPCT), который значительно повышает эффективность генеративных моделей вознаграждения (GRM) для больших языковых моделей. SPCT решает ключевую проблему RL-обучения — получение точных сигналов вознаграждения в условиях разных и неоднозначных задач, где нет четких правил или эталонов.
SPCT — это комбинация rejective fine-tuning и обучения с подкреплением на основе правил. Rejective fine-tuning учит модель генерировать принципы и критические оценки, адаптируясь к разным типам входных данных, а rule-based RL — оптимизирует процесс через систему поощрений, которая штрафует за ошибки в ранжировании ответов.
Это позволяет GRM самостоятельно создавать критерии оценки и точнее определять лучшие ответы в сложных сценариях, например, при работе с математическими задачами или этическими дилеммами.
Главное преимущество SPCT — масштабируемость инференса. Вместо увеличения размера модели авторы предлагают параллельно генерировать множество вариантов принципов и оценок, а затем агрегировать их через голосование. Чтобы фильтровать «шумные» варианты используется мета-модель вознаграждения, которая отбирает только качественные сэмплы.
По результатам тестов, DeepSeek-GRM с 27 млрд. параметров при 32 параллельных сэмплах превзошла 671B модель, демонстрируя, что вычислительные ресурсы можно эффективно распределять во время инференса, а не обучения.
Эксперименты на бенчмарках Reward Bench, PPE и RMB показали, что SPCT снижает предвзятость моделей. Например, в задачах на рассуждение точность выросла на 12%, а в оценке безопасности — на 9%. При этом метод сохраняет гибкость: одна и та же модель может оценивать одиночные ответы, пары или целые наборы, что критично для реальных приложений вроде чат-ботов или автономных систем.
К сожалению, идеальных решений не бывает и у метода есть существенное ограничение - GRM требуют больше вычислительных ресурсов, чем классические скалярные модели, а в узкоспециализированных областях (например, верификация кода) их точность пока уступает конкурентам.
@ai_machinelearning_big_data
#AI #ML #LLM #GRM #DeepSeekAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🧠 Как студенты используют Claude: новый отчёт от Anthropic
Anthropic только что опубликовала исследование об использовании их ИИ-ассистента Claude студентами университетов.
📊 Основные инсайты:
▪ Доминируют студенты STEM-направлений (естественные и точные науки)
Студенты технических и естественнонаучных специальностей — самые активные пользователи Claude. Особенно — компьютерные науки: они составляют 36,8% пользователей, при том что таких студентов всего 5,4%.
▪ Выделено 4 стиля взаимодействия с ИИ:
▪ Прямое решение задач
▪ Прямое создание контента
▪ Совместное решение задач
▪ Совместное создание контента
▪ Фокус на задачах высокого уровня мышления
Студенты используют Claude не просто как справочник, а для глубокого анализа и генерации — от написания кода до разбора сложных понятий. Это вызывает вопросы: не перекладывают ли они развитие критического мышления на ИИ?
💻 Где Claude помогает чаще всего:
▪ Создание и улучшение учебных материалов (39,3%)
(эссе, резюме лекций, тесты, шпаргалки)
▪ Решение и объяснение технических заданий (33,5%)
(код, алгоритмы, математика)
▪ Анализ и визуализация данных (11%)
▪ Исследовательский дизайн и разработка инструментов (6,5%)
▪ Создание технических диаграмм (3,2%)
▪ Перевод и вычитка текстов (2,4%)
📌 Читать полностью
#Claude #Anthropic
Anthropic только что опубликовала исследование об использовании их ИИ-ассистента Claude студентами университетов.
📊 Основные инсайты:
▪ Доминируют студенты STEM-направлений (естественные и точные науки)
Студенты технических и естественнонаучных специальностей — самые активные пользователи Claude. Особенно — компьютерные науки: они составляют 36,8% пользователей, при том что таких студентов всего 5,4%.
▪ Выделено 4 стиля взаимодействия с ИИ:
▪ Прямое решение задач
▪ Прямое создание контента
▪ Совместное решение задач
▪ Совместное создание контента
▪ Фокус на задачах высокого уровня мышления
Студенты используют Claude не просто как справочник, а для глубокого анализа и генерации — от написания кода до разбора сложных понятий. Это вызывает вопросы: не перекладывают ли они развитие критического мышления на ИИ?
💻 Где Claude помогает чаще всего:
▪ Создание и улучшение учебных материалов (39,3%)
(эссе, резюме лекций, тесты, шпаргалки)
▪ Решение и объяснение технических заданий (33,5%)
(код, алгоритмы, математика)
▪ Анализ и визуализация данных (11%)
▪ Исследовательский дизайн и разработка инструментов (6,5%)
▪ Создание технических диаграмм (3,2%)
▪ Перевод и вычитка текстов (2,4%)
📌 Читать полностью
#Claude #Anthropic
Deep Cogito выпустила семейство языковых моделей размером 3B, 8B, 14B, 32B и 70B параметров, которые уже доступны для загрузки.
По заявлению разработчиков, их модели превосходят аналогичные открытые решения от LLaMA, DeepSeek и Qwen в большинстве стандартных бенчмарков. Например, 70B-версия обходит новую 109B MoE-модель Llama 4, несмотря на меньший размер.
Все модели обучены с помощью метода Iterated Distillation and Amplification (IDA) — стратегии, которая сочетает итеративное самоулучшение и «сжатие» интеллекта для преодоления ограничений, накладываемых человеческим контролем.
Суть IDA проста: сначала модель «усиливает» свои способности, тратя больше вычислительных ресурсов на поиск решений через CoT, а затем «дистиллирует» эти улучшения в свои параметры. Такой цикл повторяется, создавая петлю обратной связи — каждая итерация делает модель умнее, а её мышление эффективнее. По словам команды, этот подход не только масштабируем, но и быстрее, чем RLHF.
Семейство поддерживает 2 режима работы: стандартный (прямой ответ) и «рефлексивный», где система сначала обдумывает запрос, как это реализовано в Claude 3.7. Они оптимизированы для программирования, вызова функций и агентских сценариев, но без акцента на CoT — разработчики считают, что короткие шаги эффективнее в реальных задачах.
Уже в ближайшие месяцы ожидаются версии на 109B, 400B и 671B параметров и вариации с MoE-архитектурой.
Модели доступны на Hugging Face, Ollama и через API Fireworks AI/Together AI.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Moonshot AI опубликовала веса Kimi-VL — открытой VLM, которая объединяет обработку текста, изображений и видео. Благодаря архитектуре MoE модель активирует всего 2.8 млрд. параметров в языковом декодере, обеспечивая скорость, сопоставимую с компактными аналогами, и результативность флагманских решений.
Главное преимущество Kimi-VL — способность анализировать длинные контексты до 128 тыс. токенов, что делает её идеальной для работы с объемными документами, длинными видео или сложными мультимедийными задачами.
Основу модели составляет визуальный энкодер MoonViT, оптимизированный для нативной обработки изображений любого разрешения без необходимости разбивать их на части. Это позволяет точно распознавать текст, графики или UI-интерфейсы даже в высокодетализированных скриншотах.
Например, на бенчмарке InfoVQA модель показывает точность 83.2%, обходя даже GPT-4o. В задачах OCR Kimi-VL достигает 86.7% на OCRBench, что ставит её в ряд лучших в индустрии.
Разработчики также представили Kimi-VL-Thinking — версию с расширенными возможностями CoT. Благодаря использованным RL и длительному CoT-тюнингу она демонстрирует впечатляющие результаты в математических и академических задачах: на MathVista точность составила 71.3%, а на MMMU — до 61.7%, что лучше, чем у Gemma-3-12B-IT.
В тестах Kimi-VL превосходит конкурентов в работе с агентами: на OSWorld её результат 8.22% выше, чем у GPT-4o (5.03%), а на WindowsAgentArena — 10.4%. Для длинных видео модель набирает 64.5% на LongVideoBench, подтверждая способность анализировать часовые записи без потери ключевых деталей.
Модели доступны на Hugging Face в двух вариантах:
@ai_machinelearning_big_data
#AI #ML #VLM #KimiAI #MoonShotAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
• Помнит все интересы и стиль общения пользователя
• Подстраивается под цели: учёба, код, тексты, советы
• Работает незаметно, но помогает как будто «знает пользователя давно»
Это новый уровень взаимодействия с ИИ — теперь он не просто отвечает, а действительно работает как личный ассистент.
Улучшенная память в ChatGPT доступна с сегодняшнего дня всем пользователям Plus и Pro, за исключением Великобритании, Швейцарии, Норвегии, Исландии и Лихтенштейна.
Пользователи Team, Enterprise и Edu получат доступ через несколько недель.
🔐 Контроль за памятью — полностью у пользователя
- Вы можете отключить использование памяти в любое время в настройках.
- Если память у вас уже отключена — ИИ не будет использовать старые чаты.
- Хотите изменить то, что он о вас помнит? Просто напишите об этом в чат.
- Хотите поговорить без памяти? Используйте временный чат (temporary chat) — ничего не сохраняется и не используется 👌
https://x.com/OpenAI/status/1910378768172212636
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Forbes выпустил ежегодный рейтинг AI 50, составленный в сотрудничестве с Sequoia и Meritech Capital, который показал смещение акцента среди ИИ-стартапов с разработки моделей на создание практических приложений. Новички списка:, Anysphere (Cursor) и Speak (обучение английскому и испанскому с аудиторией 10 млн пользователей).
Лидеры прежние: OpenAI и Anthropic. Впервые в список попали xAI и проект Миры Мурати Thinking Maсhine. В этом году было подано 1860 заявок, а суммарное финансирование участников составило 142,45 млрд. долл.
forbes.com
На TED2025 в Ванкувере глава подразделения Android X продемонстрировал прототип умных очков от Google. Устройство получило функции перевода в реальном времени, распознавание изображений и интеграцию с Gemini.
Параллельно Samsung представила свой X-rеality шлем с акцентом на многозадачность. Оба проекта развиваются в рамках Android XR, но детали их релиза и даты выхода остаются неизвестными.
9to5google.com
QodoAI выпустила обновление для своего инструмента проверки кода Qodo Merge, интегрировав технологию RAG. Это позволит разработчикам анализировать код в контексте всей базы проекта, ускоряя ревью и упрощая коммуникацию по правкам.
RAG даёт ИИ доступ к полной истории и зависимостям кода - теперь система может автоматически предлагать исправления, ссылаясь на ранее написанные модули.
bito.ai
Adobe анонсировала разработку ИИ-агентов для Photoshop и Premiere Pro, которые упростят рутинные задачи в редакторах. Например, ИИ может автоматически убрать людей с фона или настроить глубину резкости — пользователю достаточно кликнуть по подсказке.
Для Premiere Pro агенты помогут создавать черновые монтажи, корректировать цвет и звук, опираясь на функцию Media Intelligence, которая распознаёт объекты в видео. При этом ИИ не заменяет креативность, а ускоряет работу: система обучаема, а пользователи смогут давать команды на естественном языке.
Презентация технологии для Photoshop состоится 24 апреля на мероприятии Max в Лондоне.
blog.adobe.com
SentinelLabs обнаружили, что спамеры используют модели OpenAI для массовой рассылки сообщений, обходящих стандартные фильтры. Бот AkiraBot генерировал уникальный контент через API ChatGPT (модель gpt-4o-mini), подставляя в шаблон название целевого сайта. Это делало каждое сообщение «персонализированным», усложняя его блокировку.
Вместо шаблонных фраз AkiraBot создавал описания услуг под конкретный ресурс, имитируя ручную работу. По данным логов, с сентября 2024 по январь 2025 года бот успешно отправил сообщения на 80 000 доменов, тогда как 11 000 попыток завершились ошибкой.
OpenAI подтвердила, что подобное использование ChatGPT нарушает её политику, и поблагодарила экспертов за информацию.
arstechnica.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM