OpenAI свернула детектор ИИ-текстов из-за низкой точности
OpenAI тихо закрыла проект по распознаванию машинного текста. Запущенный в январе 2023 классификатор правильно определял ИИ-контент только в 26% случаев.
Ещё хуже - инструмент регулярно помечал человеческие тексты как машинные. Для студентов, журналистов и профессионалов это означало реальные проблемы.
Компания признала - улучшить точность статистическими методами не получается. Теперь ставка на цифровые подписи и встроенные маркеры вместо анализа стиля.
Проблема в том, что модели становятся всё более человечными. Даже эксперты проваливают слепые тесты. И если создатели ChatGPT не могут распознать свой же текст, как это сделают регуляторы?
ЕС и FTC строят законы про прозрачность ИИ, но инструментов для проверки просто нет. Школы, редакции, платформы - все столкнулись с одной реальностью: технология обгоняет способы её контролировать.
#OpenAI #Detection #Watermarking
------
@tsingular
OpenAI тихо закрыла проект по распознаванию машинного текста. Запущенный в январе 2023 классификатор правильно определял ИИ-контент только в 26% случаев.
Ещё хуже - инструмент регулярно помечал человеческие тексты как машинные. Для студентов, журналистов и профессионалов это означало реальные проблемы.
Компания признала - улучшить точность статистическими методами не получается. Теперь ставка на цифровые подписи и встроенные маркеры вместо анализа стиля.
Проблема в том, что модели становятся всё более человечными. Даже эксперты проваливают слепые тесты. И если создатели ChatGPT не могут распознать свой же текст, как это сделают регуляторы?
ЕС и FTC строят законы про прозрачность ИИ, но инструментов для проверки просто нет. Школы, редакции, платформы - все столкнулись с одной реальностью: технология обгоняет способы её контролировать.
#OpenAI #Detection #Watermarking
------
@tsingular
✍9🔥4⚡3❤2💯1 1
Такие мультики можно и перезапускать.
Отличная идея от DJ Блокnote
#нейрорендер #мультики
------
@tsingular
Отличная идея от DJ Блокnote
#нейрорендер #мультики
------
@tsingular
🔥44👍14🤔3💯2⚡1🆒1
This media is not supported in your browser
VIEW IN TELEGRAM
Китайцы сделали помощника родителям, который следит чтобы ребёнок не отвлекался во время домашки.
Интересно какие эффекты от такого надзора будут когда они вырастут? 🤔
#Китай #дети #надзор
------
@tsingular
Интересно какие эффекты от такого надзора будут когда они вырастут? 🤔
#Китай #дети #надзор
------
@tsingular
n8n 2.0: автосохранение и новый интерфейс
n8n выкатывает версию 2.0 — бета 8 декабря, релиз 15-го.
Что добавили:
- Автосохранение (наконец-то)
- Обновленный канвас и сайдбар
- Улучшения безопасности и производительности
Но в комментах недовольство — пользователи жалуются, что воркфлоу с LLM и агентами рушатся при обработке больше 1000 элементов. Просят фиксить архитектуру, а не полировать интерфейс.
Еще запросы: встроенная обработка файлов без внешних сервисов и прямой доступ к моделям через API, как в Cursor.
Убрали бы лимиты с self-hosted, не пришлось бы свою писать. 😀
#n8n
------
@tsingular
n8n выкатывает версию 2.0 — бета 8 декабря, релиз 15-го.
Что добавили:
- Автосохранение (наконец-то)
- Обновленный канвас и сайдбар
- Улучшения безопасности и производительности
Но в комментах недовольство — пользователи жалуются, что воркфлоу с LLM и агентами рушатся при обработке больше 1000 элементов. Просят фиксить архитектуру, а не полировать интерфейс.
Еще запросы: встроенная обработка файлов без внешних сервисов и прямой доступ к моделям через API, как в Cursor.
Убрали бы лимиты с self-hosted, не пришлось бы свою писать. 😀
#n8n
------
@tsingular
❤🔥6⚡5✍2🔥1🆒1
🚀 DR Tulu: Прорыв в открытых моделях для глубоких исследований (Deep Research)
Allen Institute for AI (Ai2) представил DR Tulu-8B - открытую модель, специально обученную для задач «глубокого исследования» (Deep Research).
Это класс задач, где ИИ должен не просто ответить на вопрос, а провести многошаговый поиск, синтезировать информацию из множества источников и написать подробный отчет с цитатами.
💡 Главная инновация: RLER
Большинство открытых моделей обучаются на коротких ответах (Factoid QA) и плохо справляются с написанием длинных отчетов.
Чтобы решить эту проблему, авторы разработали новый метод обучения — Reinforcement Learning with Evolving Rubrics (RLER).
Как это работает: Вместо статических критериев оценки, система создает динамические рубрики, которые эволюционируют вместе с моделью в процессе обучения.
Самосовершенствование: Система анализирует текущие ответы модели, находит в них слабые места и генерирует новые критерии («рубрики») для оценки следующих итераций.
Проверка фактов: Эти рубрики основаны на реальных данных из поисковой выдачи, что заставляет модель придерживаться фактов, и не галлюцинировать.
📊 Результаты и производительность
Несмотря на скромный размер (8 миллиардов параметров), DR Tulu показывает впечатляющие результаты:
Качество: DR Tulu-8B значительно превосходит существующие открытые модели (включая более крупные, например, Tongyi Deep Research 30B) и конкурирует с проприетарными системами уровня GPT-5 + Search и Gemini 3 Pro на задачах написания научных отчетов.
Экономия: Это самая экономически эффективная модель на рынке. Стоимость одного запроса в DR Tulu составляет около $0.0019, в то время как аналогичный запрос в OpenAI Deep Research стоит около $1.8. Это разница почти в 3 порядка (в 1000 раз дешевле).
Точность цитирования: Модель обучена давать точные ссылки на источники (snippets), подтверждающие каждое утверждение, что критически важно для научных или медицинских работы.
🛠 Доступность (Open Source) всех компонентов:
- Веса модели DR Tulu-8B.
- Код для обучения и инференса.
- Датасеты.
- Инфраструктуру для агентов (библиотека dr-agent-lib на базе протокола MCP).
Итог: DR Tulu доказывает, что небольшие, но специализированные модели с правильным методом обучения (RLER) могут превзойти гигантов в сложных задачах, требующих синтеза информации и работы с источниками.
🔗 Ссылки:
Блог: allenai.org/blog/dr-tulu
Код: github.com/rlresearch/dr-tulu
Модели: huggingface.co/collections/rl-research/dr-tulu
Инструкция как запустить локально
#Tulu #DeepResearch
———
@tsingular
Allen Institute for AI (Ai2) представил DR Tulu-8B - открытую модель, специально обученную для задач «глубокого исследования» (Deep Research).
Это класс задач, где ИИ должен не просто ответить на вопрос, а провести многошаговый поиск, синтезировать информацию из множества источников и написать подробный отчет с цитатами.
💡 Главная инновация: RLER
Большинство открытых моделей обучаются на коротких ответах (Factoid QA) и плохо справляются с написанием длинных отчетов.
Чтобы решить эту проблему, авторы разработали новый метод обучения — Reinforcement Learning with Evolving Rubrics (RLER).
Как это работает: Вместо статических критериев оценки, система создает динамические рубрики, которые эволюционируют вместе с моделью в процессе обучения.
Самосовершенствование: Система анализирует текущие ответы модели, находит в них слабые места и генерирует новые критерии («рубрики») для оценки следующих итераций.
Проверка фактов: Эти рубрики основаны на реальных данных из поисковой выдачи, что заставляет модель придерживаться фактов, и не галлюцинировать.
📊 Результаты и производительность
Несмотря на скромный размер (8 миллиардов параметров), DR Tulu показывает впечатляющие результаты:
Качество: DR Tulu-8B значительно превосходит существующие открытые модели (включая более крупные, например, Tongyi Deep Research 30B) и конкурирует с проприетарными системами уровня GPT-5 + Search и Gemini 3 Pro на задачах написания научных отчетов.
Экономия: Это самая экономически эффективная модель на рынке. Стоимость одного запроса в DR Tulu составляет около $0.0019, в то время как аналогичный запрос в OpenAI Deep Research стоит около $1.8. Это разница почти в 3 порядка (в 1000 раз дешевле).
Точность цитирования: Модель обучена давать точные ссылки на источники (snippets), подтверждающие каждое утверждение, что критически важно для научных или медицинских работы.
🛠 Доступность (Open Source) всех компонентов:
- Веса модели DR Tulu-8B.
- Код для обучения и инференса.
- Датасеты.
- Инфраструктуру для агентов (библиотека dr-agent-lib на базе протокола MCP).
Итог: DR Tulu доказывает, что небольшие, но специализированные модели с правильным методом обучения (RLER) могут превзойти гигантов в сложных задачах, требующих синтеза информации и работы с источниками.
🔗 Ссылки:
Блог: allenai.org/blog/dr-tulu
Код: github.com/rlresearch/dr-tulu
Модели: huggingface.co/collections/rl-research/dr-tulu
Инструкция как запустить локально
#Tulu #DeepResearch
———
@tsingular
⚡10🔥7🆒3❤1
🏛 ИИ-система для оценки законопроектов Конгресса США
Разработчик создал открытую систему, которая сканирует законодательную базу США и автоматически выставляет оценки всем законопроектам американского Конгресса.
Как работает:
- AI читает полный текст законопроекта
- Оценивает влияние по 17 категориям (от -100 до +100): экономика, здравоохранение, экология, образование и т.д.
- Агрегирует оценки в итоговый балл законодателя (как средний балл студента)
Интересный проект, как для законотворчества, так и для оценки работы законодателей.
GitHub
#USA #poliscore #законы
———
@tsingular
Разработчик создал открытую систему, которая сканирует законодательную базу США и автоматически выставляет оценки всем законопроектам американского Конгресса.
Как работает:
- AI читает полный текст законопроекта
- Оценивает влияние по 17 категориям (от -100 до +100): экономика, здравоохранение, экология, образование и т.д.
- Агрегирует оценки в итоговый балл законодателя (как средний балл студента)
Интересный проект, как для законотворчества, так и для оценки работы законодателей.
GitHub
#USA #poliscore #законы
———
@tsingular
❤10👍7🔥2👏1
Microsoft и NVIDIA разогнали защиту от ИИ-атак в 160 раз
Совместная работа Microsoft NEXT.ai и NVIDIA позволила запустить adversarial learning в реальном времени.
Проблема была в латентности: трансформеры на CPU выдавали 1239 мс задержки и жалкие 0.81 запроса в секунду. Для финансовых систем или e-commerce это провал.
Переход на H100 с кастомными CUDA-ядрами и доменным токенизатором для киберданных снизил задержку до 7.67 мс при >130 req/s.
Точность обнаружения атак — >95% на бенчмарках.
Абе Староста из Microsoft: "Adversarial learning работает в проде только когда латентность, throughput и точность двигаются вместе."
Теперь системы могут учиться и адаптироваться к мутирующим атакам без участия человека — автономная защита становится реальностью.
#Microsoft #NVIDIA #cybersecurity
------
@tsingular
Совместная работа Microsoft NEXT.ai и NVIDIA позволила запустить adversarial learning в реальном времени.
Проблема была в латентности: трансформеры на CPU выдавали 1239 мс задержки и жалкие 0.81 запроса в секунду. Для финансовых систем или e-commerce это провал.
Переход на H100 с кастомными CUDA-ядрами и доменным токенизатором для киберданных снизил задержку до 7.67 мс при >130 req/s.
Точность обнаружения атак — >95% на бенчмарках.
Абе Староста из Microsoft: "Adversarial learning работает в проде только когда латентность, throughput и точность двигаются вместе."
Теперь системы могут учиться и адаптироваться к мутирующим атакам без участия человека — автономная защита становится реальностью.
#Microsoft #NVIDIA #cybersecurity
------
@tsingular
🔥8✍3⚡1
AWS референс по сборке HyperPod с MIG для нарезки GPU
В нашей любимой рубрике "полезняшки от AWS" сегодня режем GPU.
Amazon добавил в HyperPod технологию Multi-Instance GPU от NVIDIA — теперь одну видеокарту можно разделить на несколько изолированных частей.
Работает в Kubernetes и управляется либо лейблами вручную, либо автоматом на уровне групп инстансов
По идее это должно помочь в сценариях, когда задачи не используют всю мощь GPU целиком — инференс небольших моделей, прототипирование, ноутбуки для экспериментов.
Например, H200 можно порезать на 3 куска по 18GB и один на 71GB. Каждый работает независимо — своя память, кеш, вычислительные ядра.
#HyperPod #MIG #AWS #Kubernetes
———
@tsingular
В нашей любимой рубрике "полезняшки от AWS" сегодня режем GPU.
Amazon добавил в HyperPod технологию Multi-Instance GPU от NVIDIA — теперь одну видеокарту можно разделить на несколько изолированных частей.
Работает в Kubernetes и управляется либо лейблами вручную, либо автоматом на уровне групп инстансов
По идее это должно помочь в сценариях, когда задачи не используют всю мощь GPU целиком — инференс небольших моделей, прототипирование, ноутбуки для экспериментов.
Например, H200 можно порезать на 3 куска по 18GB и один на 71GB. Каждый работает независимо — своя память, кеш, вычислительные ядра.
#HyperPod #MIG #AWS #Kubernetes
———
@tsingular
🔥7✍4👍3
Forwarded from GigaChat
УЖЕ ЧЕРЕЗ ДВА ЧАСА ГИГАЧАТ ПОЛЕТИТ В КОСМОС
На космодроме Байконур стоит космическая ракета. Заканчиваются последние приготовления. Старт через два часа. И на борту будет не только экипаж Роскосмоса!
На МКС летит программно-аппаратный комплекс с нейросетью ГигаЧат. В рамках эксперимента искусственный интеллект станет помощником космонавтов и будет помогать им вести дневники и готовить отчеты.
Следите за подготовкой к полёту в прямом эфире
😎 Пш-пш-пш, ГигаЧат на исходной позиции
На космодроме Байконур стоит космическая ракета. Заканчиваются последние приготовления. Старт через два часа. И на борту будет не только экипаж Роскосмоса!
На МКС летит программно-аппаратный комплекс с нейросетью ГигаЧат. В рамках эксперимента искусственный интеллект станет помощником космонавтов и будет помогать им вести дневники и готовить отчеты.
Следите за подготовкой к полёту в прямом эфире
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14👾6❤5
Forwarded from Анализ данных (Data analysis)
Это подробный гайд по математическому фундаменту, необходимому для понимания работы алгоритмов «под капотом». Материал полезен тем, кто хочет углубиться в теорию дальше вызова
.fit() в scikit-learn.Ключевые поинты:
* Структура: Roadmap базируется на трех дисциплинах:
1. Linear Algebra: Язык описания данных и моделей (векторы, матрицы, тензоры).
2. Calculus: Инструментарий для обучения и оптимизации (производные, градиенты).
3. Probability Theory: Фреймворк для оценки неопределенности.
Подход: Автор делает упор на интуицию, а не на заучивание формул.
Гайд связывает абстрактную математику с конкретными ML-задачами - от понимания того, как работает Backpropagation и SGD, до причин взрыва градиентов и выбора функции потерь.
🔗 Читать полную версию: https://thepalindrome.org/p/the-roadmap-of-mathematics-for-machine-learning
🔗 Мат база на русском: https://stepik.org/course/226596/info
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
✍4👍3
Битрикс24 выпустил коллекцию MCP серверов для интеграции внешних сервисов.
#Битрикс24 #MCP
------
@tsingular
#Битрикс24 #MCP
------
@tsingular
👏10🔥6⚡2