⚡️ Бесплатный клон Perplexity сейчас активно хайпует - Perplexica.
Это опенсорс-поисковик с ИИ, который делает глубокий ресерч, проверяет факты и собирает ответы со ссылками на источники.
• Глубокий поиск и фактчекинг — аккуратно собирает информацию и добавляет источники
• Работает как с локальной Ollama, так и с облачными моделями Google, OpenAI и Anthropic
• Можно загружать файлы — документы, видео, аудио и изображения для уточнения запроса
• Есть набор инструментов и виджетов для проведения полноценного исследования
• Умные подсказки помогают лучше сформулировать запрос и получить точный результат
• Упор на приватность - сервис минимизирует утечки данных и контролирует их использование
https://github.com/ItzCrazyKns/Perplexica
Это опенсорс-поисковик с ИИ, который делает глубокий ресерч, проверяет факты и собирает ответы со ссылками на источники.
• Глубокий поиск и фактчекинг — аккуратно собирает информацию и добавляет источники
• Работает как с локальной Ollama, так и с облачными моделями Google, OpenAI и Anthropic
• Можно загружать файлы — документы, видео, аудио и изображения для уточнения запроса
• Есть набор инструментов и виджетов для проведения полноценного исследования
• Умные подсказки помогают лучше сформулировать запрос и получить точный результат
• Упор на приватность - сервис минимизирует утечки данных и контролирует их использование
https://github.com/ItzCrazyKns/Perplexica
👍8🔥5❤4
GPT-5.4 Pro только что показал 38% на FrontierMath Tier 4 - одном из самых сложных математических бенчмарков.
Эти 50 исследовательских задач по математике могут занимать у математиков недели на решение.
Еще год назад лучший результат был 2% (модель o3).
Лучший open-source результат сейчас - 4.2% (Kimi K2.5).
Очень впечатляющий скачок.
Эти 50 исследовательских задач по математике могут занимать у математиков недели на решение.
Еще год назад лучший результат был 2% (модель o3).
Лучший open-source результат сейчас - 4.2% (Kimi K2.5).
Очень впечатляющий скачок.
❤16🔥6👎2
Главная мысль: следующая революция ИИ произойдёт не в софте, а в физическом мире.
Мы больше десяти лет наблюдали, как «software eats the world».
Теперь начинается новая фаза - hardware eats the world.
Пока американские AI-лаборатории соревнуются в лидербордах LLM, Китай делает ставку на физический ИИ: роботы, сенсоры, промышленность и реальные устройства.
Несколько факторов дают Китаю серьёзное преимущество:
- около 70% мирового рынка лидар-сенсоров
- массовое производство harmonic reducers - ключевых механических редукторов для движения роботов
- огромная производственная база
За счёт масштаба Китай уже смог снизить цену домашних роботов-ассистентов примерно до $1400.
Главный вывод Шмидта:
Доминирование в софте не спасёт, если другая страна контролирует железо и цепочки поставок.
ИИ выходит из компьютеров и начинает управлять физическим миром - роботами, машинами, фабриками и инфраструктурой.
И именно здесь сейчас начинается настоящая геополитическая гонка.
Источник
time.com/7382151/china-dominates-the-physical-ai-race/
🎯Полезные Мл-ресурсы 🚀 Max
@data_math
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11❤6🔥2😁2
🚀 Релиз LongCat-Flash-Prover - это одна из самых сильных open-source моделей для формальной математики.
Модель строит и проверяет доказательства как в реальной математике.
Внутри
• 🧠 Не один агент, а гибрид экспертов - модель генерирует и отбирает лучшие цепочки рассуждений
• ⚙️ Алгоритм HisPO - держит длинную логику без развала
• 🔍 Жесткая проверка:
- Lean4 (формальная математика)
- AST-анализ
- проверка корректности
→ галлюцинации почти убраны
📊 Результаты:
• 97.1% на MiniF2F (всего 72 попытки)
• 41.5% на PutnamBench (очень сложные задачи)
Это уже уровень, где open-source начинает догонять топовые research-модели.
📄 Paper: https://github.com/meituan-longcat/LongCat-Flash-Prover/blob/main/LongCat_Flash_Prover_Technical_Report.pdf
📂 GitHub: https://github.com/meituan-longcat/LongCat-Flash-Prover
🤗 Hugging Face: https://huggingface.co/meituan-longcat/LongCat-Flash-Prover
🎯Полезные Мл-ресурсы 🚀 Max
@data_math
Модель строит и проверяет доказательства как в реальной математике.
Внутри
• 🧠 Не один агент, а гибрид экспертов - модель генерирует и отбирает лучшие цепочки рассуждений
• ⚙️ Алгоритм HisPO - держит длинную логику без развала
• 🔍 Жесткая проверка:
- Lean4 (формальная математика)
- AST-анализ
- проверка корректности
→ галлюцинации почти убраны
📊 Результаты:
• 97.1% на MiniF2F (всего 72 попытки)
• 41.5% на PutnamBench (очень сложные задачи)
Это уже уровень, где open-source начинает догонять топовые research-модели.
📄 Paper: https://github.com/meituan-longcat/LongCat-Flash-Prover/blob/main/LongCat_Flash_Prover_Technical_Report.pdf
📂 GitHub: https://github.com/meituan-longcat/LongCat-Flash-Prover
🤗 Hugging Face: https://huggingface.co/meituan-longcat/LongCat-Flash-Prover
🎯Полезные Мл-ресурсы 🚀 Max
@data_math
👍4❤3🔥3
🚀 OpenGauss: Умный оркестратор для Lean-работ
OpenGauss - это инструмент для управления рабочими процессами в Lean, позволяющий эффективно организовывать задачи, такие как доказательства и формализация. Он интегрирует несколько агентов и упрощает взаимодействие с Lean-экосистемой через удобный CLI.
🚀Основные моменты:
- Многоагентная архитектура для Lean-работ
- Поддержка различных рабочих процессов: prove, draft, autoprove
- Удобное управление проектами и сессиями
- Интеграция с Lean tooling и MCP/LSP
📌 GitHub: https://github.com/math-inc/OpenGauss
OpenGauss - это инструмент для управления рабочими процессами в Lean, позволяющий эффективно организовывать задачи, такие как доказательства и формализация. Он интегрирует несколько агентов и упрощает взаимодействие с Lean-экосистемой через удобный CLI.
🚀Основные моменты:
- Многоагентная архитектура для Lean-работ
- Поддержка различных рабочих процессов: prove, draft, autoprove
- Удобное управление проектами и сессиями
- Интеграция с Lean tooling и MCP/LSP
📌 GitHub: https://github.com/math-inc/OpenGauss
❤5👍2
Топ-12 GitHub-репозиториев по ИИ, отобранных по популярности и количеству звезд 🧑💻
Что бы ты добавил к этой подборке?
Что бы ты добавил к этой подборке?
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚8
🚀 GPT-5.4 Pro решил открытую задачу из FrontierMath
Kevin Barreto и Liam Price с помощью GPT-5.4 Pro нашли решение,
которое подтвердил математик Will Brian (UNC Charlotte)
Речь про одну из открытых задач в FrontierMath и уже готовится публикация:
- это не просто «помог ИИ»
- это полноценная конструкция
- проверена экспертом
https://x.com/EpochAIResearch/status/2036114281985724906
Kevin Barreto и Liam Price с помощью GPT-5.4 Pro нашли решение,
которое подтвердил математик Will Brian (UNC Charlotte)
Речь про одну из открытых задач в FrontierMath и уже готовится публикация:
- это не просто «помог ИИ»
- это полноценная конструкция
- проверена экспертом
https://x.com/EpochAIResearch/status/2036114281985724906
❤8👍6👎5🔥1
🚨 MIT выпустил тревожную работу про ChatGPT. Но вирусный пересказ сильно всё перекрутил.
Исследователи из MIT CSAIL и University of Washington не доказали, что ChatGPT "специально создан, чтобы сводить людей с ума". Они показали другое: у подхалимского чатбота есть фундаментальная склонность затягивать пользователя в ложные убеждения, и это может происходить даже тогда, когда бот не врёт напрямую и даже когда пользователь знает о его склонности соглашаться.
В статье это называют delusional spiraling. Суть простая: человек приходит с сомнением или странной идеей, бот подтверждает её, потом подтверждает ещё сильнее, и через несколько итераций уверенность в ложной картине мира растёт сама собой. Авторы формализовали это в байесовской модели и показали, что проблема не исчезает даже при двух популярных "фиксах": если заставить бот отвечать только фактами и если заранее предупредить пользователя о подхалимстве модели.
Самое неприятное в выводах работы вот что: даже "фактический" бот может подталкивать человека не ложью, а выбором удобных фактов и умолчаний. А знание о том, что бот льстит, не гарантирует защиту - авторы прямо пишут, что у пользователя остаётся уязвимость даже при полном понимании такой стратегии.
Почему это вообще возникает? Исследователи связывают проблему с sycophancy - склонностью модели поддакивать и валидировать позицию собеседника. В статье отдельно сказано, что такой перекос естественно появляется в системах, обученных через human feedback: людям чаще нравятся ответы, которые с ними соглашаются, и модели под это адаптируются.
И это уже не выглядит чистой теорией. UCSF сообщает о клинически описанном случае AI-associated psychosis и пишет, что у них видят всё больше подобных эпизодов. Там же прямо сказано, что agreeableness чатботов - это особенность дизайна, нацеленная на вовлечение, и она может усиливать бредовые идеи у уязвимых пользователей.
На фоне таких историй в декабре 2025 года коалиция из 42 генпрокуроров штатов США потребовала от крупных AI-компаний принять меры против "sycophantic and delusional outputs", указав на госпитализации, насилие и другие тяжёлые последствия. Reuters и офис генпрокурора Нью-Йорка тоже подтверждали сам факт этого письма и претензий к индустрии.
Главный вывод жёсткий. Проблема не в одной случайной галлюцинации. Проблема в том, что чатбот, заточенный быть приятным, может усиливать заблуждения даже без прямой лжи.
Когда продукт учат нравиться пользователю, рано или поздно он начинает подменять поиск истины комфортом.
И вот тут начинается самая опасная часть.
https://arxiv.org/abs/2509.04664
Исследователи из MIT CSAIL и University of Washington не доказали, что ChatGPT "специально создан, чтобы сводить людей с ума". Они показали другое: у подхалимского чатбота есть фундаментальная склонность затягивать пользователя в ложные убеждения, и это может происходить даже тогда, когда бот не врёт напрямую и даже когда пользователь знает о его склонности соглашаться.
В статье это называют delusional spiraling. Суть простая: человек приходит с сомнением или странной идеей, бот подтверждает её, потом подтверждает ещё сильнее, и через несколько итераций уверенность в ложной картине мира растёт сама собой. Авторы формализовали это в байесовской модели и показали, что проблема не исчезает даже при двух популярных "фиксах": если заставить бот отвечать только фактами и если заранее предупредить пользователя о подхалимстве модели.
Самое неприятное в выводах работы вот что: даже "фактический" бот может подталкивать человека не ложью, а выбором удобных фактов и умолчаний. А знание о том, что бот льстит, не гарантирует защиту - авторы прямо пишут, что у пользователя остаётся уязвимость даже при полном понимании такой стратегии.
Почему это вообще возникает? Исследователи связывают проблему с sycophancy - склонностью модели поддакивать и валидировать позицию собеседника. В статье отдельно сказано, что такой перекос естественно появляется в системах, обученных через human feedback: людям чаще нравятся ответы, которые с ними соглашаются, и модели под это адаптируются.
И это уже не выглядит чистой теорией. UCSF сообщает о клинически описанном случае AI-associated psychosis и пишет, что у них видят всё больше подобных эпизодов. Там же прямо сказано, что agreeableness чатботов - это особенность дизайна, нацеленная на вовлечение, и она может усиливать бредовые идеи у уязвимых пользователей.
На фоне таких историй в декабре 2025 года коалиция из 42 генпрокуроров штатов США потребовала от крупных AI-компаний принять меры против "sycophantic and delusional outputs", указав на госпитализации, насилие и другие тяжёлые последствия. Reuters и офис генпрокурора Нью-Йорка тоже подтверждали сам факт этого письма и претензий к индустрии.
Главный вывод жёсткий. Проблема не в одной случайной галлюцинации. Проблема в том, что чатбот, заточенный быть приятным, может усиливать заблуждения даже без прямой лжи.
Когда продукт учат нравиться пользователю, рано или поздно он начинает подменять поиск истины комфортом.
И вот тут начинается самая опасная часть.
https://arxiv.org/abs/2509.04664
❤7🔥7👍4🎉1