Математика Дата саентиста
14.1K subscribers
479 photos
179 videos
41 files
414 links
Download Telegram
DeepSeek снова в игре 🔥

"Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models"

Идея мощная: DeepSeek предлагают Engram - модуль памяти, который добавляет к LLM *lookup-память* с доступом за O(1).

Что это значит по-человечески:
вместо того чтобы каждый раз “вспоминать” шаблоны через слои трансформера, модель может моментально доставать нужные куски знаний из отдельной памяти.

Engram - это:
- хешированная N-gram память (modernized hashed N-gram embeddings)
- которая работает как быстрый словарь: *пришёл паттерн → достали представление → усилили модель*

Анализ показывает интересное:

🧠 Engram снижает необходимость ранним слоям заново реконструировать “статичные паттерны”
(частые формы, устойчивые токены, регулярные последовательности)

➡️ То есть ранние слои (слои трансформера, которые стоят ближе всего ко входу.) меньше заняты “механической работой”и больше ресурсов остаётся на главное.

В результате модель становится как будто глубже там, где надо:
- reasoning
- планирование
- длинные цепочки мыслей

Фактически это новый тип sparsity:
не только MoE/спарсные слои,
а спарсная память с быстрым доступом.


Это уже похоже на шаг к LLM, где часть знаний живёт как “кэш-память”, а не внутри весов.

Paper: https://github.com/deepseek-ai/Engram/blob/main/Engram_paper.pdf
Видео: https://www.youtube.com/watch?v=Hoz9HxHy_nQ
👍134🔥2
🧠 Grok 4.20: ИИ нашёл новую Bellman-функцию и продвинул сложную задачу в анализе

По сообщениям, Grok 4.20 смог идентифицировать новую Bellman function, которая помогает продвинуться в одной из “тяжёлых” тем математики - на стыке:

- гармонического анализа
- стохастических процессов
- и поведения случайных средних

Самое интересное - ИИ не просто “угадал ответ”, а предложил явную формулу, основанную на времени выхода броуновского движения (exit time of Brownian motion).

Результат:
- удалось улучшить известную нижнюю оценку
- и приблизить математическое сообщество к более точному пониманию того,
как ведут себя средние значения в стохастических системах

Мы входим в эпоху, где ИИ ускоряет математику не на проценты - а на порядки. ⚡️

https://x.com/PI010101/status/2011560477688463573
14👍8🔥5👎1
🧠 Почти 40 лет прошло… и мы снова спорим о том же. Только теперь - про ИИ.

В 1986 году учителя математики протестовали против калькуляторов.
Боялись, что дети перестанут учить базу и будут просто “жать кнопки”.

И на тот момент это была вполне реальная проблема.

Перематываем в 2026 - и мы видим тот же спор, только уже про AI.

Но есть важная разница:

Калькулятор - просто даёт ответ.

А ИИ способен сделать весь процесс:
- придумать решение
- объяснить шаги
- написать код
- оформить вывод
- предложить варианты

И вот это уже не “удобный инструмент”.
Это смена самой модели обучения и работы.

Калькулятор ускорял вычисления.
ИИ ускоряет мышление и действия.

И именно поэтому спор вокруг него будет намного жестче.
16👍7🔥5🤮2
🧊 pyPFC - Python-библиотека для Phase Field Crystal (PFC) симуляций

Если ты занимаешься моделированием материалов, кристаллов или фазовых переходов - сохрани.
pyPFC позволяет запускать PFC-симуляции быстро и удобно прямо на Python.

Что такое Phase Field Crystal (PFC)?
PFC (Phase Field Crystal) - это метод моделирования, который описывает материал как непрерывное поле плотности.

Проще:
- вместо того чтобы симулировать каждый атом отдельно (как в molecular dynamics)
- PFC моделирует “узор кристаллической решётки” как волну/поле

За счёт этого PFC может моделировать процессы на более длинных временных масштабах, чем классические атомарные симуляции.

PFC используют, чтобы изучать:
- рост кристаллов и формирование структуры
- дефекты решётки (дислокации)
- зернистость и границы зёрен
- фазовые переходы и самоорганизацию
- поведение материалов при охлаждении/нагреве

Что даёт pyPFC:
ускорение на GPU через PyTorch (можно гонять и на CPU, и на RTX)
🧪 готовые 3D-симуляции, примеры, эксперименты
🧩 удобно для исследований и обучения
📦 open-source проект + нормальная инженерная структура

GitHub:
https://github.com/HHallb/pyPFC
👍6🔥5
💼 5 AI-репозиториев, которые реально помогут устроиться на работу в 2026

Сохрани себе - это готовые идеи, которые можно собрать в портфолио и показать на собесе.

1) RAG с нуля (RAG from Scratch)
Поймёшь, как устроены retrieval, embeddings, чанкинг, ранжирование и ответы LLM.
GitHub: https://github.com/langchain-ai/rag-from-scratch

2) AI-агент для соцсетей (Social Media Agent)
Автоматизация контента: генерация постов, планирование, работа с трендами.
GitHub: https://github.com/langchain-ai/social-media-agent

3) Анализ медицинских изображений (Medical Image Analysis)
Компьютерное зрение + реальные кейсы: классификация, сегментация, пайплайны.
GitHub: https://github.com/databricks-industry-solutions/pixels

4) MCP Tool-Calling агенты
Агенты, которые умеют вызывать инструменты и внешние сервисы (LangGraph + MCP).
Notebook: https://docs.databricks.com/aws/en/notebooks/source/generative-ai/langgraph-mcp-tool-calling-agent.html

5) AI-ассистент с памятью (Assistant with Memory)
Персонализация: хранение контекста, long-term memory, улучшение диалогов со временем.
GitHub: https://github.com/Makememo/MemoAI

Если хочешь войти в AI - собирай не “игрушки”, а проекты, которые показывают реальные навыки.
10👍5👎2🔥1
Postgres: best practices для AI-агентов (и почему это важно)

Supabase выпустили Postgres Best Practices - набор правил/“скиллов” для AI coding agents (Claude Code, Cursor, Copilot и т.д.), чтобы они писали не просто рабочий SQL, а нормальный продовый Postgres.

Потому что классическая проблема такая:
агент сгенерит “правильный” запрос, тесты пройдут,
а через 2 недели это превратится в:
- медленные JOIN’ы
- seq scan на миллионы строк
- взрыв коннектов
- блокировки
- RLS, которая внезапно тормозит всё

Что внутри “Postgres Best Practices”
Это структурированный набор правил по 8 темам (от самых критичных к менее критичным):

- Query Performance (Critical) - как писать запросы, чтобы не убивать базу
- Connection Management (Critical) - пулы, лимиты, правильная работа с коннектами
- Schema Design (High) - индексы, типы, ключи, нормальные схемы
- Concurrency & Locking (Medium-High) - как не словить дедлоки и долгие locks
- Security & RLS (Medium-High) - RLS без боли и сюрпризов
- Data Access Patterns (Medium) - как правильно читать/писать данные в приложении
- Monitoring & Diagnostics (Low-Medium) - что мониторить и как дебажить
- Advanced Features (Low) - продвинутые приёмы

Самое полезное:
это не “статья”, а готовый набор инструкций, который агент может автоматически применять, когда он:
- пишет SQL
- проектирует схему
- предлагает индексы
- оптимизирует запросы
- настраивает RLS / connection pooling

То есть агент начинает думать ближе к DBA, а не как генератор SQL.

https://supabase.com/blog/postgres-best-practices-for-ai-agents
🔥86👍3
🧠 UnsolvedMath - 1000+ открытых математических задач как бенчмарк для ИИ

Появился мощный ресурс для оценки настоящего reasoning, а не заученных паттернов.

Выложен датасет UnsolvedMath — это:
- 1000+ открытых математических проблем
- 600+ задач из списка Эрдёша
- аккуратно структурировано в machine-friendly формате

Главная идея — создать бенчмарк, который нельзя “выучить” на этапе тренировки.
Если модель показывает прогресс здесь — это уже не воспроизведение данных, а реальное рассуждение.

Почему это важно

Обычные тесты:
- часто содержат задачи, похожие на обучающие данные
- проверяют знание, а не исследовательское мышление

UnsolvedMath:
- требует построения новых гипотез
- проверяет глубину логики
- показывает, способна ли модель делать научно полезные инсайты

Любые новые идеи или нетривиальные наблюдения по этим задачам — уже метрика силы reasoning-модели.

Сейчас, по заявлениям авторов, лидирует GPT-5.2 с Extended Thinking, с заметным отрывом.
Обещают тесты и подробный whitepaper.

Это шаг к тому, чтобы оценивать ИИ не по “угадай ответ”, а по способности двигать границы знаний.

https://huggingface.co/datasets/ulamai/UnsolvedMath
❤‍🔥118🔥6
🖥 Парсинг на Python - от DOM до асинхронщины. Стань Гуру Парсинга.

Один из лучших курсов по Парсинг на Stepik со скидкой 48%

Освой Python-парсинг так, как это делают в реальных проектах.
Не учебные “игрушки”, а рабочие инструменты для сбора данных с сайтов, API и динамических сервисов.

На курсе ты шаг за шагом пройдешь путь от нуля до уровня, где умеешь стабильно забирать данные, работать с защитами, динамикой и автоматизацией. Без воды - только то, что используют в продакшене.

В итоге ты сможешь не просто “писать на Python”, а решать практические задачи: анализ данных, мониторинг, автоматизация, фриланс-заказы и собственные проекты.

Сегодня можно забрать курс со скидкой 48%: https://stepik.org/a/269942/
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥32
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Автоматическое создание бэкапов каталога в Python

Сохрани себе простой скрипт на Python для автоматического создания бэкапа каталога. Это удобно, если нужно сохранить важные файлы перед их изменением. Скрипт использует библиотеку shutil для копирования содержимого в другую папку с отметкой времени.


import os
import shutil
from datetime import datetime
def backup_directory(source_dir, backup_base_dir):
if not os.path.exists(source_dir):
print("Исходный каталог не существует.")
return
timestamp = datetime.now().strftime("%Y%m%d_%H%M%S")
backup_dir = os.path.join(backup_base_dir, f"backup_{timestamp}")
shutil.copytree(source_dir, backup_dir)
print(f"Резервная копия создана в {backup_dir}")
source = "путь/к/вашему/каталогу"
backup_base = "путь/к/каталогу/бэкапов"
backup_directory(source, backup_base)


https://www.youtube.com/shorts/lYVBn8R0UnQ
👍7🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Теренс Тао говорит, что эпоха ИИ показывает одну неудобную вещь:

наше определение интеллекта было неверным.

Мы думали, что интеллект - это что-то туманное, почти мистическое. Интуиция. Осознанность. Глубокое понимание.

А потом приходит ИИ…
и начинает решать задачи, которые считались признаком “настоящего мышления”.

Но когда смотришь внутрь, там нет озарений, нет “понимания”.
Только:

• статистика
• нейросети
• предсказание следующего токена
• эвристики
• оптимизация
И всё.

Никакой магии. Никакого "внутреннего света разума".

И тут возникает неудобная мысль:

А вдруг это и есть большая часть того, что делаем мы?

Может, человеческое мышление - это тоже
огромный стек трюков, паттернов и предсказаний,
просто реализованный на биологическом железе.

ИИ не обесценивает интеллект. Он разбирает его на детали.

И оказывается, что “разум” может быть не чем-то мистическим,
а инженерной конструкцией.

И это, возможно, самое тревожное открытие всей AI-эры.
30💯16👍8👎6🔥5🤨5😱2
🚀 PolymathicAI выпустила огромный открытый датасет для ML-исследований -*The Well*

📦 Это коллекция численных физических симуляций общего назначения — всего ~15 ТБ данных, разбитых на 16 разнообразных наборов, включающих такие области, как:
• динамика жидкостей и турбулентность
• биологические системы
• акустическое рассеяние
• магнито-гидродинамика и моделирование внегалактических сред
• даже симуляции сверхновых 🌌
И всё это можно использовать для обучения и оценки моделей ML.
📊 Зачем это нужно:
ИИ и ML всё чаще используются для ускорения или замены тяжёлых физических симуляций (surrogate modeling), но до сих пор публичные данные были фрагментированы и маленькие. “The Well” даёт единый формат, большой объём и сложные динамические процессы - отличная база для:
• обучения нейросетей, которые предсказывают физическое поведение
• бенчмарков и сравнительных исследований
• создания более быстрых моделей вместо тяжёлых классических симуляторов

📚 Как использовать:
Проект предоставляет Python/PyTorch API - можно легко загрузить данные в даталоадер и использовать их в тренировке моделей. Данные доступны также через Hugging Face и в формате HDF5 для удобства.

💡 Это открытый ресурс с BSD-3-Clause лицензией, ориентированный на высокоуровневые ML-задачи и научные исследования.

Это может стать новым стандартным набором для обучения моделей, которые симулируют сложные физические системы вместо традиционных вычислительных методов.

🔗 Репозиторий на GitHub: github.com/PolymathicAI/the_well
11👍7🔥6
✔️ В MIT научили процессоры считать на собственном тепловыделении.

Инженеры из MIT разработали кремниевые микро-структуры, которые превращают тепловые потери в ресурс для обработки данных. В основе лежит метод аналоговых вычислений: входная информация кодируется в виде температурных значений, а математическая операция выполняется в процессе диффузии тепла через специальный пористый материал.

Такая "тепловая математика" работает очень точно. Ученым удалось провести умножение матриц на векторы с точностью выше 99%. Чтобы добиться такого результата, форму и расположение пор в кремнии рассчитывали с помощью специальных алгоритмов.

Конечно, заменить видеокарты Nvidia для обучения ChatGPT эти чипы пока не смогут — есть вопросы к скорости передачи данных. Но у технологии есть крутое применение уже сейчас: датчики контроля оборудования.
mit.edu
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13👍53😁2🥰1
Forwarded from Machinelearning
🚀 Релиз Claude Opus 4.6

Anthropic прокачали флагманскую модель: Opus 4.6 теперь лучше планирует, дольше держит сложные агентские задачи, стабильнее работает с огромными кодовыми базами и умеет находить собственные ошибки.

Главный апдейт - это 1 миллион токенов контекста (в бете). Такой объём позволяет держать в памяти большие проекты, длинные документы и сложные цепочки рассуждений без потери связности.

По результатам тестов Opus 4.6 показывает state-of-the-art в задачах:

• агентское программирование
• междисциплинарное рассуждение
• knowledge work
• агентский поиск

Параллельно расширяются возможности Claude в Excel, PowerPoint, Claude Code и API - чтобы модель могла глубже встраиваться в рабочие процессы, аналитику и разработку.

www.anthropic.com/news/claude-opus-4-6

@ai_machinelearning_big_data
9🔥1
🖥 OpenAI выпустили Frontier - инфраструктуру для настоящих AI-сотрудников.

Frontier - это не про «умнее модель», а про то, чтобы AI реально работал внутри компании и выполнял задачи от начала до конца.

Главная проблема корпоративных агентов сегодня не интеллект, а отсутствие контекста, доступа к системам и контроля.

Что делает Frontier:

- Общий семантический слой
Данные в компаниях разбросаны: CRM, тикеты, хранилища, внутренние сервисы.
Frontier объединяет их, чтобы агент работал с бизнес-сущностями (клиент, заказ, сделка), а не с разрозненными системами.

- Среда выполнения агентов
Агент может:
- работать с файлами
- запускать код
- вызывать инструменты
- управлять компьютером
- выполнять многошаговые процессы от начала до конца

- Память
Агенты сохраняют «воспоминания» о прошлых действиях и используют их для улучшения следующих запусков.

- Контроль качества
Встроенные механизмы оценки и обратной связи учат агента, что считается «хорошим результатом» именно для задач компании.

- Управление и безопасность
У каждого агента есть:
- собственная идентичность
- права доступа
- ограничения
- аудит действий
Это критично для корпоративных и регулируемых сред.

- Гибкое развертывание
Можно запускать:
- локально
- в корпоративном облаке
- в инфраструктуре OpenAI
Интеграция через открытые стандарты без необходимости переносить все системы.

Результаты пилотов:
- оптимизация процессов: с 6 недель до 1 дня
- +90% времени у sales на работу с клиентами
- до +5% роста производственного выпуска

Пока Frontier доступен ограниченному числу компаний. Широкий запуск ожидается в ближайшие месяцы.

Главный вывод: следующий этап AI — это не «умнее модель», а инфраструктура, которая превращает модель в полноценного цифрового сотрудника.

https://openai.com/ru-RU/index/introducing-openai-frontier/
Please open Telegram to view this post
VIEW IN TELEGRAM
👍95
Крупная новость: компания Axiom заявляет, что их AI-система решила четыре ранее нерешённые математические задачи, включая сложную гипотезу из алгебраической геометрии, которую долго не могли полностью доказать математики.

Это ещё один сигнал, что возможности AI-рассуждения выходят за рамки простого распознавания шаблонов и приближаются к настоящему математическому мышлению.

Если результаты подтвердятся, такие системы могут значительно ускорить научные открытия

https://x.com/axiommathai/status/2019449659807219884
👍147🔥2👎1
🚀 Высокопроизводительная библиотека тензоров Axiom

Axiom — это открытая библиотека на C++, которая сочетает в себе простоту NumPy и PyTorch с высокой производительностью. Она предлагает интуитивно понятный API и поддержку GPU, обеспечивая отличные результаты в вычислениях.

🚀 Основные моменты:
- Python-подобный API с перегрузкой операторов
- Высокая производительность с SIMD и BLAS
- Полная поддержка GPU через Metal
- Интуитивные операции с тензорами и интеграция с einops
- Кроссплатформенная совместимость и надежные тесты

📌 GitHub: https://github.com/frikallo/axiom

#cpp
❤‍🔥8👍4
🚀 Gemini Deep Think - новый режим для научных и математических задач

DeepMind представили Gemini Deep Think — режим рассуждения, созданный для сложных задач в науке, математике и исследованиях.

Главная идея — дать модели больше времени и вычислений на обдумывание, чтобы улучшить качество решений в задачах, где важна логика, а не скорость.

Что умеет Deep Think

- Выполняет глубокое многошаговое рассуждение
- Параллельно исследует несколько вариантов решения
- Сравнивает гипотезы и выбирает лучший результат
- Лучше справляется со сложной математикой и научными задачами

Где это интересно:

- Математические доказательства и сложные задачи
- Научные исследования и анализ данных
- Поиск новых идей и гипотез
- Долгие цепочки логических рассуждений

Почему это важно

Обычные модели оптимизированы на скорость ответа.
Deep Think делает ставку на другое:

меньше скорости → больше качества рассуждений.

Это особенно важно для:
- научных открытий
- инженерных задач
- исследований, где ошибка дорого стоит

Следующий этап развития AI - не просто быстрые ответы,
а модели, которые думают дольше и глубже, когда задача этого требует.

Источник:
https://deepmind.google/blog/accelerating-mathematical-and-scientific-discovery-with-gemini-deep-think/
11👍4🔥4🥰1
ИИ начинает решать задачи, которые раньше были под силу только топ-математикам.

OpenAI провели внутренний эксперимент: модель с минимальным участием человека участвовала в челлендже First Proof — это 10 исследовательских задач на переднем крае современной математики.

Результаты всего за 1 неделю:

- Модель предложила решения для большинства задач
- Минимум 6 решений эксперты считают вероятно корректными
- Работа велась практически без человеческого контроля

Важно: это был всего лишь побочный спринт, а не полноценный исследовательский проект.

Но вывод очевиден:

ИИ больше не просто объясняет математику.
Он начинает создавать новую математику.

Следующий этап развития:

- поиск доказательств сложных теорем
- обнаружение новых закономерностей
- помощь в научных исследованиях
- ускорение фундаментальных открытий

Мы движемся от AI-ассистента к AI-исследователю.

И это только начало.

https://x.com/merettm/status/2022517085193277874
👍16🤨148👎2🥰1😁1
Forwarded from Machinelearning
📌 AxiomProver доказала нерешенные математические гипотезы.

История началась с тупика, в который зашли математики Давей Чен и Квентин Жендрон. Пять лет назад они пытались разобраться в сложном разделе алгебраической геометрии, связанном с дифференциалами - элементами математического анализа, используемыми для измерения расстояний вдоль изогнутых поверхностей.

В ходе работы они зашли в тупик: их рассуждения опирались на странную формулу из теории чисел, но ни доказать ее, ни обосновать они не смогли. В итоге Чэнь и Жандрон опубликовали работу, в которой представили свою идею как гипотезу, а не как теорему.

Попытки Чена использовать ChatGPT для поиска решения оказались бесполезными - языковая модель просто не справлялись с задачей такого уровня абстракции.

Прорыв случился благодаря встрече Чена с Кеном Оно, известным математиком, работающим в Axiom. Узнав о проблеме, Кен загрузил исходные данные в систему AxiomProver.

К утру ИИ выдал готовое доказательство. Prover обнаружил связь между задачей Чена-Жендрона и числовым феноменом, впервые изученным еще в XIX веке. Затем система сама разработала доказательство и, что важно, самостоятельно его верифицировала.

По словам Кена Оно, алгоритм нашел то, что упустили все люди-эксперты, работавшие над темой. Результат оформили и опубликовали на arXiv и положили на Github.

AxiomProver представляет собой гибрид LLM и уникального движка для логического вывода с использованием языка формальной верификации Lean. Этот микс позволяет системе строить цепочки рассуждений, математическая корректность которых проверяется автоматически.


Подход напоминает систему AlphaProof от Google, но, по словам CEO Axiom Карины Хонг, они задействовали ряд новых техник, позволяющих выходить за рамки простого поиска по существующей литературе.

Еще более впечатляющим выглядит кейс системы с гипотезой Феля, касающейся сизигий - математических соотношений, в которых числа выстраиваются в алгебраические закономерности. Она опирается на формулы, впервые обнаруженные более 100 лет назад в записных книжках легендарного индийского математика Сринивасы Рамануджана.

В этом случае AxiomProver не просто заполнил недостающее звено - он разработал доказательство от начала до конца. Воспроизвести трек доказательства может любой желающий, код - на Github.

К слову, система буквально в январе этого года решила все 12 задач математической олимпиады Putnam, самого престижного конкурса для студентов бакалавриата.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
11👍9🔥3