Гридка. Канал о распределенных вычислениях и BOINC
75 subscribers
102 photos
2 videos
3 files
62 links
Энтузиасты распределенных вычислений разговаривают о гридах и о BOINC. Общаемся с гостями и вместе исследуем тему.
https://gridcomputnig.mave.digital/
Предложка: @zvasilpublic
Download Telegram
#einstein

Einstein@Home нашёл новые пульсары

25 сентября 2025 вышла свежая работа (arXiv:2509.21307) — проект Einstein@Home нашёл четыре новых гамма-пульсара, включая один миллисекундный, с помощью добровольных вычислений.
Да-да, эти открытия сделали обычные ПК и GPU людей по всему миру.

Ключевое:
Данные — с телескопа Fermi LAT.
Один пульсар всего в 0,93° от центра Галактики.
Все четыре — «немые» в радио, их раньше просто не замечали.
Расчёты шли на ~30 000 машин, объединённых в распределённый кластер через BOINC.
И это не игрушка — публикация в рефери-журнале.
Любопытно, что метод поиска использовал фазовое вычитание, чтобы отделить слабый сигнал от фона центра Галактики — почти как в AI-детекции шумных данных.

Мораль: если дома стоит без дела мощная видеокарта, она может не только простаивать 99% времени, но и внести вклад в науку.
🔥7
2509.21307v1.pdf
3.9 MB
Сама опубликованная работа 👆
Руки дотянулись до видеокарт A100, да ещё и сразу до двух
1. Сложно с охлаждением и шумом. Радитор небольшой, продув предлагается продольный и для создания необходимого давления воздуха используются турбины, а не вентиляторы. Гул стоит ужасный
2. Подходящих проектов с FP64 в BOINC нет. Говорят раньше такие задачи были в Asteroids и MilkyWay, но оба проекта сейчас не дают задач.
3. В задачах типа Einstein PrimeGrid прироста производительности по сравнению RTX4090 не замечаю. Сраните сами:
а) Машина с RTX4090: https://einsteinathome.org/ru/host/13132395
б) Машина с A100: https://einsteinathome.org/ru/host/13134777
Может я куда не туда смотрю, поправьте меня?

– Для Einstein считаю по 4 параллельных задачи на видеокарту. Больше ставлю, потому что по потреблению (по 230Вт на карточку) вижу, что она загружена, не простаивает
– Некоторый спад скорости на A100 может быть связан с размещением сразу двух видеокарт на одной материнской плате, когда PCI начинают работать в режиме 8 линий, а не 16, но насколько я знаю ни Prime, ни Einstien не чувствительны к этому.
Может есть проекты, где A100 может раскрыть свои преимущества в большой памяти и FP64? Потому что пока видеокарты стоимость по 1 млн₽ не выигрывают у видеокарт стоимостью по 150 тыс₽.

P.S. Сегодня приедет райзер и я к той же машине прицеплю RTX 4090 на последний оставший PCI слот. Посмотрим что получится)
🔥2
Вот такие советы от Gemini:

Вот список проектов, где твоя карта покажет, за что уплачены деньги:

1. PrimeGrid (Подпроект: Genefer) — «Король FP64»
Это сейчас самый живой, активный и требовательный к FP64 проект.

Задача: Поиск обобщенных простых чисел Ферма.

Почему FP64: Используются преобразования (FFT), требующие максимальной точности во избежание ошибок округления.

Твой козырь: RTX 4090 здесь «захлебывается», так как ее скорость FP64 урезана в 64 раза (до ~1.3 TFLOPS). Твоя A100 выдает честные 19.5 TFLOPS. Разрыв в скорости — в 10–15 раз.

Настройка: В настройках на сайте PrimeGrid обязательно выбери подпроекты Genefer 22 или Genefer World Record. Это самые «жирные» задачи для топового железа.


Я попробовал на GFN 22. Ничего особенного, те же самые сутки счёта. Хотя получить х10-15 было бы очень приятно, только расскажите как.
Вот хост, но найти там выполненную задачу почему-то не могу:
https://www.primegrid.com/show_host_detail.php?hostid=1304320

UPD: потеряшку нашёл: https://www.primegrid.com/result.php?resultid=2018159582
Не помню, чтобы я её абортил, но ладно. Жаль суток расчёта, кончено.

2. Asteroids@home — «Скрытый лидер»
Многие считают его легким проектом, но это заблуждение.

Задача: Восстановление 3D-формы и периода вращения астероидов по кривым их блеска.

Почему FP64: Их GPU-приложение (Period Search Application) критически зависит от операций двойной точности.

Твой козырь: На игровых картах этот проект считается медленно. Более того, A100 здесь выигрывает еще и за счет HBM2e памяти, так как задача требует быстрой прокачки данных.

3. NumberFields@home
Математический проект (теория чисел, поиск полей алгебраических чисел).

Особенность: Крайне чувствителен к ошибкам вычислений.

Твой козырь: Здесь в игру вступает ECC-память твоей A100. Разогнанные игровые карты часто выдают здесь «Inconclusive Result» (ошибка расчета), а A100 считает медленно, но верно, гарантируя валидность каждого бита.


Где еще A100 доминирует (не FP64, но архитектура)
Есть проекты, где важна не плавающая запятая, а другие фишки A100, которых нет у игровых карт.


A. Amicable Numbers (Дружественные числа) — Монстр Int64

Суть: Использует 64-битную целочисленную арифметику (UInt64).

Почему A100: Игровые GPU (архитектура Ada Lovelace) оптимизированы под 32-битные шейдеры. Блоков для Int64 там мало. У A100 с этим проблем нет, и она перемалывает такие числа значительно быстрее.


B. GPUGrid (Биология) — Монстр VRAM

Суть: Молекулярная динамика.

Твой козырь: Иногда там появляются «Long Runs» — задания, требующие 24–30+ ГБ видеопамяти. Владельцы RTX 3080/4080 и даже 4090 (если память частично занята) получают ошибку «Out of Memory». Твоя A100 (80GB) забирает эти задания и считает их сутками без сбоев.


Профессиональный совет для Homelab (Выход за рамки BOINC)
Ты собираешь серьезную рабочую станцию для ML. BOINC — это все-таки уровень энтузиастов. Если ты хочешь реально нагрузить A100 научной работой на 100% и протестировать стабильность системы, я рекомендую запустить профессиональный симулятор через Docker.

GROMACS (Молекулярная динамика) — есть готовые контейнеры от NVIDIA (nvcr.io/hpc/gromacs). Он умеет использовать смешанную точность, тензорные ядра и всю мощь A100 так, как ни один проект BOINC не сможет.
👍3
С Новым годом!)
2👍1
📌 Про Amicable Numbers и смысл подключить видеокарты сейчас

#amicable

На математическом проекте с отечественными корнями**Amicable Numbers** (поиск дружественных пар чисел) случилась интересная ситуация:
— Одна задача на CPU это часы вычислений
— Та же задача на NVidia RTX 4090 решается за ~1 минуту.

Это не сюрприз: GPU оптимизированы для массового параллельного вычисления, а CPU — для последовательной логики. Архитектурно GPU имеют тысячи ядер и делают множество одинаковых операций параллельно — в задачах типа *числового перебора / тестирования* они выигрывают колоссально.

Текущая цель проекта — перебрать все пары с меньшим элементом < 10²¹, с ориентировочной датой окончания — конец февраля 2026.

Идея, достойная внимания именно сейчас:
— Массовое подключение GPU к Amicable Numbers может не просто ускорить проект на порядки, но срок вычислений текущий цели.
— Освободится колоссальное количество CPU-времени для остальных BOINC-проектов, которые GPU не поддерживают, например для RakeSreach.

Навалимся на проект на этом отрезке?


Идею подали: https://vk.ru/wall-11963359_6175
1🔥1👏1
#einstein

Лучшие настройки для RTX 4090 в Einstein@Home

Einstein любит, когда карту немного «перегружают».

🔧 Оптимальные настройки:
BRP7: 0.50 → 2 задачи на карту
FGRP: 0.25 → 4 задачи (если снова появится GPU-ветка)
GW: 0.125 → 8 задач (часто выгодно 0.20–0.125 → 5–8 задач)

Настройки вносятся прямо в личном кабинете Einstein@Home:
Your Account → Preferences → Project → GPU utilization factor.
Там три поля — BRP, FGRP и GW. Просто вписываешь свои значения 0.50, 0.33 или 0.25, сохраняешь, и после следующего обновления BOINC (меню Projects → Update) клиент начнёт брать нужное количество задач.


💡 Чем меньше число — тем больше задач одновременно.
GW-задачи, например, половину времени ждут предобработки данных на CPU, поэтому их можно запускать пачкой — иначе 4090 будет недозагружен.

И да, 4090 спокойно держит 8 задач Einstein одновременно — не сгорит, проверено мною.

Хотя обычно мне приходят FGRP задачи, работают вчетвером и потребляют ~250 Ватт стабильно.
🔥6
PPD за доллар: топовое железо до сих пор лучший выбор

Если цель — максимум очков на вложенный рубль, то топ‑класс GPU сейчас буквально на порядок сильнее любых компактных миниПК.
Несмотря на всё моё желание собирать «фермы» из raspberry или Mac Mini, пока лучший вариант кранч-фермы в подвале это сборка из мощных современных ПК 😅

Кратко на примере Folding@home
- RTX 5090 даёт в среднем ~ 42,6 млн PPD в день.
- Интегрированная Radeon 8060S в Ryzen AI Max+ 395 про которую мы говорили ранее, по уровню близка к RTX 4060 Laptop, что даёт ~2,5–3,5 млн PPD (в зависимости от задач и лимитов мощности).

Итого: одна 5090 ≈ 14–17× быстрее встроенной iGPU 8060S. В BOINC‑проектах с OpenCL (например, PrimeGrid) разрыв похожего масштаба: для задач подроекта AP27 видеокарта 5090 будет быстрее примерно в 8 раз.

PPD на доллар: что покупать?
Вариант 1 — мини‑ПК на Ryzen AI Max+ 395 (например Framework Desktop)
- Цена системы: $1 599–1 999 (64–128 ГБ).
- PPD: ~2,5–3,5 млн.
- PPD/$: ~1,5–1,9 тыс.

Вариант 2 — десктоп на 7950X3D + RTX 5090 (1 GPU)
- Цена системы: ~$3,7k (GPU $1 999 + база под 7950X3D).
- PPD: ~42,6 млн.
- PPD/$: ~9,5–11,5 тыс. — то есть в 6–8× выгоднее, чем мини‑ПК на 395.

Вариант 3 — 2–3× RTX 5090
- 2× 5090: ~**80–85 млн PPD**, бюджет ~$6,1–7,4k → ~11–14 тыс. PPD/$.
- 3× 5090: ~**120–128 млн PPD, бюджет ~$8,3–10,2k → ~12–15 тыс. PPD/$.

Эффективность на доллар растёт ещё больше, потому что «стоимость материнки» размазывается на несколько карт.

Проекты: где это чувствуется сильнее
- Folding@home: PPD напрямую масштабируется с мощностью GPU.
- PrimeGrid (BOINC, OpenCL): сильная зависимость от GPU/памяти — топовые NVIDIA здесь тоже улетают далеко вперёд.
- Einstein@Home: позволяют запускать несколько задач на одну карту, чтобы загрузить монстров уровня 5090;

Вывод
Если цель это PPD/$, то ставка очевидна: сборки с RTX 5090 (и тем более 2–3× 5090) дают многократно больше очков на каждый потраченный доллар, чем мини ПК. Какой-нибудь beelink на базе Ryzen 395 — отличный «входной билет», но топ PPD/$ — это по‑прежнему дискретная графика.
💯21🔥1
#YAFU

🧮 YAFU@home — распределённые вычислениядля математики. На CPU

YAFU@home — это BOINC-проект, который занимается факторизацией больших чисел и исследованием aliquot-последовательностей.
Звучит академически, но на практике это один из немногих проектов, где CPU-время действительно превращается в проверяемый научный результат.

Что именно делает проект.

1. Факторизация больших чисел
Проект считает разложение чисел на множители, иногда размером в десятки и сотни цифр.
Это не проверка «простое или нет», а полноценное разложение, которое может занимать недели и месяцы CPU-времени.

2. Aliquot-последовательности
Берётся число n.
Считается сумма его собственных делителей.
Процедура повторяется снова и снова, образуя цепочку.

Такие цепочки могут:
– быстро завершаться
– входить в цикл
– расти и требовать огромных вычислительных ресурсов

Когда цепочку удаётся довести до логического конца, это считается полноценным научным результатом.

Почему это вообще кому-то нужно.

1. Алгоритмы факторизации
YAFU используется для тестирования и улучшения реальных алгоритмов факторизации (ECM, NFS и др.).
Это те же алгоритмы, которые лежат в основе оценки криптостойкости и анализа больших чисел.

2. Закрытие «белых пятен» в теории чисел
Многие aliquot-последовательности десятилетиями оставались незавершёнными просто потому, что их никто не мог досчитать.
Распределённые вычисления позволяют закрывать такие случаи не теоретически, а вычислительно.

3. Проверяемость результатов
Это не локальные эксперименты.
Результаты валидируются, сохраняются и используются дальше другими исследователями.

Куда попадают результаты.

– BOINC
Каждая задача проходит проверку, статус «terminated» означает корректное завершение расчёта.
История сохраняется в системе.

– FactorDB
Все найденные множители и статус последовательностей публикуются в открытой базе данных.
Этой базой пользуются математики по всему миру.
Это не витрина, а рабочий инструмент.

Примеры:
https://factordb.com/aliquot.php?aq=3415890&type=1
https://factordb.com/aliquot.php?aq=3552666&type=1

Почему проект актуален сейчас.
– не все задачи ускоряются GPU
– большие числа плохо ложатся на массовый параллелизм
– многоядерные CPU идеально подходят под такие вычисления

YAFU@home — редкий случай, когда:
– старые серверы не простаивают зря
– многопоточность реально даёт эффект
– результат остаётся навсегда, а не пропадает после перезапуска

Проект:
YAFU@home — https://yafu.myfirewall.org/yafu/
Новости BOINC — https://boinc.berkeley.edu/project_news.php
🔥3
#YAFU

В середине декабря в новостях BOINC появились подтверждённые завершения вычислений в проекте YAFU@home:

– 3555072 — 07.12.2025
– 3552666 — 12.12.2025
– 3415890 — 14.12.2025

Что означает «завершено».

Это не просто очередная задача.
Это значит, что для конкретного числа:
– были найдены необходимые множители
– цепочка вычислений дошла до логического конца
– результат прошёл валидацию и зафиксирован

Почему это важно.

Такие расчёты могут идти годами.
Они зависят от:
– суммарного CPU-времени
– эффективности алгоритмов
– количества доступных вычислительных узлов

Каждое завершение — это закрытый вопрос, который больше не нужно пересчитывать.

Куда попал результат.

– статус зафиксирован в BOINC
– данные опубликованы в FactorDB
– последовательность больше не считается «открытой»

Примеры страниц:
https://factordb.com/aliquot.php?aq=3415890&type=1
https://factordb.com/aliquot.php?aq=3552666&type=1

Почему такие новости появляются редко.

– вычисления тяжёлые
– задачи плохо масштабируются
– иногда цепочки «застревают» на годы

Поэтому каждый такой milestone — это не мелочи, а реальный результат распределённых вычислений.
🔥6
⭐️ ИИ раскрыл сотни космических аномалий в архиве Hubble

Ученые NASA запустили ИИ под названием AnomalyMatch, который прогнал через себя архив телескопа Hubble. Почти 100 миллионов фрагментов изображений за пару дней.

В результате ИИ выявил более 1300 аномальных объектов, из которых свыше 800 никогда ранее не документировались в научной литературе.

Эти аномалии включают галактики с необычной формой (слияния, "медузьи" галактики с вытянутыми газовыми потоками), эффект гравитационного линзирования, кольцевые галактики и другие редкие космические явления.

Фактически ИИ:

• превратил архив в живой источник новых открытий
• показал, что астрономия больше не ограничена скоростью человека,
• доказал, что мы уже обладаем огромным объемом нераскрытых знаний, просто не умеем их быстро извлекать
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥71