Гридка. Канал о распределенных вычислениях и BOINC
74 subscribers
73 photos
1 video
3 files
42 links
Энтузиасты распределенных вычислений разговаривают о гридах и о BOINC. Общаемся с гостями и вместе исследуем тему.
https://gridcomputnig.mave.digital/
Предложка: @zvasilpublic
Download Telegram
#rosetta
Rosetta@home статус проекта

Работает через BOINC, использует только процессор. GPU пока не задействованы, хотя для подобного класса задач GPU был бы очень полезен.

По состоянию на 4 марта 2025 года обсуждается запуск GPU-вариантов для задач виртуального скрининга и моделирования пептидов.
Иногда нет заданий («No tasks available») — это нормально, зависит от активности серверов.

Иногда случаются ошибки загрузки заданий («feeder error»), что связано с ограниченным администрированием проекта.
Память: от 200 МБ до 3–4 ГБ на задачу.

Я бы сейчас не рекомендовал участвовать в проекте
1🔥1🎉1
🏁 Formula BOINC: кто лидирует сейчас

Срез на 10 октября 2025 – коротко и по делу, без лишнего пафоса.

Общий зачёт (Overall):
Planet 3DNow! – 817
Ukraine – 645
L’Alliance Francophone – 555
(https://www.formula-boinc.org/)

Марафон (Marathon):
Planet 3DNow! – 404
L’Alliance Francophone – 366
Ukraine – 324
(https://www.formula-boinc.org/marathons.py?division=1&race=0&standing=team)

Спринт (Sprint):
Planet 3DNow! – 413
Ukraine – 321
SETI.USA – 262
NoTEAM – 217
L’Alliance Francophone – 189
(https://www.formula-boinc.org/sprints.py?division=1&race=0&standing=team)

🔜 Ближайший спринт: 16–19 октября (UTC). Проект объявят в момент старта
(https://www.formula-boinc.org/sprints.py?division=1&race=0&standing=team)

🙋 Хочется в гонку? Регистрация команд и участников тут:
(https://www.formula-boinc.org/howtoregister.py)
#LHC

LHC@home запустил в бету новый проект Xtrack (https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=6387), но поддержка BOINC неполная.

Добровольцы могут поучаствовать в вычислениях CERN с новым приложением Xtrack – частью современного набора инструментов Xsuite для моделирования пучков частиц (https://github.com/xsuite/xtrack).

Что нового:
🚀 Современная архитектура: Python + C, рассчитана на многопоточность и GPU.
– Физика следующего уровня: коллимация, взаимодействие пучков с материалом, уточнённое моделирование потерь частиц.
– Работает как на Linux, так и на Windows – теперь не только для серверов CERN, но и для домашних ПК.
– Интеграция с BOINC: можно запускать симуляции прямо через LHC@home (https://lhcathome.cern.ch/lhcathome/).
– В LHC@home доступны CPU‑сборки для Windows и Linux (XTrack (beta test)). GPU и macOS пока нет.

Поддержка неполная: текущая BOINC‑версия Xtrack — однопоточная CPU; GPU/мультикор заложены в Xtrack, но требуют другой схемы сборки для BOINC и пока не включены.

Больше деталей — в докладе на Indico CERN (https://indico.cern.ch/event/1211085/contributions/5093595/attachments/2540891/4404886/016_xsuite_status.pdf) и на InspireHEP (https://inspirehep.net/literature/2776105).

Бета запущена 16 сентября 2025, задачи уже появляются.
Если комп мощный – включайся в распределённые вычисления CERN
🔥61
#домашнаялаборатория

Бесплатный апгрейд эффективности через undervolt на GPU

Самая понятная оптимизация для кранчинга – снизить напряжение на видеокарте. Многие GPU держат те же частоты на меньшем вольтаже – меньше ватт, ниже температура и шум, PPD (points per day) почти не падает.

Обьяснение
Та же частота при меньшем вольтаже → та же скорость расчётов, но меньше потребление. В кранчинге это особенно заметно на тяжёлых WU.

Как сделать (Windows, NVIDIA, MSI Afterburner)
1. Запустить Afterburner → Ctrl+F (Voltage/Frequency Curve).
2. Выбрать рабочую частоту под нагрузкой и зафиксировать её на ~0.90–0.95 V.
3. Выровнять участок кривой вокруг выбранной точки, нажать Apply.
4. Прогнать несколько часов реальных WU: следить за стабильностью, что все задачи подходят без ошибок.

Ожидаемый эффект
– Уменьшение потребления при сохранении частоты.
– Тише и холоднее;
– Рост PPD/Вт заметный, особенно на долгих задачах.

Альтернатива
Понижение напряжения снижает температуру, на хороших видеокартах это позволяет поднять чистоту, иногда на ~200MHz. То есть и еще и быстрее будет считать.

P.S. Кранчинг – марафон, не спринт. Тише едет тот, кто эффективнее считает.
Тот же эффект есть и на CPU, там надо андервольтить через BIOS, если позволяет материнская плата.

#gpu
4👍2
#домашнаялаборатория

Использовать Spark для BOINC нет смысла, несмотря на наличие CUDA ядер. Он определяется во многих проектах как generic GPU for Linux и не получает задания. А где получает (Asteroids, например), то работает отнсительно медленно, потому что GPU проекты в BOINC как правило зависимы от скорости памяти. То есть основное преимущество Spark (объём видеопамяти) не используется, а основной недостаток (скорость видеопамяти) понижает эффективность.

Может в PrimeGrid или Amicable (где скорость памяти не критича) он будет полезен, но в целом вряд ли будет лучше обычной домашней системы с GPU:
Forwarded from Закиев Василь. (AI)ron manager (Vasil Zakiev)
Собираем домашний LLM‑сервер

Неделя вышла плотной, писал мало. Исправляюсь: поизучал «настольный» DGX Spark от Nvidia. Мини-компьютер как базу для домашнего LLM‑сервера .

Короткий вывод: Spark — это про объёмные модели, а не про скорость генерации. Для повседневного офлайнового инференса компактнее и быстрее обычный ПК или мини‑ПК + внешний док под десктоп‑GPU. Выйдет быстрее и дешевле.

Почему так
– У Spark 128 ГБ унифицированной памяти, поэтому влезут большие модели. Их ещё можно объединять в ферму по оптике (кабель 15000₽), а значит доступной памяти станет больше. Для сравнения у RTX 4090 будет 24GB, у 5090 будет 32 ГБ.
– Но память LPDDR5x ~273 ГБ/с — скорость памяти станет узким местом для быстрой работы ИИ. Для сравнени RTX 5090 используется GDDR7 с ~1.8 ТБ/с, почти на порядок быстрее.
– Цена: Spark — $3 999. За те же деньги можно укомплектовать мини‑ПК + док + 5080 (а если повезёт — и 5090), получив почти на порядок более высокую скорость работы ИИ.
– Spark логичен, когда нужна ёмкость: дообучение (LoRA/QLoRA) и работа с большими моделями 70b–200b

Альтренативы для дома:
🛠️ Beelink GTi‑линейка + EX Pro Dock (прямой PCIe 5.0 ×8, БП 600 Вт
🛠️ GPU:
– RTX 5090 — максимум по скоростям, но близко к лимиту по питанию дока и может не влезть по размерам, надо смотреть по производителю
– RTX 5080 — проще по теплу/ваттам, 16 ГБ достаточно для 8–14и моделей и аккуратно подобранных 30–33b моделей

Вывод
Для «домашнего/офисного» LLM‑сервера я бы не покупал Spark. Скорее — мини‑ПК + док + 5080/5090 или собирал бы обычный домашний компьютер. Spark нужен тем, кому важнее влезть в очень большие модели или обучать их. Пусть и медленно

##ИИ
🔥4👍1
#PrimeGrid

Иногда в ленте PrimeGrid всплывают странные статусы новых простых чисел: PRP и Proven.

🔹 PRP (Probable Prime) — быстрый тест «похоже на простое».
Алгоритмы вроде Genefer для GFN-чисел или LLR для Proth-форм гоняют GPU и CPU, чтобы отсеять составные. Это ещё не доказательство, но вероятность ошибки меньше, чем шанс выиграть в лотерею.

🔹 Proven — уже настоящее доказательство:
через ECPP (эллиптические кривые), LLR-протоколы с верификацией или старый добрый сертификат Пратта. Тут результат можно проверить независимо — значит, простота доказана.

Разница во времени между PRP и proven — это не баг, а нормальный цикл: сначала находят кандидата, потом долго и нудно доказывают.

🔗 PrimeGrid project page: https://www.primegrid.com/
🔗 PrimeWiki (объяснение статусов): https://www.primegrid.com/wiki/
🔗 ECPP алгоритм на MathWorld: https://mathworld.wolfram.com/EllipticCurvePrimalityProving.html
👍2🔥2
Помочь Карибам после урагана

Zooniverse запустил срочный проект по анализу спутниковых снимков после урагана Melissa (категория 5).
Нужно быстро определить, где дороги, мосты, аэропорты и порты разрушены или заблокированы — чтобы гуманитарные службы могли планировать маршруты доставки помощи.

🛰️ Данные — от Planet Labs, разрешение 3 м.
🎯 Задача — отметить на фото, где есть обломки, затопления или разрушения.
📍 Даже если сомневаетесь — всё равно классифицируйте: каждый снимок проверяют несколько участников.

Проект здесь: zooniverse.org/projects/alicemead/planetary-response-network-hurricane-melissa-2025/classify

Ураган прошёл через Ямайку, Кубу, Гаити и Доминикану – и сейчас помощь зависит от того, как быстро волонтёры помогут разметить снимки.
🔥3👍1
#folding

В логе каждой рабочей единицы (WU) есть идентификатор PRCG — это четыре числа:

Project – номер проекта,
Run,
Clone,
Generation.

Он выглядит так: PRCG: 13422 (R 24, C 7, G 156) или в коротком виде 13422,24,7,156.

Зачем сохранять PRCG
По номеру проекта (P) легко найти описание на сайте FAH и в трекерах задач (какой белок/модель, какие параметры симуляции).
Зная P, можно искать публикации авторской группы в разделах «Papers/Publications» и собирать именно те статьи, куда ушли ваши расчёты.

Вариант реализации
Включить подробные логи в FAHClient (в BOINC не получится насколько я понимаю) и парсить строки с PRCG.
Автоматически писать каждую завершённую WU в CSV: timestamp, slot, gpu/cpu, PRCG, ETA, PPD, core, result.
На каждое новое P (project) — добавлять ссылку на страницу проекта и список статей группы (поле “notes/links”).

Или вручную через LOG Viewer прямо в клиенте FAH, как на фото.
🔥2👍1
#LODA
LODA: что кранчат добровольцы в этом проекте и зачем это нужно

LODA — это одновременно:
– минималистичный язык наподобие ассемблера для целочисленных последовательностей,
– инструментарий для их исполнения и оптимизации,
– и BOINC-проект для распределённого поиска (майнинга) коротких программ, воспроизводящих последовательности из OEIS (https://oeis.org/).

Цель проекта — найти новые формулы и более эффективные алгоритмы для широкого спектра нетривиальных целочисленных последовательностей.

3 октября 2025 LODA объявил о важной вехе — найдено свыше 140 000 программ (https://boinc.loda-lang.org/loda/).
Параллельно сообщено о запуске публичного API (https://boinc.loda-lang.org/loda/api)
и интеграции через Model Context Protocol (MCP) (https://loda-lang.org/connect/#model-context-protocol-mcp). Теперь к базе можно обращаться и из чат-агентов

Как работает LODA по шагам:
1. Перебор коротких программ. Программа LODA на компьютерых добровольцев автоматически и систематически порождает компактные программы на языке LODA (описание языка: https://loda-lang.org/).
2. Сравнение с OEIS. Результаты проверяются с каталогом OEIS (https://oeis.org/). Совпадения сохраняются в репозиторий — расширяя покрытие последовательностей.
3. Отбор и оптимизация. Инструмент loda-cpp (https://github.com/loda-lang/loda-cpp) умеет майнить, проверять и экспортировать найденные решения, включая генерацию формул и кода для PARI/GP (https://pari.math.u-bordeaux.fr/).
4. Композиция решений. Программы могут вызывать другие последовательности (seq), комбинируя найденные блоки (пример: https://github.com/loda-lang/loda-programs).
5. Открытая база. Репозиторий всех найденных программ доступен здесь: https://github.com/loda-lang/loda-programs

Кому это полезно?
Математикам и редакторам OEIS.
LODA предоставляет исполняемые описания последовательностей, упрощающие проверку, генерацию длинных b-файлов и поиск новых формул. Авторы проекта подчёркивают: найденная программа — это гипотеза, требующая проверки человеком, потому что совпадение с OEIS не является доказательством корректности «для всех n».

Исследователям ИИ и синтеза программ.
LODA — площадка для авто-синтеза и тестирования алгоритмов. Благодаря MCP-интеграции теперь можно использовать базу прямо из ИИ-агентов.

Добровольцам BOINC.
Участники могут подключить CPU-ресурсы через BOINC (https://boinc.berkeley.edu/). Приложение LODA поддерживает Windows, macOS и Linux (включая ARM).

Преподавателям и популяризаторам.
Проект делает наглядной связь между комбинаторикой и программированием: от таблицы OEIS → кода → формулы.

Почему важна отметка 140 000+ программ
– Существенно увеличено покрытие OEIS программами, где раньше решений не было.
– Ускорена проверка гипотез и генерация новых термов.
– Через API и MCP база становится машинно-ориентированной: можно интегрировать её в собственные инструменты анализа.

Как присоединиться
1. Установить BOINC (https://boinc.berkeley.edu/download.php).
2. Добавить проект LODA через менеджер или напрямую: https://boinc.loda-lang.org/loda/.
Проект активно развивается: документация языка (https://loda-lang.org/docs/) и инструменты регулярно обновляются.
🔥6
#PrimeGrid

PrimeGrid сообщил о новом крупном результате в поиске больших простых чисел

14 октября проект объявил о нахождении первого известного простого числа семейства GFN-21 длиной около 13 млн цифр. Этот результат сразу выводит число в шестерку крупнейших обнаруженных простых и закрывает давний «пробел» в линейке GFN-семейств.

GFN-числа (обобщённые числа Ферма) строятся по фиксированному уровню
𝑛
n при переборе основания
𝑏
b. Для уровня 21 до сих пор не было ни одного подтверждённого простого — теперь ситуация изменилась.

Одновременно PrimeGrid возобновил поиск на уровне GFN-22. Это уже следующий порядок масштабов — кандидаты около 23 млн цифр и выше, стартовая точка поиска обозначена как b=400000. Все вычисления традиционно выполняются распределённой сетью участников BOINC.

Для тех, кто использует PrimeGrid, это означает появление нового объёма задач и реальный шанс поучаствовать в открытии следующего крупного простого числа.

Источники:
https://www.primegrid.com/forum_thread.php?id=12993
https://www.primegrid.com/gfn_history.php#n21
🔥2
#PrimeGrid

🔢 Новый рекорд PrimeGrid: крупнейшие обобщённое простое число Каллена

16 апреля 2025 года проект PrimeGrid объявил о находке нового рекордного простого числа вида
n · b^n + 1:
4052186 · 69⁴⁰⁵²¹⁸⁶ + 1
(https://www.primegrid.com/forum_thread.php?id=11337)

Это число состоит из 7 451 366 цифр и стало крупнейшим известным обобщённым числом Каллена (generalized Cullen prime).
В общем рейтинге простых чисел оно заняло 16-е место
(страница на The Prime Pages: https://t5k.org/primes/page.php?id=140607).

🧠 Что такое обобщённое число Каллена

Классические числа Каллена имеют вид
n · 2^n + 1.
Если заменить 2 на любое другое основание b, получаем обобщённые числа Каллена
n · b^n + 1.

Такие числа крайне редко оказываются простыми. Проверка каждого кандидата требует огромных вычислительных мощностей, поэтому подобные открытия происходят почти исключительно в рамках распределённых проектов вроде PrimeGrid.

Как проходило открытие
Найдено: 16 апреля 2025, 11:37:45 UTC
Проверено: 17 апреля 2025
Автор: Mark Williams (TeAm AnandTech)
Метод: PRST (Prime Reciprocal Square Test)
Оборудование:
AMD EPYC 9554, 8 ядер — ~10 ч 15 мин
Ryzen 9 7950X3D, 8 ядер — ~12 ч 32 мин
Подробности: официальный отчёт PrimeGrid
https://www.primegrid.com/download/GC69-4052186.pdf

До этого база 69 считалась «пустой» — не существовало ни одного известного простого числа формы
n · 69^n + 1.
Теперь она закрыта — найден первый представитель.

Контекст и значение

Этот результат получен в рамках проекта Generalized Cullen/Woodall Prime Search
(описание: https://www.rieselprime.de/ziki/PrimeGrid_Generalized_Cullen_Prime_Search).

Проект объединяет тысячи добровольцев, предоставляющих свои процессоры для вычислений. Так, обычные пользователи помогают искать редчайшие простые числа, которые невозможно было бы найти даже на мощных суперкомпьютерах в одиночку.

Как поучаствовать
PrimeGrid работает через платформу BOINC.
Достаточно установить клиент и выбрать проект PrimeGrid — программа сама загрузит задания для CPU или GPU.
BOINC: https://boinc.berkeley.edu
PrimeGrid: https://www.primegrid.com
🔥3
#домашнаялаборатория

Мини-ПК на базе Ryzen AI Max+ 395 – хороший выбор для BOINC-энтузиастов

Сравниваем новинку с флагманскими AMD процессорами Ryzen 7950X3D и 9950X3D

- CPU: 16(32) Zen 5‑ядер; по вычислительным рейтингам BOINC 395 в среднем где‑то рядом с Ryzen 9 7950X3D (±5–10 %), уступая 9950X/9950X3D на ~10–12 %.
- GPU: интегрированная Radeon 8060S (40 CU, RDNA 3.5, до 2.9 ГГц) + LPDDR5X‑8000, 256‑бит, до 128 ГБ общей памяти — впервые даёт уровень почтидискретной видеокарты, что позволяет полноценно считать OpenCL‑GPU проекты BOINC.
Например у меня в Ryzen 9 7950X3D тоже есть встроенная iGPU, но её включение скорее вредно, потому отбирает у CPU тепловой пакет, попускную способность и одно ядро на свою поддержку.
Встроенная в Ryzen AI Max+ 395 iGPU попадает в коридор RTX 4060 Laptop RTX 4070 Laptop.
- NPU: ИИ-ядра XDNA 2 пока не используются BOINC проектами.
- Вывод: CPU‑only проекты он делает на уровне топовых процессоров AMD предыдущего поколения, но с гораздо меньшим потреблением энергии (тише, проще охлаждать). И резко поднимает производительность за счёт GPU‑задач

Анализируем лидерборды BOINC
1) CPU‑производительность
Среда BOINC во многих проектах публикует таблицы пиковой CPU‑скорости (Whetstone GFLOPS/ядро). На них 395 (Strix Halo) в реальных задачах удерживает ~**0.9–1.0×** от десктопного 9950X; то есть близко к 7950X3D.

2) Встроенная GPU
Radeon 8060S (40 CU RDNA 3.5) в Strix Halo — это оказалась достаточно мощной iGPU. За счёт быстрой памяти и широкой LPDDR5X‑шины (256 бит, ~256 ГБ/с) и 40 CU она хорошо обеспечена данными, не пропускает такты и эффективно загружается в BOINC проектах, которые к этому чувствительны. Например у меня RTX 4090 на PrimeGrid ест 450Ватт, а на Einstein только 250. По сути половину времени ядра скорее всего простаивают, котому что ждут данных из памяти.

Проекты, где iGPU из 395 Strix Halo работает хорошо:
- Einstein@Home (OpenCL‑AMD)
- Amicable Numbers (OpenCL, ≥2 ГБ VRAM/UMA).
- PrimeGrid (OpenCL‑AMD)
- NumberFields@home (OpenCL)

Энергопотребление и охлаждение: 395 vs 9950X (и когда активна iGPU)
- CPU‑нагрузки (без учёта iGPU): у Ryzen AI Max+ 395 средняя потребляемая мощность CPU/SoC в крупных наборах тестов доходит до ~120 Вт. У Ryzen 9 9950X до ~205 Вт. При этом 395 даёт ~95 % производительности 9950X на CPU‑задачах.
- GPU‑нагрузки iGPU 395 потребляет ~74 Вт
- Про охлаждение: настольные мини‑ПК с Ryzen AI Max+ 395 на воздушном охлаждении справляются без троттлинга; тепловыделение при CPU+GPU нагрузке примерное такое же, как у 9950X при CPU‑only нагрузке. Поэтому на практике охлаждать 395 проще pof счёт большей площади чипа.

Итог: брать, но только если нужна и для других задач.
Чисто для BOINC топовые CPU и GPU будут намного выгоднее по PPD на рубль.

По возможности дополнять миниПК дискретной видеокартой: это будет не так просто, потому что специальных док-станций пока нет. Надёжной альтренативной пока является Beelink GTi‑линейка + EX Pro Dock (прямой PCIe 5.0 ×8, БП 600 Вт), где можно нормально подключить внешнюю видеокарту почти любой мощности.

#boinc #советы
👍4
Не слишком ли сложными стали посты? Есть вариант делить мысль на части, но я сам мыслю категориями полноценного разбора, поэтому пишу подробно.
С другой стороны вижу, что структура последнего поста недостаточно чёткая.
Вероятно лучше всего писать полноценно, но яснее, структурнее, да?
Наш человек допиливает BOINC под Windows

Речь про Ауфара (ник: AufarZakiev). За последние недели он отправил три PR в клиент BOINC и ещё один большой висит открытым – всё про Windows‑клиент.
Ставьте like, star, follow;)

Что именно сделал

🛠️ Починил зависание при отключении WSL
Когда на Windows сначала стоял WSL (часто вместе с Docker), а потом его отключали, BOINC мог намертво зависать. PR Fix deadlock on WSL removal after installing Docker (#6663) заставляет клиента спокойно игнорировать отсутствие WSL и работать дальше, вместо того чтобы падать в драму.

🛠️ Сделал BOINC‑сервис умнее в отношении WSL
WSL‑детект лезет в HKEY_CURRENT_USER, а у Windows‑сервиса этого профиля просто нет. В PR Skip WSL discovery and fix logging for BOINC running as service (#6720) BOINC в сервисном режиме перестаёт пытаться искать WSL и больше не засоряет логи странными сообщениями про «нет дистрибутивов». Клиент стал стабильнее и чище в логах.

🛠️ Подчистил UX в Simple View
В Simple View можно менять скины, но меню при этом раньше не обновлялось – подписи и пункты жили своей жизнью. PR Menu items sync on skin change (#6657) просто пересоздаёт меню при смене скина. Никакого оверинжиниринга, только нормальное поведение UI.

🛠️ В процессе – тёмная тема для Windows‑клиента
Открытый draft‑PR Add Dark Mode support for Windows (#6666 – зацените номер пулл реквеста!):
– обновляет версию wxWidgets;
– подхватывает системную тему Windows;
– аккуратно перекрашивает графики, прогресс‑бары и список уведомлений под тёмный режим;
– временно обходится без глючного IsDark() на Win 11 и читает настройки из реестра. PR ещё обсуждается, но по скринам уже выглядит как нормальный современный клиент.
GitHub

Уже закрытые PR: https://github.com/BOINC/boinc/pulls?q=is%3Apr+author%3AAufarZakiev+is%3Aclosed

Work in progress: https://github.com/BOINC/boinc/pull/6666

Один человек из нашего коммьюнити за пару недель делает BOINC под Windows чуть менее «олдскульным артефактом» и чуть более живым приложением.

Для тех, кто тоже хочет оставить свой след в BOINC, алгоритм очень простой:
– открыть вики Contributing code to BOINC: https://github.com/BOINC/boinc/wiki/Contributing-code-to-BOINC
– выбрать issue в https://github.com/BOINC/boinc/issues
– написать в комментарии, что планируется сделать и в какие сроки;
– собрать, протестировать, отправить PR по их гайдлайну; мейнтейнеры ревьюят и, если всё ок, мёрджат.

Начинать необязательно с глубоких C++‑потрохов: в BOINC хватает задач по UI/UX, логике клиента, локали и документации. Главное – взяться за что‑то конкретное и довести до PR, как это сделал Aufar.

P.S. Я там тоже немного PR покидал успешно, но то были мелочи. Скорее чистка перышек, а не реальные изменения.
🔥3
#einstein

Einstein@Home нашёл новые пульсары

25 сентября 2025 вышла свежая работа (arXiv:2509.21307) — проект Einstein@Home нашёл четыре новых гамма-пульсара, включая один миллисекундный, с помощью добровольных вычислений.
Да-да, эти открытия сделали обычные ПК и GPU людей по всему миру.

Ключевое:
Данные — с телескопа Fermi LAT.
Один пульсар всего в 0,93° от центра Галактики.
Все четыре — «немые» в радио, их раньше просто не замечали.
Расчёты шли на ~30 000 машин, объединённых в распределённый кластер через BOINC.
И это не игрушка — публикация в рефери-журнале.
Любопытно, что метод поиска использовал фазовое вычитание, чтобы отделить слабый сигнал от фона центра Галактики — почти как в AI-детекции шумных данных.

Мораль: если дома стоит без дела мощная видеокарта, она может не только простаивать 99% времени, но и внести вклад в науку.
🔥6
2509.21307v1.pdf
3.9 MB
Сама опубликованная работа 👆