#rosetta
Rosetta@home статус проекта
Работает через BOINC, использует только процессор. GPU пока не задействованы, хотя для подобного класса задач GPU был бы очень полезен.
По состоянию на 4 марта 2025 года обсуждается запуск GPU-вариантов для задач виртуального скрининга и моделирования пептидов.
Иногда нет заданий («No tasks available») — это нормально, зависит от активности серверов.
Иногда случаются ошибки загрузки заданий («feeder error»), что связано с ограниченным администрированием проекта.
Память: от 200 МБ до 3–4 ГБ на задачу.
Rosetta@home статус проекта
Работает через BOINC, использует только процессор. GPU пока не задействованы, хотя для подобного класса задач GPU был бы очень полезен.
По состоянию на 4 марта 2025 года обсуждается запуск GPU-вариантов для задач виртуального скрининга и моделирования пептидов.
Иногда нет заданий («No tasks available») — это нормально, зависит от активности серверов.
Иногда случаются ошибки загрузки заданий («feeder error»), что связано с ограниченным администрированием проекта.
Память: от 200 МБ до 3–4 ГБ на задачу.
Я бы сейчас не рекомендовал участвовать в проекте
❤1🔥1🎉1
🏁 Formula BOINC: кто лидирует сейчас
Срез на 10 октября 2025 – коротко и по делу, без лишнего пафоса.
Общий зачёт (Overall):
Planet 3DNow! – 817
Ukraine – 645
L’Alliance Francophone – 555(https://www.formula-boinc.org/)
Марафон (Marathon):
Planet 3DNow! – 404
L’Alliance Francophone – 366
Ukraine – 324(https://www.formula-boinc.org/marathons.py?division=1&race=0&standing=team)
Спринт (Sprint):
Planet 3DNow! – 413
Ukraine – 321
SETI.USA – 262
NoTEAM – 217
L’Alliance Francophone – 189(https://www.formula-boinc.org/sprints.py?division=1&race=0&standing=team)
🔜 Ближайший спринт: 16–19 октября (UTC). Проект объявят в момент старта
(https://www.formula-boinc.org/sprints.py?division=1&race=0&standing=team)
🙋 Хочется в гонку? Регистрация команд и участников тут:
(https://www.formula-boinc.org/howtoregister.py)
#LHC
LHC@home запустил в бету новый проект Xtrack (https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=6387), но поддержка BOINC неполная.
Добровольцы могут поучаствовать в вычислениях CERN с новым приложением Xtrack – частью современного набора инструментов Xsuite для моделирования пучков частиц (https://github.com/xsuite/xtrack).
Что нового:
– 🚀 Современная архитектура: Python + C, рассчитана на многопоточность и GPU.
– Физика следующего уровня: коллимация, взаимодействие пучков с материалом, уточнённое моделирование потерь частиц.
– Работает как на Linux, так и на Windows – теперь не только для серверов CERN, но и для домашних ПК.
– Интеграция с BOINC: можно запускать симуляции прямо через LHC@home (https://lhcathome.cern.ch/lhcathome/).
– В LHC@home доступны CPU‑сборки для Windows и Linux (XTrack (beta test)). GPU и macOS пока нет.
Поддержка неполная: текущая BOINC‑версия Xtrack — однопоточная CPU; GPU/мультикор заложены в Xtrack, но требуют другой схемы сборки для BOINC и пока не включены.
Больше деталей — в докладе на Indico CERN (https://indico.cern.ch/event/1211085/contributions/5093595/attachments/2540891/4404886/016_xsuite_status.pdf) и на InspireHEP (https://inspirehep.net/literature/2776105).
Бета запущена 16 сентября 2025, задачи уже появляются.
Если комп мощный – включайся в распределённые вычисления CERN ⚡
LHC@home запустил в бету новый проект Xtrack (https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=6387), но поддержка BOINC неполная.
Добровольцы могут поучаствовать в вычислениях CERN с новым приложением Xtrack – частью современного набора инструментов Xsuite для моделирования пучков частиц (https://github.com/xsuite/xtrack).
Что нового:
– 🚀 Современная архитектура: Python + C, рассчитана на многопоточность и GPU.
– Физика следующего уровня: коллимация, взаимодействие пучков с материалом, уточнённое моделирование потерь частиц.
– Работает как на Linux, так и на Windows – теперь не только для серверов CERN, но и для домашних ПК.
– Интеграция с BOINC: можно запускать симуляции прямо через LHC@home (https://lhcathome.cern.ch/lhcathome/).
– В LHC@home доступны CPU‑сборки для Windows и Linux (XTrack (beta test)). GPU и macOS пока нет.
Поддержка неполная: текущая BOINC‑версия Xtrack — однопоточная CPU; GPU/мультикор заложены в Xtrack, но требуют другой схемы сборки для BOINC и пока не включены.
Больше деталей — в докладе на Indico CERN (https://indico.cern.ch/event/1211085/contributions/5093595/attachments/2540891/4404886/016_xsuite_status.pdf) и на InspireHEP (https://inspirehep.net/literature/2776105).
Бета запущена 16 сентября 2025, задачи уже появляются.
Если комп мощный – включайся в распределённые вычисления CERN ⚡
🔥6❤1
#домашнаялаборатория
Бесплатный апгрейд эффективности через undervolt на GPU
Самая понятная оптимизация для кранчинга – снизить напряжение на видеокарте. Многие GPU держат те же частоты на меньшем вольтаже – меньше ватт, ниже температура и шум, PPD (points per day) почти не падает.
Обьяснение
Та же частота при меньшем вольтаже → та же скорость расчётов, но меньше потребление. В кранчинге это особенно заметно на тяжёлых WU.
Как сделать (Windows, NVIDIA, MSI Afterburner)
1. Запустить Afterburner → Ctrl+F (Voltage/Frequency Curve).
2. Выбрать рабочую частоту под нагрузкой и зафиксировать её на ~0.90–0.95 V.
3. Выровнять участок кривой вокруг выбранной точки, нажать Apply.
4. Прогнать несколько часов реальных WU: следить за стабильностью, что все задачи подходят без ошибок.
Ожидаемый эффект
– Уменьшение потребления при сохранении частоты.
– Тише и холоднее;
– Рост PPD/Вт заметный, особенно на долгих задачах.
Альтернатива
Понижение напряжения снижает температуру, на хороших видеокартах это позволяет поднять чистоту, иногда на ~200MHz. То есть и еще и быстрее будет считать.
P.S. Кранчинг – марафон, не спринт. Тише едет тот, кто эффективнее считает.
Тот же эффект есть и на CPU, там надо андервольтить через BIOS, если позволяет материнская плата.
#gpu
Бесплатный апгрейд эффективности через undervolt на GPU
Самая понятная оптимизация для кранчинга – снизить напряжение на видеокарте. Многие GPU держат те же частоты на меньшем вольтаже – меньше ватт, ниже температура и шум, PPD (points per day) почти не падает.
Обьяснение
Та же частота при меньшем вольтаже → та же скорость расчётов, но меньше потребление. В кранчинге это особенно заметно на тяжёлых WU.
Как сделать (Windows, NVIDIA, MSI Afterburner)
1. Запустить Afterburner → Ctrl+F (Voltage/Frequency Curve).
2. Выбрать рабочую частоту под нагрузкой и зафиксировать её на ~0.90–0.95 V.
3. Выровнять участок кривой вокруг выбранной точки, нажать Apply.
4. Прогнать несколько часов реальных WU: следить за стабильностью, что все задачи подходят без ошибок.
Ожидаемый эффект
– Уменьшение потребления при сохранении частоты.
– Тише и холоднее;
– Рост PPD/Вт заметный, особенно на долгих задачах.
Альтернатива
Понижение напряжения снижает температуру, на хороших видеокартах это позволяет поднять чистоту, иногда на ~200MHz. То есть и еще и быстрее будет считать.
P.S. Кранчинг – марафон, не спринт. Тише едет тот, кто эффективнее считает.
Тот же эффект есть и на CPU, там надо андервольтить через BIOS, если позволяет материнская плата.
#gpu
❤4👍2
#домашнаялаборатория
Использовать Spark для BOINC нет смысла, несмотря на наличие CUDA ядер. Он определяется во многих проектах как generic GPU for Linux и не получает задания. А где получает (Asteroids, например), то работает отнсительно медленно, потому что GPU проекты в BOINC как правило зависимы от скорости памяти. То есть основное преимущество Spark (объём видеопамяти) не используется, а основной недостаток (скорость видеопамяти) понижает эффективность.
Может в PrimeGrid или Amicable (где скорость памяти не критича) он будет полезен, но в целом вряд ли будет лучше обычной домашней системы с GPU:
Использовать Spark для BOINC нет смысла, несмотря на наличие CUDA ядер. Он определяется во многих проектах как generic GPU for Linux и не получает задания. А где получает (Asteroids, например), то работает отнсительно медленно, потому что GPU проекты в BOINC как правило зависимы от скорости памяти. То есть основное преимущество Spark (объём видеопамяти) не используется, а основной недостаток (скорость видеопамяти) понижает эффективность.
Может в PrimeGrid или Amicable (где скорость памяти не критича) он будет полезен, но в целом вряд ли будет лучше обычной домашней системы с GPU:
Forwarded from Закиев Василь. (AI)ron manager (Vasil Zakiev)
Собираем домашний LLM‑сервер
Неделя вышла плотной, писал мало. Исправляюсь: поизучал «настольный» DGX Spark от Nvidia. Мини-компьютер как базу для домашнего LLM‑сервера .
Короткий вывод: Spark — это про объёмные модели, а не про скорость генерации. Для повседневного офлайнового инференса компактнее и быстрее обычный ПК или мини‑ПК + внешний док под десктоп‑GPU. Выйдет быстрее и дешевле.
Почему так
– У Spark 128 ГБ унифицированной памяти, поэтому влезут большие модели. Их ещё можно объединять в ферму по оптике (кабель 15000₽), а значит доступной памяти станет больше. Для сравнения у RTX 4090 будет 24GB, у 5090 будет 32 ГБ.
– Но память LPDDR5x ~273 ГБ/с — скорость памяти станет узким местом для быстрой работы ИИ. Для сравнени RTX 5090 используется GDDR7 с ~1.8 ТБ/с, почти на порядок быстрее.
– Цена: Spark — $3 999. За те же деньги можно укомплектовать мини‑ПК + док + 5080 (а если повезёт — и 5090), получив почти на порядок более высокую скорость работы ИИ.
– Spark логичен, когда нужна ёмкость: дообучение (LoRA/QLoRA) и работа с большими моделями 70b–200b
Альтренативы для дома:
🛠️ Beelink GTi‑линейка + EX Pro Dock (прямой PCIe 5.0 ×8, БП 600 Вт
🛠️ GPU:
– RTX 5090 — максимум по скоростям, но близко к лимиту по питанию дока и может не влезть по размерам, надо смотреть по производителю
– RTX 5080 — проще по теплу/ваттам, 16 ГБ достаточно для 8–14и моделей и аккуратно подобранных 30–33b моделей
Вывод
Для «домашнего/офисного» LLM‑сервера я бы не покупал Spark. Скорее — мини‑ПК + док + 5080/5090 или собирал бы обычный домашний компьютер. Spark нужен тем, кому важнее влезть в очень большие модели или обучать их. Пусть и медленно
##ИИ
Неделя вышла плотной, писал мало. Исправляюсь: поизучал «настольный» DGX Spark от Nvidia. Мини-компьютер как базу для домашнего LLM‑сервера .
Короткий вывод: Spark — это про объёмные модели, а не про скорость генерации. Для повседневного офлайнового инференса компактнее и быстрее обычный ПК или мини‑ПК + внешний док под десктоп‑GPU. Выйдет быстрее и дешевле.
Почему так
– У Spark 128 ГБ унифицированной памяти, поэтому влезут большие модели. Их ещё можно объединять в ферму по оптике (кабель 15000₽), а значит доступной памяти станет больше. Для сравнения у RTX 4090 будет 24GB, у 5090 будет 32 ГБ.
– Но память LPDDR5x ~273 ГБ/с — скорость памяти станет узким местом для быстрой работы ИИ. Для сравнени RTX 5090 используется GDDR7 с ~1.8 ТБ/с, почти на порядок быстрее.
– Цена: Spark — $3 999. За те же деньги можно укомплектовать мини‑ПК + док + 5080 (а если повезёт — и 5090), получив почти на порядок более высокую скорость работы ИИ.
– Spark логичен, когда нужна ёмкость: дообучение (LoRA/QLoRA) и работа с большими моделями 70b–200b
Альтренативы для дома:
🛠️ Beelink GTi‑линейка + EX Pro Dock (прямой PCIe 5.0 ×8, БП 600 Вт
🛠️ GPU:
– RTX 5090 — максимум по скоростям, но близко к лимиту по питанию дока и может не влезть по размерам, надо смотреть по производителю
– RTX 5080 — проще по теплу/ваттам, 16 ГБ достаточно для 8–14и моделей и аккуратно подобранных 30–33b моделей
Вывод
Для «домашнего/офисного» LLM‑сервера я бы не покупал Spark. Скорее — мини‑ПК + док + 5080/5090 или собирал бы обычный домашний компьютер. Spark нужен тем, кому важнее влезть в очень большие модели или обучать их. Пусть и медленно
##ИИ
🔥4👍1
#PrimeGrid
Иногда в ленте PrimeGrid всплывают странные статусы новых простых чисел: PRP и Proven.
🔹 PRP (Probable Prime) — быстрый тест «похоже на простое».
Алгоритмы вроде Genefer для GFN-чисел или LLR для Proth-форм гоняют GPU и CPU, чтобы отсеять составные. Это ещё не доказательство, но вероятность ошибки меньше, чем шанс выиграть в лотерею.
🔹 Proven — уже настоящее доказательство:
через ECPP (эллиптические кривые), LLR-протоколы с верификацией или старый добрый сертификат Пратта. Тут результат можно проверить независимо — значит, простота доказана.
Разница во времени между PRP и proven — это не баг, а нормальный цикл: сначала находят кандидата, потом долго и нудно доказывают.
🔗 PrimeGrid project page: https://www.primegrid.com/
🔗 PrimeWiki (объяснение статусов): https://www.primegrid.com/wiki/
🔗 ECPP алгоритм на MathWorld: https://mathworld.wolfram.com/EllipticCurvePrimalityProving.html
Иногда в ленте PrimeGrid всплывают странные статусы новых простых чисел: PRP и Proven.
🔹 PRP (Probable Prime) — быстрый тест «похоже на простое».
Алгоритмы вроде Genefer для GFN-чисел или LLR для Proth-форм гоняют GPU и CPU, чтобы отсеять составные. Это ещё не доказательство, но вероятность ошибки меньше, чем шанс выиграть в лотерею.
🔹 Proven — уже настоящее доказательство:
через ECPP (эллиптические кривые), LLR-протоколы с верификацией или старый добрый сертификат Пратта. Тут результат можно проверить независимо — значит, простота доказана.
Разница во времени между PRP и proven — это не баг, а нормальный цикл: сначала находят кандидата, потом долго и нудно доказывают.
🔗 PrimeGrid project page: https://www.primegrid.com/
🔗 PrimeWiki (объяснение статусов): https://www.primegrid.com/wiki/
🔗 ECPP алгоритм на MathWorld: https://mathworld.wolfram.com/EllipticCurvePrimalityProving.html
👍2🔥2
Помочь Карибам после урагана
Zooniverse запустил срочный проект по анализу спутниковых снимков после урагана Melissa (категория 5).
Нужно быстро определить, где дороги, мосты, аэропорты и порты разрушены или заблокированы — чтобы гуманитарные службы могли планировать маршруты доставки помощи.
🛰️ Данные — от Planet Labs, разрешение 3 м.
🎯 Задача — отметить на фото, где есть обломки, затопления или разрушения.
📍 Даже если сомневаетесь — всё равно классифицируйте: каждый снимок проверяют несколько участников.
Проект здесь: zooniverse.org/projects/alicemead/planetary-response-network-hurricane-melissa-2025/classify
Ураган прошёл через Ямайку, Кубу, Гаити и Доминикану – и сейчас помощь зависит от того, как быстро волонтёры помогут разметить снимки.
Zooniverse запустил срочный проект по анализу спутниковых снимков после урагана Melissa (категория 5).
Нужно быстро определить, где дороги, мосты, аэропорты и порты разрушены или заблокированы — чтобы гуманитарные службы могли планировать маршруты доставки помощи.
🛰️ Данные — от Planet Labs, разрешение 3 м.
🎯 Задача — отметить на фото, где есть обломки, затопления или разрушения.
📍 Даже если сомневаетесь — всё равно классифицируйте: каждый снимок проверяют несколько участников.
Проект здесь: zooniverse.org/projects/alicemead/planetary-response-network-hurricane-melissa-2025/classify
Ураган прошёл через Ямайку, Кубу, Гаити и Доминикану – и сейчас помощь зависит от того, как быстро волонтёры помогут разметить снимки.
🔥3👍1
#folding
В логе каждой рабочей единицы (WU) есть идентификатор PRCG — это четыре числа:
Project – номер проекта,
Run,
Clone,
Generation.
Он выглядит так: PRCG: 13422 (R 24, C 7, G 156) или в коротком виде 13422,24,7,156.
Зачем сохранять PRCG
По номеру проекта (P) легко найти описание на сайте FAH и в трекерах задач (какой белок/модель, какие параметры симуляции).
Зная P, можно искать публикации авторской группы в разделах «Papers/Publications» и собирать именно те статьи, куда ушли ваши расчёты.
Вариант реализации
Включить подробные логи в FAHClient (в BOINC не получится насколько я понимаю) и парсить строки с PRCG.
Автоматически писать каждую завершённую WU в CSV: timestamp, slot, gpu/cpu, PRCG, ETA, PPD, core, result.
На каждое новое P (project) — добавлять ссылку на страницу проекта и список статей группы (поле “notes/links”).
Или вручную через LOG Viewer прямо в клиенте FAH, как на фото.
В логе каждой рабочей единицы (WU) есть идентификатор PRCG — это четыре числа:
Project – номер проекта,
Run,
Clone,
Generation.
Он выглядит так: PRCG: 13422 (R 24, C 7, G 156) или в коротком виде 13422,24,7,156.
Зачем сохранять PRCG
По номеру проекта (P) легко найти описание на сайте FAH и в трекерах задач (какой белок/модель, какие параметры симуляции).
Зная P, можно искать публикации авторской группы в разделах «Papers/Publications» и собирать именно те статьи, куда ушли ваши расчёты.
Вариант реализации
Включить подробные логи в FAHClient (в BOINC не получится насколько я понимаю) и парсить строки с PRCG.
Автоматически писать каждую завершённую WU в CSV: timestamp, slot, gpu/cpu, PRCG, ETA, PPD, core, result.
На каждое новое P (project) — добавлять ссылку на страницу проекта и список статей группы (поле “notes/links”).
Или вручную через LOG Viewer прямо в клиенте FAH, как на фото.
🔥2👍1
#LODA
LODA: что кранчат добровольцы в этом проекте и зачем это нужно
LODA — это одновременно:
– минималистичный язык наподобие ассемблера для целочисленных последовательностей,
– инструментарий для их исполнения и оптимизации,
– и BOINC-проект для распределённого поиска (майнинга) коротких программ, воспроизводящих последовательности из OEIS (https://oeis.org/).
Цель проекта — найти новые формулы и более эффективные алгоритмы для широкого спектра нетривиальных целочисленных последовательностей.
3 октября 2025 LODA объявил о важной вехе — найдено свыше 140 000 программ (https://boinc.loda-lang.org/loda/).
Параллельно сообщено о запуске публичного API (https://boinc.loda-lang.org/loda/api)
и интеграции через Model Context Protocol (MCP) (https://loda-lang.org/connect/#model-context-protocol-mcp). Теперь к базе можно обращаться и из чат-агентов
Как работает LODA по шагам:
1. Перебор коротких программ. Программа LODA на компьютерых добровольцев автоматически и систематически порождает компактные программы на языке LODA (описание языка: https://loda-lang.org/).
2. Сравнение с OEIS. Результаты проверяются с каталогом OEIS (https://oeis.org/). Совпадения сохраняются в репозиторий — расширяя покрытие последовательностей.
3. Отбор и оптимизация. Инструмент loda-cpp (https://github.com/loda-lang/loda-cpp) умеет майнить, проверять и экспортировать найденные решения, включая генерацию формул и кода для PARI/GP (https://pari.math.u-bordeaux.fr/).
4. Композиция решений. Программы могут вызывать другие последовательности (seq), комбинируя найденные блоки (пример: https://github.com/loda-lang/loda-programs).
5. Открытая база. Репозиторий всех найденных программ доступен здесь: https://github.com/loda-lang/loda-programs
Кому это полезно?
Математикам и редакторам OEIS.
LODA предоставляет исполняемые описания последовательностей, упрощающие проверку, генерацию длинных b-файлов и поиск новых формул. Авторы проекта подчёркивают: найденная программа — это гипотеза, требующая проверки человеком, потому что совпадение с OEIS не является доказательством корректности «для всех n».
Исследователям ИИ и синтеза программ.
LODA — площадка для авто-синтеза и тестирования алгоритмов. Благодаря MCP-интеграции теперь можно использовать базу прямо из ИИ-агентов.
Добровольцам BOINC.
Участники могут подключить CPU-ресурсы через BOINC (https://boinc.berkeley.edu/). Приложение LODA поддерживает Windows, macOS и Linux (включая ARM).
Преподавателям и популяризаторам.
Проект делает наглядной связь между комбинаторикой и программированием: от таблицы OEIS → кода → формулы.
Почему важна отметка 140 000+ программ
– Существенно увеличено покрытие OEIS программами, где раньше решений не было.
– Ускорена проверка гипотез и генерация новых термов.
– Через API и MCP база становится машинно-ориентированной: можно интегрировать её в собственные инструменты анализа.
Как присоединиться
1. Установить BOINC (https://boinc.berkeley.edu/download.php).
2. Добавить проект LODA через менеджер или напрямую: https://boinc.loda-lang.org/loda/.
Проект активно развивается: документация языка (https://loda-lang.org/docs/) и инструменты регулярно обновляются.
LODA: что кранчат добровольцы в этом проекте и зачем это нужно
LODA — это одновременно:
– минималистичный язык наподобие ассемблера для целочисленных последовательностей,
– инструментарий для их исполнения и оптимизации,
– и BOINC-проект для распределённого поиска (майнинга) коротких программ, воспроизводящих последовательности из OEIS (https://oeis.org/).
Цель проекта — найти новые формулы и более эффективные алгоритмы для широкого спектра нетривиальных целочисленных последовательностей.
3 октября 2025 LODA объявил о важной вехе — найдено свыше 140 000 программ (https://boinc.loda-lang.org/loda/).
Параллельно сообщено о запуске публичного API (https://boinc.loda-lang.org/loda/api)
и интеграции через Model Context Protocol (MCP) (https://loda-lang.org/connect/#model-context-protocol-mcp). Теперь к базе можно обращаться и из чат-агентов
Как работает LODA по шагам:
1. Перебор коротких программ. Программа LODA на компьютерых добровольцев автоматически и систематически порождает компактные программы на языке LODA (описание языка: https://loda-lang.org/).
2. Сравнение с OEIS. Результаты проверяются с каталогом OEIS (https://oeis.org/). Совпадения сохраняются в репозиторий — расширяя покрытие последовательностей.
3. Отбор и оптимизация. Инструмент loda-cpp (https://github.com/loda-lang/loda-cpp) умеет майнить, проверять и экспортировать найденные решения, включая генерацию формул и кода для PARI/GP (https://pari.math.u-bordeaux.fr/).
4. Композиция решений. Программы могут вызывать другие последовательности (seq), комбинируя найденные блоки (пример: https://github.com/loda-lang/loda-programs).
5. Открытая база. Репозиторий всех найденных программ доступен здесь: https://github.com/loda-lang/loda-programs
Кому это полезно?
Математикам и редакторам OEIS.
LODA предоставляет исполняемые описания последовательностей, упрощающие проверку, генерацию длинных b-файлов и поиск новых формул. Авторы проекта подчёркивают: найденная программа — это гипотеза, требующая проверки человеком, потому что совпадение с OEIS не является доказательством корректности «для всех n».
Исследователям ИИ и синтеза программ.
LODA — площадка для авто-синтеза и тестирования алгоритмов. Благодаря MCP-интеграции теперь можно использовать базу прямо из ИИ-агентов.
Добровольцам BOINC.
Участники могут подключить CPU-ресурсы через BOINC (https://boinc.berkeley.edu/). Приложение LODA поддерживает Windows, macOS и Linux (включая ARM).
Преподавателям и популяризаторам.
Проект делает наглядной связь между комбинаторикой и программированием: от таблицы OEIS → кода → формулы.
Почему важна отметка 140 000+ программ
– Существенно увеличено покрытие OEIS программами, где раньше решений не было.
– Ускорена проверка гипотез и генерация новых термов.
– Через API и MCP база становится машинно-ориентированной: можно интегрировать её в собственные инструменты анализа.
Как присоединиться
1. Установить BOINC (https://boinc.berkeley.edu/download.php).
2. Добавить проект LODA через менеджер или напрямую: https://boinc.loda-lang.org/loda/.
Проект активно развивается: документация языка (https://loda-lang.org/docs/) и инструменты регулярно обновляются.
🔥6
#PrimeGrid
PrimeGrid сообщил о новом крупном результате в поиске больших простых чисел
14 октября проект объявил о нахождении первого известного простого числа семейства GFN-21 длиной около 13 млн цифр. Этот результат сразу выводит число в шестерку крупнейших обнаруженных простых и закрывает давний «пробел» в линейке GFN-семейств.
GFN-числа (обобщённые числа Ферма) строятся по фиксированному уровню
𝑛
n при переборе основания
𝑏
b. Для уровня 21 до сих пор не было ни одного подтверждённого простого — теперь ситуация изменилась.
Одновременно PrimeGrid возобновил поиск на уровне GFN-22. Это уже следующий порядок масштабов — кандидаты около 23 млн цифр и выше, стартовая точка поиска обозначена как b=400000. Все вычисления традиционно выполняются распределённой сетью участников BOINC.
Для тех, кто использует PrimeGrid, это означает появление нового объёма задач и реальный шанс поучаствовать в открытии следующего крупного простого числа.
Источники:
https://www.primegrid.com/forum_thread.php?id=12993
https://www.primegrid.com/gfn_history.php#n21
PrimeGrid сообщил о новом крупном результате в поиске больших простых чисел
14 октября проект объявил о нахождении первого известного простого числа семейства GFN-21 длиной около 13 млн цифр. Этот результат сразу выводит число в шестерку крупнейших обнаруженных простых и закрывает давний «пробел» в линейке GFN-семейств.
GFN-числа (обобщённые числа Ферма) строятся по фиксированному уровню
𝑛
n при переборе основания
𝑏
b. Для уровня 21 до сих пор не было ни одного подтверждённого простого — теперь ситуация изменилась.
Одновременно PrimeGrid возобновил поиск на уровне GFN-22. Это уже следующий порядок масштабов — кандидаты около 23 млн цифр и выше, стартовая точка поиска обозначена как b=400000. Все вычисления традиционно выполняются распределённой сетью участников BOINC.
Для тех, кто использует PrimeGrid, это означает появление нового объёма задач и реальный шанс поучаствовать в открытии следующего крупного простого числа.
Источники:
https://www.primegrid.com/forum_thread.php?id=12993
https://www.primegrid.com/gfn_history.php#n21
🔥2
#PrimeGrid
🔢 Новый рекорд PrimeGrid: крупнейшие обобщённое простое число Каллена
16 апреля 2025 года проект PrimeGrid объявил о находке нового рекордного простого числа вида
n · b^n + 1:
4052186 · 69⁴⁰⁵²¹⁸⁶ + 1
(https://www.primegrid.com/forum_thread.php?id=11337)
Это число состоит из 7 451 366 цифр и стало крупнейшим известным обобщённым числом Каллена (generalized Cullen prime).
В общем рейтинге простых чисел оно заняло 16-е место
(страница на The Prime Pages: https://t5k.org/primes/page.php?id=140607).
🧠 Что такое обобщённое число Каллена
Классические числа Каллена имеют вид
n · 2^n + 1.
Если заменить 2 на любое другое основание b, получаем обобщённые числа Каллена —
n · b^n + 1.
Такие числа крайне редко оказываются простыми. Проверка каждого кандидата требует огромных вычислительных мощностей, поэтому подобные открытия происходят почти исключительно в рамках распределённых проектов вроде PrimeGrid.
Как проходило открытие
Найдено: 16 апреля 2025, 11:37:45 UTC
Проверено: 17 апреля 2025
Автор: Mark Williams (TeAm AnandTech)
Метод: PRST (Prime Reciprocal Square Test)
Оборудование:
AMD EPYC 9554, 8 ядер — ~10 ч 15 мин
Ryzen 9 7950X3D, 8 ядер — ~12 ч 32 мин
Подробности: официальный отчёт PrimeGrid
https://www.primegrid.com/download/GC69-4052186.pdf
До этого база 69 считалась «пустой» — не существовало ни одного известного простого числа формы
n · 69^n + 1.
Теперь она закрыта — найден первый представитель.
Контекст и значение
Этот результат получен в рамках проекта Generalized Cullen/Woodall Prime Search
(описание: https://www.rieselprime.de/ziki/PrimeGrid_Generalized_Cullen_Prime_Search).
Проект объединяет тысячи добровольцев, предоставляющих свои процессоры для вычислений. Так, обычные пользователи помогают искать редчайшие простые числа, которые невозможно было бы найти даже на мощных суперкомпьютерах в одиночку.
Как поучаствовать
PrimeGrid работает через платформу BOINC.
Достаточно установить клиент и выбрать проект PrimeGrid — программа сама загрузит задания для CPU или GPU.
BOINC: https://boinc.berkeley.edu
PrimeGrid: https://www.primegrid.com
🔢 Новый рекорд PrimeGrid: крупнейшие обобщённое простое число Каллена
16 апреля 2025 года проект PrimeGrid объявил о находке нового рекордного простого числа вида
n · b^n + 1:
4052186 · 69⁴⁰⁵²¹⁸⁶ + 1
(https://www.primegrid.com/forum_thread.php?id=11337)
Это число состоит из 7 451 366 цифр и стало крупнейшим известным обобщённым числом Каллена (generalized Cullen prime).
В общем рейтинге простых чисел оно заняло 16-е место
(страница на The Prime Pages: https://t5k.org/primes/page.php?id=140607).
🧠 Что такое обобщённое число Каллена
Классические числа Каллена имеют вид
n · 2^n + 1.
Если заменить 2 на любое другое основание b, получаем обобщённые числа Каллена —
n · b^n + 1.
Такие числа крайне редко оказываются простыми. Проверка каждого кандидата требует огромных вычислительных мощностей, поэтому подобные открытия происходят почти исключительно в рамках распределённых проектов вроде PrimeGrid.
Как проходило открытие
Найдено: 16 апреля 2025, 11:37:45 UTC
Проверено: 17 апреля 2025
Автор: Mark Williams (TeAm AnandTech)
Метод: PRST (Prime Reciprocal Square Test)
Оборудование:
AMD EPYC 9554, 8 ядер — ~10 ч 15 мин
Ryzen 9 7950X3D, 8 ядер — ~12 ч 32 мин
Подробности: официальный отчёт PrimeGrid
https://www.primegrid.com/download/GC69-4052186.pdf
До этого база 69 считалась «пустой» — не существовало ни одного известного простого числа формы
n · 69^n + 1.
Теперь она закрыта — найден первый представитель.
Контекст и значение
Этот результат получен в рамках проекта Generalized Cullen/Woodall Prime Search
(описание: https://www.rieselprime.de/ziki/PrimeGrid_Generalized_Cullen_Prime_Search).
Проект объединяет тысячи добровольцев, предоставляющих свои процессоры для вычислений. Так, обычные пользователи помогают искать редчайшие простые числа, которые невозможно было бы найти даже на мощных суперкомпьютерах в одиночку.
Как поучаствовать
PrimeGrid работает через платформу BOINC.
Достаточно установить клиент и выбрать проект PrimeGrid — программа сама загрузит задания для CPU или GPU.
BOINC: https://boinc.berkeley.edu
PrimeGrid: https://www.primegrid.com
🔥3
#домашнаялаборатория
Мини-ПК на базе Ryzen AI Max+ 395 – хороший выбор для BOINC-энтузиастов
Сравниваем новинку с флагманскими AMD процессорами Ryzen 7950X3D и 9950X3D
- CPU: 16(32) Zen 5‑ядер; по вычислительным рейтингам BOINC 395 в среднем где‑то рядом с Ryzen 9 7950X3D (±5–10 %), уступая 9950X/9950X3D на ~10–12 %.
- GPU: интегрированная Radeon 8060S (40 CU, RDNA 3.5, до 2.9 ГГц) + LPDDR5X‑8000, 256‑бит, до 128 ГБ общей памяти — впервые даёт уровень почтидискретной видеокарты, что позволяет полноценно считать OpenCL‑GPU проекты BOINC.
Например у меня в Ryzen 9 7950X3D тоже есть встроенная iGPU, но её включение скорее вредно, потому отбирает у CPU тепловой пакет, попускную способность и одно ядро на свою поддержку.
Встроенная в Ryzen AI Max+ 395 iGPU попадает в коридор RTX 4060 Laptop ↔ RTX 4070 Laptop.
- NPU: ИИ-ядра XDNA 2 пока не используются BOINC проектами.
- Вывод: CPU‑only проекты он делает на уровне топовых процессоров AMD предыдущего поколения, но с гораздо меньшим потреблением энергии (тише, проще охлаждать). И резко поднимает производительность за счёт GPU‑задач
Анализируем лидерборды BOINC
1) CPU‑производительность
Среда BOINC во многих проектах публикует таблицы пиковой CPU‑скорости (Whetstone GFLOPS/ядро). На них 395 (Strix Halo) в реальных задачах удерживает ~**0.9–1.0×** от десктопного 9950X; то есть близко к 7950X3D.
2) Встроенная GPU
Radeon 8060S (40 CU RDNA 3.5) в Strix Halo — это оказалась достаточно мощной iGPU. За счёт быстрой памяти и широкой LPDDR5X‑шины (256 бит, ~256 ГБ/с) и 40 CU она хорошо обеспечена данными, не пропускает такты и эффективно загружается в BOINC проектах, которые к этому чувствительны. Например у меня RTX 4090 на PrimeGrid ест 450Ватт, а на Einstein только 250. По сути половину времени ядра скорее всего простаивают, котому что ждут данных из памяти.
Проекты, где iGPU из 395 Strix Halo работает хорошо:
- Einstein@Home (OpenCL‑AMD)
- Amicable Numbers (OpenCL, ≥2 ГБ VRAM/UMA).
- PrimeGrid (OpenCL‑AMD)
- NumberFields@home (OpenCL)
Энергопотребление и охлаждение: 395 vs 9950X (и когда активна iGPU)
- CPU‑нагрузки (без учёта iGPU): у Ryzen AI Max+ 395 средняя потребляемая мощность CPU/SoC в крупных наборах тестов доходит до ~120 Вт. У Ryzen 9 9950X до ~205 Вт. При этом 395 даёт ~95 % производительности 9950X на CPU‑задачах.
- GPU‑нагрузки iGPU 395 потребляет ~74 Вт
- Про охлаждение: настольные мини‑ПК с Ryzen AI Max+ 395 на воздушном охлаждении справляются без троттлинга; тепловыделение при CPU+GPU нагрузке примерное такое же, как у 9950X при CPU‑only нагрузке. Поэтому на практике охлаждать 395 проще pof счёт большей площади чипа.
Итог: брать, но только если нужна и для других задач.
Чисто для BOINC топовые CPU и GPU будут намного выгоднее по PPD на рубль.
По возможности дополнять миниПК дискретной видеокартой: это будет не так просто, потому что специальных док-станций пока нет. Надёжной альтренативной пока является Beelink GTi‑линейка + EX Pro Dock (прямой PCIe 5.0 ×8, БП 600 Вт), где можно нормально подключить внешнюю видеокарту почти любой мощности.
#boinc #советы
Мини-ПК на базе Ryzen AI Max+ 395 – хороший выбор для BOINC-энтузиастов
Сравниваем новинку с флагманскими AMD процессорами Ryzen 7950X3D и 9950X3D
- CPU: 16(32) Zen 5‑ядер; по вычислительным рейтингам BOINC 395 в среднем где‑то рядом с Ryzen 9 7950X3D (±5–10 %), уступая 9950X/9950X3D на ~10–12 %.
- GPU: интегрированная Radeon 8060S (40 CU, RDNA 3.5, до 2.9 ГГц) + LPDDR5X‑8000, 256‑бит, до 128 ГБ общей памяти — впервые даёт уровень почтидискретной видеокарты, что позволяет полноценно считать OpenCL‑GPU проекты BOINC.
Например у меня в Ryzen 9 7950X3D тоже есть встроенная iGPU, но её включение скорее вредно, потому отбирает у CPU тепловой пакет, попускную способность и одно ядро на свою поддержку.
Встроенная в Ryzen AI Max+ 395 iGPU попадает в коридор RTX 4060 Laptop ↔ RTX 4070 Laptop.
- NPU: ИИ-ядра XDNA 2 пока не используются BOINC проектами.
- Вывод: CPU‑only проекты он делает на уровне топовых процессоров AMD предыдущего поколения, но с гораздо меньшим потреблением энергии (тише, проще охлаждать). И резко поднимает производительность за счёт GPU‑задач
Анализируем лидерборды BOINC
1) CPU‑производительность
Среда BOINC во многих проектах публикует таблицы пиковой CPU‑скорости (Whetstone GFLOPS/ядро). На них 395 (Strix Halo) в реальных задачах удерживает ~**0.9–1.0×** от десктопного 9950X; то есть близко к 7950X3D.
2) Встроенная GPU
Radeon 8060S (40 CU RDNA 3.5) в Strix Halo — это оказалась достаточно мощной iGPU. За счёт быстрой памяти и широкой LPDDR5X‑шины (256 бит, ~256 ГБ/с) и 40 CU она хорошо обеспечена данными, не пропускает такты и эффективно загружается в BOINC проектах, которые к этому чувствительны. Например у меня RTX 4090 на PrimeGrid ест 450Ватт, а на Einstein только 250. По сути половину времени ядра скорее всего простаивают, котому что ждут данных из памяти.
Проекты, где iGPU из 395 Strix Halo работает хорошо:
- Einstein@Home (OpenCL‑AMD)
- Amicable Numbers (OpenCL, ≥2 ГБ VRAM/UMA).
- PrimeGrid (OpenCL‑AMD)
- NumberFields@home (OpenCL)
Энергопотребление и охлаждение: 395 vs 9950X (и когда активна iGPU)
- CPU‑нагрузки (без учёта iGPU): у Ryzen AI Max+ 395 средняя потребляемая мощность CPU/SoC в крупных наборах тестов доходит до ~120 Вт. У Ryzen 9 9950X до ~205 Вт. При этом 395 даёт ~95 % производительности 9950X на CPU‑задачах.
- GPU‑нагрузки iGPU 395 потребляет ~74 Вт
- Про охлаждение: настольные мини‑ПК с Ryzen AI Max+ 395 на воздушном охлаждении справляются без троттлинга; тепловыделение при CPU+GPU нагрузке примерное такое же, как у 9950X при CPU‑only нагрузке. Поэтому на практике охлаждать 395 проще pof счёт большей площади чипа.
Итог: брать, но только если нужна и для других задач.
Чисто для BOINC топовые CPU и GPU будут намного выгоднее по PPD на рубль.
По возможности дополнять миниПК дискретной видеокартой: это будет не так просто, потому что специальных док-станций пока нет. Надёжной альтренативной пока является Beelink GTi‑линейка + EX Pro Dock (прямой PCIe 5.0 ×8, БП 600 Вт), где можно нормально подключить внешнюю видеокарту почти любой мощности.
#boinc #советы
👍4
Не слишком ли сложными стали посты? Есть вариант делить мысль на части, но я сам мыслю категориями полноценного разбора, поэтому пишу подробно.
С другой стороны вижу, что структура последнего поста недостаточно чёткая.
Вероятно лучше всего писать полноценно, но яснее, структурнее, да?
С другой стороны вижу, что структура последнего поста недостаточно чёткая.
Вероятно лучше всего писать полноценно, но яснее, структурнее, да?
Наш человек допиливает BOINC под Windows
Речь про Ауфара (ник: AufarZakiev). За последние недели он отправил три PR в клиент BOINC и ещё один большой висит открытым – всё про Windows‑клиент.
Ставьте like, star, follow;)
Что именно сделал
🛠️ Починил зависание при отключении WSL
Когда на Windows сначала стоял WSL (часто вместе с Docker), а потом его отключали, BOINC мог намертво зависать. PR Fix deadlock on WSL removal after installing Docker (#6663) заставляет клиента спокойно игнорировать отсутствие WSL и работать дальше, вместо того чтобы падать в драму.
🛠️ Сделал BOINC‑сервис умнее в отношении WSL
WSL‑детект лезет в HKEY_CURRENT_USER, а у Windows‑сервиса этого профиля просто нет. В PR Skip WSL discovery and fix logging for BOINC running as service (#6720) BOINC в сервисном режиме перестаёт пытаться искать WSL и больше не засоряет логи странными сообщениями про «нет дистрибутивов». Клиент стал стабильнее и чище в логах.
🛠️ Подчистил UX в Simple View
В Simple View можно менять скины, но меню при этом раньше не обновлялось – подписи и пункты жили своей жизнью. PR Menu items sync on skin change (#6657) просто пересоздаёт меню при смене скина. Никакого оверинжиниринга, только нормальное поведение UI.
🛠️ В процессе – тёмная тема для Windows‑клиента
Открытый draft‑PR Add Dark Mode support for Windows (#6666 – зацените номер пулл реквеста!):
– обновляет версию wxWidgets;
– подхватывает системную тему Windows;
– аккуратно перекрашивает графики, прогресс‑бары и список уведомлений под тёмный режим;
– временно обходится без глючного IsDark() на Win 11 и читает настройки из реестра. PR ещё обсуждается, но по скринам уже выглядит как нормальный современный клиент.
GitHub
Уже закрытые PR: https://github.com/BOINC/boinc/pulls?q=is%3Apr+author%3AAufarZakiev+is%3Aclosed
Work in progress: https://github.com/BOINC/boinc/pull/6666
Один человек из нашего коммьюнити за пару недель делает BOINC под Windows чуть менее «олдскульным артефактом» и чуть более живым приложением.
Для тех, кто тоже хочет оставить свой след в BOINC, алгоритм очень простой:
– открыть вики Contributing code to BOINC: https://github.com/BOINC/boinc/wiki/Contributing-code-to-BOINC
– выбрать issue в https://github.com/BOINC/boinc/issues
– написать в комментарии, что планируется сделать и в какие сроки;
– собрать, протестировать, отправить PR по их гайдлайну; мейнтейнеры ревьюят и, если всё ок, мёрджат.
Начинать необязательно с глубоких C++‑потрохов: в BOINC хватает задач по UI/UX, логике клиента, локали и документации. Главное – взяться за что‑то конкретное и довести до PR, как это сделал Aufar.
P.S. Я там тоже немного PR покидал успешно, но то были мелочи. Скорее чистка перышек, а не реальные изменения.
Речь про Ауфара (ник: AufarZakiev). За последние недели он отправил три PR в клиент BOINC и ещё один большой висит открытым – всё про Windows‑клиент.
Ставьте like, star, follow;)
Что именно сделал
🛠️ Починил зависание при отключении WSL
Когда на Windows сначала стоял WSL (часто вместе с Docker), а потом его отключали, BOINC мог намертво зависать. PR Fix deadlock on WSL removal after installing Docker (#6663) заставляет клиента спокойно игнорировать отсутствие WSL и работать дальше, вместо того чтобы падать в драму.
🛠️ Сделал BOINC‑сервис умнее в отношении WSL
WSL‑детект лезет в HKEY_CURRENT_USER, а у Windows‑сервиса этого профиля просто нет. В PR Skip WSL discovery and fix logging for BOINC running as service (#6720) BOINC в сервисном режиме перестаёт пытаться искать WSL и больше не засоряет логи странными сообщениями про «нет дистрибутивов». Клиент стал стабильнее и чище в логах.
🛠️ Подчистил UX в Simple View
В Simple View можно менять скины, но меню при этом раньше не обновлялось – подписи и пункты жили своей жизнью. PR Menu items sync on skin change (#6657) просто пересоздаёт меню при смене скина. Никакого оверинжиниринга, только нормальное поведение UI.
🛠️ В процессе – тёмная тема для Windows‑клиента
Открытый draft‑PR Add Dark Mode support for Windows (#6666 – зацените номер пулл реквеста!):
– обновляет версию wxWidgets;
– подхватывает системную тему Windows;
– аккуратно перекрашивает графики, прогресс‑бары и список уведомлений под тёмный режим;
– временно обходится без глючного IsDark() на Win 11 и читает настройки из реестра. PR ещё обсуждается, но по скринам уже выглядит как нормальный современный клиент.
GitHub
Уже закрытые PR: https://github.com/BOINC/boinc/pulls?q=is%3Apr+author%3AAufarZakiev+is%3Aclosed
Work in progress: https://github.com/BOINC/boinc/pull/6666
Один человек из нашего коммьюнити за пару недель делает BOINC под Windows чуть менее «олдскульным артефактом» и чуть более живым приложением.
Для тех, кто тоже хочет оставить свой след в BOINC, алгоритм очень простой:
– открыть вики Contributing code to BOINC: https://github.com/BOINC/boinc/wiki/Contributing-code-to-BOINC
– выбрать issue в https://github.com/BOINC/boinc/issues
– написать в комментарии, что планируется сделать и в какие сроки;
– собрать, протестировать, отправить PR по их гайдлайну; мейнтейнеры ревьюят и, если всё ок, мёрджат.
Начинать необязательно с глубоких C++‑потрохов: в BOINC хватает задач по UI/UX, логике клиента, локали и документации. Главное – взяться за что‑то конкретное и довести до PR, как это сделал Aufar.
P.S. Я там тоже немного PR покидал успешно, но то были мелочи. Скорее чистка перышек, а не реальные изменения.
🔥3
#einstein
Einstein@Home нашёл новые пульсары
25 сентября 2025 вышла свежая работа (arXiv:2509.21307) — проект Einstein@Home нашёл четыре новых гамма-пульсара, включая один миллисекундный, с помощью добровольных вычислений.
Да-да, эти открытия сделали обычные ПК и GPU людей по всему миру.
Ключевое:
Данные — с телескопа Fermi LAT.
Один пульсар всего в 0,93° от центра Галактики.
Все четыре — «немые» в радио, их раньше просто не замечали.
Расчёты шли на ~30 000 машин, объединённых в распределённый кластер через BOINC.
И это не игрушка — публикация в рефери-журнале.
Любопытно, что метод поиска использовал фазовое вычитание, чтобы отделить слабый сигнал от фона центра Галактики — почти как в AI-детекции шумных данных.
Мораль: если дома стоит без дела мощная видеокарта, она может не только простаивать 99% времени, но и внести вклад в науку.
Einstein@Home нашёл новые пульсары
25 сентября 2025 вышла свежая работа (arXiv:2509.21307) — проект Einstein@Home нашёл четыре новых гамма-пульсара, включая один миллисекундный, с помощью добровольных вычислений.
Да-да, эти открытия сделали обычные ПК и GPU людей по всему миру.
Ключевое:
Данные — с телескопа Fermi LAT.
Один пульсар всего в 0,93° от центра Галактики.
Все четыре — «немые» в радио, их раньше просто не замечали.
Расчёты шли на ~30 000 машин, объединённых в распределённый кластер через BOINC.
И это не игрушка — публикация в рефери-журнале.
Любопытно, что метод поиска использовал фазовое вычитание, чтобы отделить слабый сигнал от фона центра Галактики — почти как в AI-детекции шумных данных.
Мораль: если дома стоит без дела мощная видеокарта, она может не только простаивать 99% времени, но и внести вклад в науку.
🔥6
2509.21307v1.pdf
3.9 MB
Сама опубликованная работа 👆