Гридка. Канал о распределенных вычислениях и BOINC
75 subscribers
63 photos
1 video
2 files
32 links
Энтузиасты распределенных вычислений разговаривают о гридах и о BOINC. Общаемся с гостями и вместе исследуем тему.
https://gridcomputnig.mave.digital/
Предложка: @zvasilpublic
Download Telegram
Forwarded from Закиев Василь. (AI)ron manager (Vasil Zakiev)
Codex это Агент-0?

В пятницу OpenAI опубликовали инструмент Codex — облачного агента-программиста, который работает с GitHub-репозиториями. Ему можно поставить задачу, например: «Проверь кодовую базу на следование кодстайлу». Он находит ошибки, предлагает исправления, запускает тесты и сам создаёт pull request.

Плюсы: всё работает быстро, в облаке, можно запускать десятки задач параллельно.
Минусы: Работает только с Github. У агента есть интернет только на этапе настройки окружения — потом его отбирают, поэтому он не может полноценно тестировать всё подряд. Не работает с картинками, значит пока мало полезен для задач по фронтенду.

Я попробовал на практике: добавил небольшое изменение в BOINC — большой open source проект. Вот PR: https://github.com/BOINC/boinc/pull/6329

Интересно, что первичную проверку кода тоже провёл ИИ — GitHub Copilot.

Не скажу, что теперь любой может быть программистом, но окно возможностей точно стало шире. А требования к разработчикам становятся однозначно выше.

Сейчас попробую переписать весь код одного проекта с Node на Python. Если хотите, чтобы я что-то посмотрел на вашем проекте – напишите в комментариях ссылку на репозиторий и дайте доступ на wargoblin.
🔥2
Channel name was changed to «Гридка. Канал о распределенных вычислениях и BOINC»
Добровольческие распределённые вычисления – это проекты, в которых тысячи людей по всему миру жертвуют ресурсы своих персональных компьютеров для научных расчетов. К крупнейшим таким проектам относятся платформа BOINC (объединяющая множество исследований) и проект Folding@home (биомедицинические расчёты по белкам). Совокупная активная вычислительная мощность этих сетей весьма значительна, хотя и меняется со временем в зависимости от числа добровольцев.
2👍2🔥2🙏1
Гридка. Канал о распределенных вычислениях и BOINC pinned «Добровольческие распределённые вычисления – это проекты, в которых тысячи людей по всему миру жертвуют ресурсы своих персональных компьютеров для научных расчетов. К крупнейшим таким проектам относятся платформа BOINC (объединяющая множество исследований)…»
Оценка совокупной «мощности» проектов распределенных вычислений и их потенциального места в мировом топе суперкомпьютеров.

Добровольческие сети BOINC и Folding@home сейчас дают суммарно порядка 45–50 PFLOPS активной мощности — это эквивалент полноценного петафлопсного суперкомпьютера, работающего круглосуточно за счёт ресурсов тысяч обычных пользователей по всему миру.

Если такой «народный» кластер поставить в рейтинг TOP500, он оказался бы примерно на 25-м–30-м месте — выше большинства национальных машин, но далеко позади современных экзафлопсных лидеров вроде El Capitan или Frontier.
🔥7👍1
В октябре 2020 года в The Astrophysical Journal вышла статья "Discovery of a Gamma-Ray Black Widow Pulsar by GPU-accelerated Einstein@Home" посвящённая ещё одному очень интересному открытию, сделанному участниками проекта Einstein@Home - обнаружение миллисекундного гамма-пульсара с массой не менее 2M☉ (двух масс Солнца) и очень лёгким компаньоном массой всего ~0.01M☉, являющегося, однако, весьма плотным (не менее 64 г/см^3!). Причём компаньон, по видимому, постепенно испаряется пульсаром.

Источник и архив с PDF: https://vk.com/wall-34590225_848

#einstein
👍1
GRID'2025_Solving_problems_of_constructing_Latin_square_spectra.pdf
1.2 MB
Математика в тапочках

На конференции GRID’2025 в Дубне представили свежие результаты проекта RakeSearch — добровольной распределённой вычислительной сети, которая решает задачи комбинаторики на обычных домашних ПК. Доклад основателя проекта Эдуарда Ватутина — был про то, как улучшенная балансировка нагрузки помогает быстрее искать латинские квадраты со специфическими свойствами.

Я тоже участвую в этом проекте — и даже вхожу в топ‑3 добровольцев по мощности расчётов.

Что нового удалось посчитать:
– 377 674 диагональных трансверсалей у DLS порядка 14 — рекорд;
– 5995 ортогональных латинских квадратов (ODLS) для порядка 12 — тоже рекорд;
– в активных экспериментах участвуют машины из проекта RakeSearch, суммарно дающие до 12 TFLOP/s вычислительной мощности .
– часть данных получена полным перебором (brute force), часть — эвристиками M1/M2, которые перебирают «соседства» и трансформации.

📌 Для сравнения: 12 TFLOP/s — это примерно как суперкомпьютер SKIF Cyberia (входил в топ‑30 России в 2023 году) или как нижняя треть мирового рейтинга TOP500… в 2005 году. Не бог весть что по сегодняшним меркам, но это смотря с чем сравнивать.

Слайды доклада приложены в PDF.

#RakeSearch
👍8
Немного статистики о "мощности" проекта RakeSearch.

Завершение поиска с очень длинными (до 5 дней расчёта!) заданиями, который продлился с конца мая по начало августа, позволило вновь собрать данные по обработанным заданиям и обновить статистику по производительности проекта как за всё его время существования, так и за время экспериментов Эдуарда Ватутина, ставших, по сути, отдельной "инкарнацией" в жизни проекта.

Первые два графика - "мощность" в TFLOPS-ах и среднем количестве вычислительных потоков за сутки за всё время существования проекта. Глядя на первый график надо держать в уме то, что на первом этапе широко использовалось оптимизированное приложение из-за чего оценка за выполненные задания была многократно выше. Именно из-за этого в левой части первого графика наблюдаются такие большие пики.

Графики № 3 и 4 - также усреднённая за сутки мощность в TFLOPS-ах и количестве вычислительных потоков, но уже во время расчётов заданий от Эдуарда. Показатель "Среднее число CPU" был рассчитан образом, несколько отличным от того, что использовался для предыдущих графиков - для некоторых поисков, в силу особенностей взаимодействия приложения и BOINC Wrapper-а, затраченное процессорное время надо учитывать не по показателю CPU time, которое сохраняется неточно, а по показателю Elapsed time, которое его, как раз хорошо отображает. Из-за этого "зелёные графики" выглядят несколько отличными от предыдущих.

Резкое падение показателей в самом конце связано с тем, что за последние 2-3 данные ещё неполны.

Большое спасибо за поддержку всем участникам проекта!


Оригинал: https://vk.com/wall-34590225_853

#RakeSearch
👍31🔥1
#rakesearch
Эдуард Ватутин:
Напомню, что несколькими месяцами ранее была опробована стратегия построения спектров ДЛК через спектры ЛК. Ее основной идеей является использование построенного ранее опорного спектра ДЛК, рассмотрение его квадратов как ЛК (дубли на диагоналях не учитываются), расширение спектра ЛК (что само по себе тоже неплохо) и затем возврат обратно к спектру ДЛК с использованием процедуры диагонализации. Диагонализация работает до порядков N<=15, начиная с порядка N=16 и выше в ЛК становится слишком много трансверсалей и выполнить диагонализацию "в лоб" становится невозможным из-за чрезмерных вычислительных затрат (тут есть над чем подумать в перспективе в плане применения эвристических методов). Это приводит к тому, что найденные эвристические аппроксимации спектров ЛК становятся мощнее спектров ДЛК, чего не наблюдается на размерностях N<=15, что намекает на то, что скорее всего спектры ДЛК на самом деле мощнее, просто соответствующие ДЛК пока не найдены. Ну а если процедуру диагонализации выполнить невозможно (по крайней мере пока), не стоит ли поверить в удачу и попробовать поискать готовые ДЛК среди спектров ЛК. Соответствующий поиск был произведен и по его итогам оказалось, что для порядков N=20 и N=25 спектры ДЛК удается расширить:

* N=20: с 1011 до 1038 элементов;
* N=25: с 1712 до 1736 элементов.

Для других порядков данный фокус не приводит к расширению. Ну а для новых найденных элементов спектров можно выполнить уже выполнявшиеся ранее процедуры обхода окрестностей, что с высокой долей вероятности приведет к дополнительному расширению спектров, чем мы и займемся в самой ближайшей перспективе...

[upd]

В спектре числа интеркалятов в ДЛК порядка 20 теперь присутствует квадрат

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
4 2 3 0 1 9 7 8 5 6 14 12 13 10 11 18 19 16 17 15
3 4 1 2 0 8 9 6 7 5 13 14 11 12 10 19 17 18 15 16
1 3 0 4 2 6 8 5 9 7 11 13 10 14 12 17 15 19 16 18
2 0 4 1 3 7 5 9 6 8 12 10 14 11 13 16 18 15 19 17
15 16 17 18 19 11 10 13 12 14 6 5 8 7 9 0 1 2 3 4
18 19 16 17 15 14 13 12 11 10 9 8 7 6 5 4 2 3 0 1
19 17 18 15 16 12 14 10 13 11 7 9 5 8 6 3 4 1 2 0
17 15 19 16 18 10 12 11 14 13 5 7 6 9 8 1 3 0 4 2
16 18 15 19 17 13 11 14 10 12 8 6 9 5 7 2 0 4 1 3
6 5 8 7 9 1 0 3 2 4 15 16 17 18 19 10 11 12 13 14
9 8 7 6 5 4 3 2 1 0 18 19 16 17 15 14 12 13 10 11
7 9 5 8 6 2 4 0 3 1 19 17 18 15 16 13 14 11 12 10
5 7 6 9 8 0 2 1 4 3 17 15 19 16 18 11 13 10 14 12
8 6 9 5 7 3 1 4 0 2 16 18 15 19 17 12 10 14 11 13
11 10 13 12 14 15 16 17 18 19 1 0 3 2 4 5 6 7 8 9
14 13 12 11 10 18 19 16 17 15 4 3 2 1 0 9 7 8 5 6
12 14 10 13 11 19 17 18 15 16 2 4 0 3 1 8 9 6 7 5
10 12 11 14 13 17 15 19 16 18 0 2 1 4 3 6 8 5 9 7
13 11 14 10 12 16 18 15 19 17 3 1 4 0 2 7 5 9 6 8


у которого 1500 интеркалятов, что позволяет усилить установленное ранее нижнее ограничение с a(20)>=1100 до a(20)>=1500 в числовом ряду oeis.org/A307164.
👍4
#rakesearch
Эдуард Ватутин:
В результате вычислительных экспериментов со спектрами числа интеркалятов в ЛК порядка 25 найден квадрат

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
1 2 24 20 5 3 16 8 7 11 9 14 6 10 15 13 17 18 12 21 19 4 0 22 23
3 5 4 0 2 1 8 9 11 7 6 12 10 16 18 17 13 15 14 23 22 24 20 19 21
9 10 13 18 7 12 21 4 5 0 1 8 22 2 23 24 19 20 3 16 17 6 11 14 15
14 11 9 7 16 6 5 3 20 2 8 1 24 23 0 22 4 21 19 18 12 17 15 13 10
6 16 17 15 11 14 23 24 2 8 3 19 20 5 21 4 22 0 1 10 13 9 7 12 18
2 24 8 19 3 20 17 16 6 14 11 15 23 9 13 10 18 12 7 4 21 5 1 0 22
20 8 5 1 24 2 9 11 14 6 16 7 3 17 12 18 10 13 15 22 0 23 19 21 4
8 20 3 2 23 24 11 14 15 16 17 6 19 18 7 12 9 10 13 0 1 22 21 4 5
11 9 10 12 6 8 4 5 3 1 2 0 7 24 22 23 21 19 20 17 18 16 14 15 13
7 6 16 14 8 11 24 2 1 3 5 20 9 4 19 21 23 22 0 13 15 10 12 18 17
16 17 18 8 14 15 22 23 24 19 20 21 13 3 4 5 0 1 2 9 10 11 6 7 12
19 3 23 13 9 7 10 6 12 20 24 22 8 21 5 1 15 11 17 14 16 18 4 2 0
15 14 11 6 17 16 3 20 19 24 23 2 18 22 1 0 5 4 21 12 7 8 13 10 9
10 13 15 17 12 18 19 21 4 22 0 23 16 1 24 2 20 3 5 6 8 7 9 11 14
18 12 7 9 13 10 1 0 22 4 21 5 14 19 3 20 2 24 23 8 11 15 17 16 6
24 23 22 21 20 19 18 17 16 15 14 13 0 11 10 9 12 7 6 5 4 3 2 1 8
23 22 0 4 19 21 12 18 17 13 15 10 2 14 9 11 7 6 16 3 5 20 24 8 1
21 19 20 24 22 23 14 15 13 17 18 16 4 12 6 7 11 9 10 1 2 0 8 5 3
13 15 14 16 18 17 20 19 21 23 22 24 1 0 2 8 3 5 4 7 6 12 10 9 11
17 18 12 10 15 13 0 22 23 21 19 4 5 20 8 3 1 2 24 11 9 14 16 6 7
12 7 6 11 10 9 2 1 0 5 4 3 21 8 20 19 24 23 22 15 14 13 18 17 16
22 0 1 5 21 4 7 12 18 10 13 9 17 15 11 14 6 16 8 20 3 19 23 24 2
4 21 19 23 0 22 15 13 10 18 12 17 11 7 16 6 14 8 9 2 24 1 5 3 20
5 4 21 22 1 0 13 10 9 12 7 18 15 6 17 16 8 14 11 24 23 2 3 20 19


У которого 1888 интеркалятов, что позволяет усилить установленное ранее нижнее ограничение с a(25)>=1700 до a(25)>=1888 в числовом ряду oeis.org/A092237. Мощность соответствующего спектра (числовой ряд oeis.org/A368182) увеличена с 1679 до 1869 элементов.
#rakesearch действительно хорош тем, что регулярно публикует результаты и контрибьютит их в мировые базы данных.
С удовольствием кранчу на этот проект.
👍21🔥1🙏1
Поздравляем с обновлением и возвратом а активному кранчингу.

«Сегодня появились несколько хороших новостей про перезапуск одного из вычислительных кластеров, подключения на нём RakeSearch и новость о возможной новой задаче в SiDock

По этой ссылке boinc.ru/forum/topi...

На заре проекта RakeSearch, наш ShmyaCluster внёс немалую лепту в его становление.

Потом в RakeSearch пришли поиски с только Windows-приложением, но, зато появился SiDock@home, где он также работал под полной нагрузкой. Но несколько месяцев назад очередная мишень в SiDock@home была посчитана.

Какое-то время его узлы (№ 4 и 5) переключались между другими проектами, затем они перестали откликаться... и вот, в конце августа и первой половине сентября удалось добраться до них и:

Переустановить OS, сменив Ubuntu 18.04 LTS на 22.04 LTS;

Установить VirtualBox и создать на каждом по виртуальной машине с числом CPU, равным числу ядер (для Ryzen 3600X - 6 штук, для Ryzen 3900X - 12 штук) и Windows;

Подключить их к RakeSearch.
Спустя несколько лет ShmyaCluster возвращается в него! Как вы сами понимаете часть потоков ещё останется незадействованной... но это ненадолго. На 3900X они будут нагружены пряма сейчас - задачами, необходимыми для запуска обработки новой мишени в SiDock@home. :)

После недельного простоя, - сегодня днём обещают добавить новые задания в отечественный проект USPEX по материаловедению. Там тоже намечается новая и долгая работа»

Источник: https://vk.com/wall-11963359_6166

#shmyacluster
👍8
А вот это очень хорошо:
Eventually we hope to include Docker in the BOINC installer. For now, you need to install it yourself. It's easy, and we strongly encourage you to do it.
🔥4
проекте LHC@Home недавно появилось новое приложение XTrack (beta test)

И, несмотря на 2025 год, - выпущены версии этого приложения не только для 64 разрядных систем, но ещё и для 32 разрядных Windows и 32 разрядного Linux! Но не это самое удивительное, а то, что собралось достаточно много пользователей старых 32 разрядных систем.

Источник: https://vk.com/wall-11963359_6168
🔥3👍1
#folding
Folding@home статус проекта

Живой, обновляется, развивается.
— Вышел новый клиент 8.4.9 (23 января 2025) — удобнее, стабильнее: foldingathome.org/2025/01/23/new-client-v8-4-9
— Под капотом — полностью переписанная архитектура v8: foldingathome.org/guides/v8-4-client-guide
— GPU дают прирост 20–30× к скорости против CPU, так что этот проект рекомендуется считать на видеокартах
— Проект по-прежнему входит в число самых мощных распределённых систем мира: en.wikipedia.org/wiki/Folding@home

Короче — живой софт, активное сообщество, задания есть всегда. Если хочется реально помочь науке, Folding — оптимальный вариант.

Имхо за счёт ИИ в подобных биологических задачах ожидается заметный прирост результативности.
🔥32🏆1
#folding

3 октября 2025 года суммарная вычислительная мощность проекта Folding@home составляла около 9,8 петафлопс

Это своего рода маркер состояния проекта: в 2020 году Folding@home достигал 470 петафлопс, а сейчас мощность снизилась примерно в 50 раз — что говорит о смене интереса волонтёров и завершении эффекта COVID.