Einstein-@-Home: Итоги поиска гравитационных волн от остатков сверхновых Vela Jr. и G347.3-0.5 в данных LIGO O2 (и с привлечением O3).
В декабрьском томе (за 2024 год) The Astrophysical Journal [1], а также в архиве препринтов arXiv [2] появилась статья с итогами поиска непрерывных гравитационных волн от остатков сверхновых Vela Jr. и G347.3-0.5.
В силу их молодости (в случае G347.3-0.5 - около 1630 лет и от 700 до 5100 лет для Vela Jr.) они должны очень быстро вращаться, из-за чего аплитуда гравитационных волн должна быть больше, чем у нейтронных звёзд - остатков от более ранних сверхновых, а это должно облегчать их обнаружение. Одновременно, знание их небесных координат позволяет значительно уменьшить объём вычислений по сравнению с поиском по всему небу и потратить высвободившийся "вычислительный бюджет" на вытаскивание сигнала из данных за больший интервал времени. Что и было сделано.
Обработка данных велась в 4 этапа. Во время самого первого, проводившегося в Einstein-@-Home, компьютеры участников проекта, выполнявшие обработку блоков данных с LIGO, вернули несколько миллионов кандидатов, несколько выбивавшихся из общего гравитационно-волнового шума. Во время дальнейших этапов, выполнялось по сути, их "складывание с усреднением", которое, в случае действительно существующего сигнала продолжило бы его вытаскивание из общего шума, а случайным помехам позволило бы "утонуть обратно".
Для проверки работоспособности поиска, в данные добавлялись ложные сигналы, которые были обнаружены.
Настоящих сигналов, которые прошли бы все этапы отбора - не нашлось. Но неспешно прочитать статью с описанием поиска и обработки результатов - всё равно было было интересно. Найти её можно как по ссылкам, так и в виде pdf-файла, в этой заметке.
Ссылки:
1. https://iopscience.iop.org/article/10.3847/1538-4357/ad8b9e
2. https://arxiv.org/abs/2408.14573
Источник: https://vk.com/wall-34590225_843
#einstein
#результаты
В декабрьском томе (за 2024 год) The Astrophysical Journal [1], а также в архиве препринтов arXiv [2] появилась статья с итогами поиска непрерывных гравитационных волн от остатков сверхновых Vela Jr. и G347.3-0.5.
В силу их молодости (в случае G347.3-0.5 - около 1630 лет и от 700 до 5100 лет для Vela Jr.) они должны очень быстро вращаться, из-за чего аплитуда гравитационных волн должна быть больше, чем у нейтронных звёзд - остатков от более ранних сверхновых, а это должно облегчать их обнаружение. Одновременно, знание их небесных координат позволяет значительно уменьшить объём вычислений по сравнению с поиском по всему небу и потратить высвободившийся "вычислительный бюджет" на вытаскивание сигнала из данных за больший интервал времени. Что и было сделано.
Обработка данных велась в 4 этапа. Во время самого первого, проводившегося в Einstein-@-Home, компьютеры участников проекта, выполнявшие обработку блоков данных с LIGO, вернули несколько миллионов кандидатов, несколько выбивавшихся из общего гравитационно-волнового шума. Во время дальнейших этапов, выполнялось по сути, их "складывание с усреднением", которое, в случае действительно существующего сигнала продолжило бы его вытаскивание из общего шума, а случайным помехам позволило бы "утонуть обратно".
Для проверки работоспособности поиска, в данные добавлялись ложные сигналы, которые были обнаружены.
Настоящих сигналов, которые прошли бы все этапы отбора - не нашлось. Но неспешно прочитать статью с описанием поиска и обработки результатов - всё равно было было интересно. Найти её можно как по ссылкам, так и в виде pdf-файла, в этой заметке.
Ссылки:
1. https://iopscience.iop.org/article/10.3847/1538-4357/ad8b9e
2. https://arxiv.org/abs/2408.14573
Источник: https://vk.com/wall-34590225_843
#einstein
#результаты
Please open Telegram to view this post
VIEW IN TELEGRAM
Einstein@home иногда отгружает задачи по 450'000 GFLOPs или даже 1'440'000 GFLOPs (обычные задачи это 17'500)
На RTX 4090 такие большие задачи считаются до двух часов
#einstein
На RTX 4090 такие большие задачи считаются до двух часов
#einstein
Я поставил в расчет на Einstein по 4 задачи в параллели (настраивается на сайте проекта), потому что длительность расчёта почти не увеличивается, а количество отработанных тасков увеличивается значительно (RTX 4090).
Почему так? Таcки Einstein на GPU что-то долго крутят вначале на почти холодной видеокарте, а при расчете четырех тасков параллельно нагрузка на GPU становится стабильной, TDP 260Ватт. Это, кстати довольно много, но для сравнения PrimeGrid умеет грузить GPU на 450Ватт, сказывется особенность вычислений. Операции с простыми числами будто созданы для обеспечения полной нагрузки на видеокарты.
#einstein
#primegrid
Почему так? Таcки Einstein на GPU что-то долго крутят вначале на почти холодной видеокарте, а при расчете четырех тасков параллельно нагрузка на GPU становится стабильной, TDP 260Ватт. Это, кстати довольно много, но для сравнения PrimeGrid умеет грузить GPU на 450Ватт, сказывется особенность вычислений. Операции с простыми числами будто созданы для обеспечения полной нагрузки на видеокарты.
#einstein
#primegrid
Российский проект RakeSearch имеет неприятную особенность – после перезагрузки задачи начинают считаться заново. Когда задачи считаются в 30+ потоков и среди них есть задачи длительностью до часа, то это приводит к потере до получаса рабочего времени мощного компа.
На скринах пример списка задач до и после перезагрузки.
В общей картине эти потери, конечно, незначительны.
А вот ведущему проекта Эдуарду Ватутину спасибо за регулярные посты о ходе проекта и публикациию результатов в энциклопедии OEIS. Имхо достойно того, чтобы 100% времени наших CPU выделять на RakeSearch.
Вот бы ещё на Apple Silicon и на Linux появились задачи от проекта!
Подписывайтесь на Эдуарда: https://vk.com/id162891802
Выпуск подкаста о проекте
#rakesearch
#silicon
На скринах пример списка задач до и после перезагрузки.
В общей картине эти потери, конечно, незначительны.
А вот ведущему проекта Эдуарду Ватутину спасибо за регулярные посты о ходе проекта и публикациию результатов в энциклопедии OEIS. Имхо достойно того, чтобы 100% времени наших CPU выделять на RakeSearch.
Вот бы ещё на Apple Silicon и на Linux появились задачи от проекта!
Подписывайтесь на Эдуарда: https://vk.com/id162891802
Выпуск подкаста о проекте
#rakesearch
#silicon
Please open Telegram to view this post
VIEW IN TELEGRAM
Сравниваем
MacStudio на M1 Ultra
и MacBook Pro на M4 Pro
на проекте Einstein@home
У M1 Ultra 20 CPU, но одну таску на 105 000 GFLOPS он далает 2ч15мин на CPU
M4 Pro чип намного более свежий, в ноутбучном исполнении. 12 CPU, но на одну таску уходит по 1ч15мин на CPU
На GPU работает 48 ядер на M1 Ultra против 16 на M4Pro
Но новое поколение решает и более свежий чип делает одной таску на 17 500 GFPOLS за 6 минут вместо 8. Несмотря на ноутбучное исполнение.
#einstein
MacStudio на M1 Ultra
и MacBook Pro на M4 Pro
на проекте Einstein@home
У M1 Ultra 20 CPU, но одну таску на 105 000 GFLOPS он далает 2ч15мин на CPU
M4 Pro чип намного более свежий, в ноутбучном исполнении. 12 CPU, но на одну таску уходит по 1ч15мин на CPU
На GPU работает 48 ядер на M1 Ultra против 16 на M4Pro
Но новое поколение решает и более свежий чип делает одной таску на 17 500 GFPOLS за 6 минут вместо 8. Несмотря на ноутбучное исполнение.
#einstein
Да, на ноутбуке тоже можно кранчить.
Если это MacBook Pro на M4, конечно. 😉
На MacBook Air M1 я тоже считаю — там результат хуже всего на 80%, но это спорт для упорных.
👆 И на Pro, и на Air магия Apple позволяет не замечать нагрузку от BOINC при обычной офисной работе.
Теперь к сути — кранчинг на MacBook Pro M4 Pro 12-core за $2000 (24 ГБ RAM, продвинутая система охлаждения):
1. Ограничение вентиляторов: 5000 RPM.
Без ограничения вентиляторы разгоняются до 8000 об/мин и шумят как взлетающий дрон. 5000 об/мин — оптимальный компромисс по шуму и температуре. Использую бесплатную версию Macs Fan Control.
Да, ноутбук троттлит. Нет, в реальной работе это незаметно. Все современные чипы троттлят — это штатный режим.
Да, на маках безопасно крутить вентиляторы 24/7 на таких оборотах — проверено и внимательно перепроверено.
2. Перезапуск BOINC после перезагрузки.
В macOS автозапущенные приложения получают статус «фоновых» и работают в полсилы. Если BOINC не раскручивает вентиляторы — выгружаем и запускаем вручную.
На поиск реальной причины ушла неделя и десяток Deep Research-запросов к GPT.
На скриншотах видно, как GPU-задачи начинают работать на 50% дольше, когда система их ограничивает.
Скидывайте в комментариях, на чём считаете вы.
Статистика на прошке
Статистика на Air
На MacBook Air M1 я тоже считаю — там результат хуже всего на 80%, но это спорт для упорных.
👆 И на Pro, и на Air магия Apple позволяет не замечать нагрузку от BOINC при обычной офисной работе.
Теперь к сути — кранчинг на MacBook Pro M4 Pro 12-core за $2000 (24 ГБ RAM, продвинутая система охлаждения):
1. Ограничение вентиляторов: 5000 RPM.
Без ограничения вентиляторы разгоняются до 8000 об/мин и шумят как взлетающий дрон. 5000 об/мин — оптимальный компромисс по шуму и температуре. Использую бесплатную версию Macs Fan Control.
Да, ноутбук троттлит. Нет, в реальной работе это незаметно. Все современные чипы троттлят — это штатный режим.
Да, на маках безопасно крутить вентиляторы 24/7 на таких оборотах — проверено и внимательно перепроверено.
2. Перезапуск BOINC после перезагрузки.
В macOS автозапущенные приложения получают статус «фоновых» и работают в полсилы. Если BOINC не раскручивает вентиляторы — выгружаем и запускаем вручную.
На поиск реальной причины ушла неделя и десяток Deep Research-запросов к GPT.
На скриншотах видно, как GPU-задачи начинают работать на 50% дольше, когда система их ограничивает.
Скидывайте в комментариях, на чём считаете вы.
Статистика на прошке
Статистика на Air
Forwarded from Закиев Василь. (AI)ron manager (Vasil Zakiev)
Codex это Агент-0?
В пятницу OpenAI опубликовали инструмент Codex — облачного агента-программиста, который работает с GitHub-репозиториями. Ему можно поставить задачу, например: «Проверь кодовую базу на следование кодстайлу». Он находит ошибки, предлагает исправления, запускает тесты и сам создаёт pull request.
Плюсы: всё работает быстро, в облаке, можно запускать десятки задач параллельно.
Минусы: Работает только с Github. У агента есть интернет только на этапе настройки окружения — потом его отбирают, поэтому он не может полноценно тестировать всё подряд. Не работает с картинками, значит пока мало полезен для задач по фронтенду.
Я попробовал на практике: добавил небольшое изменение в BOINC — большой open source проект. Вот PR: https://github.com/BOINC/boinc/pull/6329
Интересно, что первичную проверку кода тоже провёл ИИ — GitHub Copilot.
Не скажу, что теперь любой может быть программистом, но окно возможностей точно стало шире. А требования к разработчикам становятся однозначно выше.
Сейчас попробую переписать весь код одного проекта с Node на Python. Если хотите, чтобы я что-то посмотрел на вашем проекте – напишите в комментариях ссылку на репозиторий и дайте доступ на wargoblin.
В пятницу OpenAI опубликовали инструмент Codex — облачного агента-программиста, который работает с GitHub-репозиториями. Ему можно поставить задачу, например: «Проверь кодовую базу на следование кодстайлу». Он находит ошибки, предлагает исправления, запускает тесты и сам создаёт pull request.
Плюсы: всё работает быстро, в облаке, можно запускать десятки задач параллельно.
Минусы: Работает только с Github. У агента есть интернет только на этапе настройки окружения — потом его отбирают, поэтому он не может полноценно тестировать всё подряд. Не работает с картинками, значит пока мало полезен для задач по фронтенду.
Я попробовал на практике: добавил небольшое изменение в BOINC — большой open source проект. Вот PR: https://github.com/BOINC/boinc/pull/6329
Интересно, что первичную проверку кода тоже провёл ИИ — GitHub Copilot.
Не скажу, что теперь любой может быть программистом, но окно возможностей точно стало шире. А требования к разработчикам становятся однозначно выше.
Сейчас попробую переписать весь код одного проекта с Node на Python. Если хотите, чтобы я что-то посмотрел на вашем проекте – напишите в комментариях ссылку на репозиторий и дайте доступ на wargoblin.
Channel name was changed to «Гридка. Канал о распределенных вычислениях и BOINC»
Добровольческие распределённые вычисления – это проекты, в которых тысячи людей по всему миру жертвуют ресурсы своих персональных компьютеров для научных расчетов. К крупнейшим таким проектам относятся платформа BOINC (объединяющая множество исследований) и проект Folding@home (биомедицинические расчёты по белкам). Совокупная активная вычислительная мощность этих сетей весьма значительна, хотя и меняется со временем в зависимости от числа добровольцев.
Гридка. Канал о распределенных вычислениях и BOINC pinned «Добровольческие распределённые вычисления – это проекты, в которых тысячи людей по всему миру жертвуют ресурсы своих персональных компьютеров для научных расчетов. К крупнейшим таким проектам относятся платформа BOINC (объединяющая множество исследований)…»