Немного статистики о "мощности" проекта RakeSearch.
Завершение поиска с очень длинными (до 5 дней расчёта!) заданиями, который продлился с конца мая по начало августа, позволило вновь собрать данные по обработанным заданиям и обновить статистику по производительности проекта как за всё его время существования, так и за время экспериментов Эдуарда Ватутина, ставших, по сути, отдельной "инкарнацией" в жизни проекта.
Первые два графика - "мощность" в TFLOPS-ах и среднем количестве вычислительных потоков за сутки за всё время существования проекта. Глядя на первый график надо держать в уме то, что на первом этапе широко использовалось оптимизированное приложение из-за чего оценка за выполненные задания была многократно выше. Именно из-за этого в левой части первого графика наблюдаются такие большие пики.
Графики № 3 и 4 - также усреднённая за сутки мощность в TFLOPS-ах и количестве вычислительных потоков, но уже во время расчётов заданий от Эдуарда. Показатель "Среднее число CPU" был рассчитан образом, несколько отличным от того, что использовался для предыдущих графиков - для некоторых поисков, в силу особенностей взаимодействия приложения и BOINC Wrapper-а, затраченное процессорное время надо учитывать не по показателю CPU time, которое сохраняется неточно, а по показателю Elapsed time, которое его, как раз хорошо отображает. Из-за этого "зелёные графики" выглядят несколько отличными от предыдущих.
Резкое падение показателей в самом конце связано с тем, что за последние 2-3 данные ещё неполны.
Большое спасибо за поддержку всем участникам проекта!
Оригинал: https://vk.com/wall-34590225_853
#RakeSearch
👍3⚡1🔥1
#rakesearch
Эдуард Ватутин:
Эдуард Ватутин:
Напомню, что несколькими месяцами ранее была опробована стратегия построения спектров ДЛК через спектры ЛК. Ее основной идеей является использование построенного ранее опорного спектра ДЛК, рассмотрение его квадратов как ЛК (дубли на диагоналях не учитываются), расширение спектра ЛК (что само по себе тоже неплохо) и затем возврат обратно к спектру ДЛК с использованием процедуры диагонализации. Диагонализация работает до порядков N<=15, начиная с порядка N=16 и выше в ЛК становится слишком много трансверсалей и выполнить диагонализацию "в лоб" становится невозможным из-за чрезмерных вычислительных затрат (тут есть над чем подумать в перспективе в плане применения эвристических методов). Это приводит к тому, что найденные эвристические аппроксимации спектров ЛК становятся мощнее спектров ДЛК, чего не наблюдается на размерностях N<=15, что намекает на то, что скорее всего спектры ДЛК на самом деле мощнее, просто соответствующие ДЛК пока не найдены. Ну а если процедуру диагонализации выполнить невозможно (по крайней мере пока), не стоит ли поверить в удачу и попробовать поискать готовые ДЛК среди спектров ЛК. Соответствующий поиск был произведен и по его итогам оказалось, что для порядков N=20 и N=25 спектры ДЛК удается расширить:
* N=20: с 1011 до 1038 элементов;
* N=25: с 1712 до 1736 элементов.
Для других порядков данный фокус не приводит к расширению. Ну а для новых найденных элементов спектров можно выполнить уже выполнявшиеся ранее процедуры обхода окрестностей, что с высокой долей вероятности приведет к дополнительному расширению спектров, чем мы и займемся в самой ближайшей перспективе...
[upd]
В спектре числа интеркалятов в ДЛК порядка 20 теперь присутствует квадрат0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
4 2 3 0 1 9 7 8 5 6 14 12 13 10 11 18 19 16 17 15
3 4 1 2 0 8 9 6 7 5 13 14 11 12 10 19 17 18 15 16
1 3 0 4 2 6 8 5 9 7 11 13 10 14 12 17 15 19 16 18
2 0 4 1 3 7 5 9 6 8 12 10 14 11 13 16 18 15 19 17
15 16 17 18 19 11 10 13 12 14 6 5 8 7 9 0 1 2 3 4
18 19 16 17 15 14 13 12 11 10 9 8 7 6 5 4 2 3 0 1
19 17 18 15 16 12 14 10 13 11 7 9 5 8 6 3 4 1 2 0
17 15 19 16 18 10 12 11 14 13 5 7 6 9 8 1 3 0 4 2
16 18 15 19 17 13 11 14 10 12 8 6 9 5 7 2 0 4 1 3
6 5 8 7 9 1 0 3 2 4 15 16 17 18 19 10 11 12 13 14
9 8 7 6 5 4 3 2 1 0 18 19 16 17 15 14 12 13 10 11
7 9 5 8 6 2 4 0 3 1 19 17 18 15 16 13 14 11 12 10
5 7 6 9 8 0 2 1 4 3 17 15 19 16 18 11 13 10 14 12
8 6 9 5 7 3 1 4 0 2 16 18 15 19 17 12 10 14 11 13
11 10 13 12 14 15 16 17 18 19 1 0 3 2 4 5 6 7 8 9
14 13 12 11 10 18 19 16 17 15 4 3 2 1 0 9 7 8 5 6
12 14 10 13 11 19 17 18 15 16 2 4 0 3 1 8 9 6 7 5
10 12 11 14 13 17 15 19 16 18 0 2 1 4 3 6 8 5 9 7
13 11 14 10 12 16 18 15 19 17 3 1 4 0 2 7 5 9 6 8
у которого 1500 интеркалятов, что позволяет усилить установленное ранее нижнее ограничение с a(20)>=1100 до a(20)>=1500 в числовом ряду oeis.org/A307164.
👍4
#rakesearch
Эдуард Ватутин:
Эдуард Ватутин:
В результате вычислительных экспериментов со спектрами числа интеркалятов в ЛК порядка 25 найден квадрат
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
1 2 24 20 5 3 16 8 7 11 9 14 6 10 15 13 17 18 12 21 19 4 0 22 23
3 5 4 0 2 1 8 9 11 7 6 12 10 16 18 17 13 15 14 23 22 24 20 19 21
9 10 13 18 7 12 21 4 5 0 1 8 22 2 23 24 19 20 3 16 17 6 11 14 15
14 11 9 7 16 6 5 3 20 2 8 1 24 23 0 22 4 21 19 18 12 17 15 13 10
6 16 17 15 11 14 23 24 2 8 3 19 20 5 21 4 22 0 1 10 13 9 7 12 18
2 24 8 19 3 20 17 16 6 14 11 15 23 9 13 10 18 12 7 4 21 5 1 0 22
20 8 5 1 24 2 9 11 14 6 16 7 3 17 12 18 10 13 15 22 0 23 19 21 4
8 20 3 2 23 24 11 14 15 16 17 6 19 18 7 12 9 10 13 0 1 22 21 4 5
11 9 10 12 6 8 4 5 3 1 2 0 7 24 22 23 21 19 20 17 18 16 14 15 13
7 6 16 14 8 11 24 2 1 3 5 20 9 4 19 21 23 22 0 13 15 10 12 18 17
16 17 18 8 14 15 22 23 24 19 20 21 13 3 4 5 0 1 2 9 10 11 6 7 12
19 3 23 13 9 7 10 6 12 20 24 22 8 21 5 1 15 11 17 14 16 18 4 2 0
15 14 11 6 17 16 3 20 19 24 23 2 18 22 1 0 5 4 21 12 7 8 13 10 9
10 13 15 17 12 18 19 21 4 22 0 23 16 1 24 2 20 3 5 6 8 7 9 11 14
18 12 7 9 13 10 1 0 22 4 21 5 14 19 3 20 2 24 23 8 11 15 17 16 6
24 23 22 21 20 19 18 17 16 15 14 13 0 11 10 9 12 7 6 5 4 3 2 1 8
23 22 0 4 19 21 12 18 17 13 15 10 2 14 9 11 7 6 16 3 5 20 24 8 1
21 19 20 24 22 23 14 15 13 17 18 16 4 12 6 7 11 9 10 1 2 0 8 5 3
13 15 14 16 18 17 20 19 21 23 22 24 1 0 2 8 3 5 4 7 6 12 10 9 11
17 18 12 10 15 13 0 22 23 21 19 4 5 20 8 3 1 2 24 11 9 14 16 6 7
12 7 6 11 10 9 2 1 0 5 4 3 21 8 20 19 24 23 22 15 14 13 18 17 16
22 0 1 5 21 4 7 12 18 10 13 9 17 15 11 14 6 16 8 20 3 19 23 24 2
4 21 19 23 0 22 15 13 10 18 12 17 11 7 16 6 14 8 9 2 24 1 5 3 20
5 4 21 22 1 0 13 10 9 12 7 18 15 6 17 16 8 14 11 24 23 2 3 20 19
У которого 1888 интеркалятов, что позволяет усилить установленное ранее нижнее ограничение с a(25)>=1700 до a(25)>=1888 в числовом ряду oeis.org/A092237. Мощность соответствующего спектра (числовой ряд oeis.org/A368182) увеличена с 1679 до 1869 элементов.
VK
Эдуард Ватутин. Пост со стены.
Напомню, что несколькими месяцами ранее была опробована стратегия построения спектров ДЛК через спек... Смотрите полностью ВКонтакте.
#rakesearch действительно хорош тем, что регулярно публикует результаты и контрибьютит их в мировые базы данных.
С удовольствием кранчу на этот проект.
С удовольствием кранчу на этот проект.
👍2❤1🔥1🙏1
Поздравляем с обновлением и возвратом а активному кранчингу.
Источник: https://vk.com/wall-11963359_6166
#shmyacluster
«Сегодня появились несколько хороших новостей про перезапуск одного из вычислительных кластеров, подключения на нём RakeSearch и новость о возможной новой задаче в SiDock
По этой ссылке boinc.ru/forum/topi...
На заре проекта RakeSearch, наш ShmyaCluster внёс немалую лепту в его становление.
Потом в RakeSearch пришли поиски с только Windows-приложением, но, зато появился SiDock@home, где он также работал под полной нагрузкой. Но несколько месяцев назад очередная мишень в SiDock@home была посчитана.
Какое-то время его узлы (№ 4 и 5) переключались между другими проектами, затем они перестали откликаться... и вот, в конце августа и первой половине сентября удалось добраться до них и:
Переустановить OS, сменив Ubuntu 18.04 LTS на 22.04 LTS;
Установить VirtualBox и создать на каждом по виртуальной машине с числом CPU, равным числу ядер (для Ryzen 3600X - 6 штук, для Ryzen 3900X - 12 штук) и Windows;
Подключить их к RakeSearch.
Спустя несколько лет ShmyaCluster возвращается в него! Как вы сами понимаете часть потоков ещё останется незадействованной... но это ненадолго. На 3900X они будут нагружены пряма сейчас - задачами, необходимыми для запуска обработки новой мишени в SiDock@home. :)
После недельного простоя, - сегодня днём обещают добавить новые задания в отечественный проект USPEX по материаловедению. Там тоже намечается новая и долгая работа»
Источник: https://vk.com/wall-11963359_6166
#shmyacluster
👍8
А вот это очень хорошо:
Eventually we hope to include Docker in the BOINC installer. For now, you need to install it yourself. It's easy, and we strongly encourage you to do it.
🔥4
проекте LHC@Home недавно появилось новое приложение XTrack (beta test)
И, несмотря на 2025 год, - выпущены версии этого приложения не только для 64 разрядных систем, но ещё и для 32 разрядных Windows и 32 разрядного Linux! Но не это самое удивительное, а то, что собралось достаточно много пользователей старых 32 разрядных систем.
Источник: https://vk.com/wall-11963359_6168
🔥3👍1
#folding
Folding@home статус проекта
Живой, обновляется, развивается.
— Вышел новый клиент 8.4.9 (23 января 2025) — удобнее, стабильнее: foldingathome.org/2025/01/23/new-client-v8-4-9
— Под капотом — полностью переписанная архитектура v8: foldingathome.org/guides/v8-4-client-guide
— GPU дают прирост 20–30× к скорости против CPU, так что этот проект рекомендуется считать на видеокартах
— Проект по-прежнему входит в число самых мощных распределённых систем мира: en.wikipedia.org/wiki/Folding@home
Короче — живой софт, активное сообщество, задания есть всегда. Если хочется реально помочь науке, Folding — оптимальный вариант.
Folding@home статус проекта
Живой, обновляется, развивается.
— Вышел новый клиент 8.4.9 (23 января 2025) — удобнее, стабильнее: foldingathome.org/2025/01/23/new-client-v8-4-9
— Под капотом — полностью переписанная архитектура v8: foldingathome.org/guides/v8-4-client-guide
— GPU дают прирост 20–30× к скорости против CPU, так что этот проект рекомендуется считать на видеокартах
— Проект по-прежнему входит в число самых мощных распределённых систем мира: en.wikipedia.org/wiki/Folding@home
Короче — живой софт, активное сообщество, задания есть всегда. Если хочется реально помочь науке, Folding — оптимальный вариант.
Имхо за счёт ИИ в подобных биологических задачах ожидается заметный прирост результативности.
🔥3❤2🏆1
#folding
3 октября 2025 года суммарная вычислительная мощность проекта Folding@home составляла около 9,8 петафлопс
Это своего рода маркер состояния проекта: в 2020 году Folding@home достигал 470 петафлопс, а сейчас мощность снизилась примерно в 50 раз — что говорит о смене интереса волонтёров и завершении эффекта COVID.
3 октября 2025 года суммарная вычислительная мощность проекта Folding@home составляла около 9,8 петафлопс
Это своего рода маркер состояния проекта: в 2020 году Folding@home достигал 470 петафлопс, а сейчас мощность снизилась примерно в 50 раз — что говорит о смене интереса волонтёров и завершении эффекта COVID.
#rosetta
Rosetta@home статус проекта
Работает через BOINC, использует только процессор. GPU пока не задействованы, хотя для подобного класса задач GPU был бы очень полезен.
По состоянию на 4 марта 2025 года обсуждается запуск GPU-вариантов для задач виртуального скрининга и моделирования пептидов.
Иногда нет заданий («No tasks available») — это нормально, зависит от активности серверов.
Иногда случаются ошибки загрузки заданий («feeder error»), что связано с ограниченным администрированием проекта.
Память: от 200 МБ до 3–4 ГБ на задачу.
Rosetta@home статус проекта
Работает через BOINC, использует только процессор. GPU пока не задействованы, хотя для подобного класса задач GPU был бы очень полезен.
По состоянию на 4 марта 2025 года обсуждается запуск GPU-вариантов для задач виртуального скрининга и моделирования пептидов.
Иногда нет заданий («No tasks available») — это нормально, зависит от активности серверов.
Иногда случаются ошибки загрузки заданий («feeder error»), что связано с ограниченным администрированием проекта.
Память: от 200 МБ до 3–4 ГБ на задачу.
Я бы сейчас не рекомендовал участвовать в проекте
❤1🔥1🎉1
🏁 Formula BOINC: кто лидирует сейчас
Срез на 10 октября 2025 – коротко и по делу, без лишнего пафоса.
Общий зачёт (Overall):
Planet 3DNow! – 817
Ukraine – 645
L’Alliance Francophone – 555(https://www.formula-boinc.org/)
Марафон (Marathon):
Planet 3DNow! – 404
L’Alliance Francophone – 366
Ukraine – 324(https://www.formula-boinc.org/marathons.py?division=1&race=0&standing=team)
Спринт (Sprint):
Planet 3DNow! – 413
Ukraine – 321
SETI.USA – 262
NoTEAM – 217
L’Alliance Francophone – 189(https://www.formula-boinc.org/sprints.py?division=1&race=0&standing=team)
🔜 Ближайший спринт: 16–19 октября (UTC). Проект объявят в момент старта
(https://www.formula-boinc.org/sprints.py?division=1&race=0&standing=team)
🙋 Хочется в гонку? Регистрация команд и участников тут:
(https://www.formula-boinc.org/howtoregister.py)
#LHC
LHC@home запустил в бету новый проект Xtrack (https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=6387), но поддержка BOINC неполная.
Добровольцы могут поучаствовать в вычислениях CERN с новым приложением Xtrack – частью современного набора инструментов Xsuite для моделирования пучков частиц (https://github.com/xsuite/xtrack).
Что нового:
– 🚀 Современная архитектура: Python + C, рассчитана на многопоточность и GPU.
– Физика следующего уровня: коллимация, взаимодействие пучков с материалом, уточнённое моделирование потерь частиц.
– Работает как на Linux, так и на Windows – теперь не только для серверов CERN, но и для домашних ПК.
– Интеграция с BOINC: можно запускать симуляции прямо через LHC@home (https://lhcathome.cern.ch/lhcathome/).
– В LHC@home доступны CPU‑сборки для Windows и Linux (XTrack (beta test)). GPU и macOS пока нет.
Поддержка неполная: текущая BOINC‑версия Xtrack — однопоточная CPU; GPU/мультикор заложены в Xtrack, но требуют другой схемы сборки для BOINC и пока не включены.
Больше деталей — в докладе на Indico CERN (https://indico.cern.ch/event/1211085/contributions/5093595/attachments/2540891/4404886/016_xsuite_status.pdf) и на InspireHEP (https://inspirehep.net/literature/2776105).
Бета запущена 16 сентября 2025, задачи уже появляются.
Если комп мощный – включайся в распределённые вычисления CERN ⚡
LHC@home запустил в бету новый проект Xtrack (https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=6387), но поддержка BOINC неполная.
Добровольцы могут поучаствовать в вычислениях CERN с новым приложением Xtrack – частью современного набора инструментов Xsuite для моделирования пучков частиц (https://github.com/xsuite/xtrack).
Что нового:
– 🚀 Современная архитектура: Python + C, рассчитана на многопоточность и GPU.
– Физика следующего уровня: коллимация, взаимодействие пучков с материалом, уточнённое моделирование потерь частиц.
– Работает как на Linux, так и на Windows – теперь не только для серверов CERN, но и для домашних ПК.
– Интеграция с BOINC: можно запускать симуляции прямо через LHC@home (https://lhcathome.cern.ch/lhcathome/).
– В LHC@home доступны CPU‑сборки для Windows и Linux (XTrack (beta test)). GPU и macOS пока нет.
Поддержка неполная: текущая BOINC‑версия Xtrack — однопоточная CPU; GPU/мультикор заложены в Xtrack, но требуют другой схемы сборки для BOINC и пока не включены.
Больше деталей — в докладе на Indico CERN (https://indico.cern.ch/event/1211085/contributions/5093595/attachments/2540891/4404886/016_xsuite_status.pdf) и на InspireHEP (https://inspirehep.net/literature/2776105).
Бета запущена 16 сентября 2025, задачи уже появляются.
Если комп мощный – включайся в распределённые вычисления CERN ⚡
🔥6
Бесплатный апгрейд эффективности через undervolt на GPU
Самая понятная оптимизация для кранчинга – снизить напряжение на видеокарте. Многие GPU держат те же частоты на меньшем вольтаже – меньше ватт, ниже температура и шум, PPD (points per day) почти не падает.
Обьяснение
Та же частота при меньшем вольтаже → та же скорость расчётов, но меньше потребление. В кранчинге это особенно заметно на тяжёлых WU.
Как сделать (Windows, NVIDIA, MSI Afterburner)
1. Запустить Afterburner → Ctrl+F (Voltage/Frequency Curve).
2. Выбрать рабочую частоту под нагрузкой и зафиксировать её на ~0.90–0.95 V.
3. Выровнять участок кривой вокруг выбранной точки, нажать Apply.
4. Прогнать несколько часов реальных WU: следить за стабильностью, что все задачи подходят без ошибок.
Ожидаемый эффект
– Уменьшение потребления при сохранении частоты.
– Тише и холоднее;
– Рост PPD/Вт заметный, особенно на долгих задачах.
Альтернатива
Понижение напряжения снижает температуру, на хороших видеокартах это позволяет поднять чистоту, иногда на ~200MHz. То есть и еще и быстрее будет считать.
P.S. Кранчинг – марафон, не спринт. Тише едет тот, кто эффективнее считает.
Тот же эффект есть и на CPU, там надо андервольтить через BIOS, если позволяет материнская плата.
#gpu
Самая понятная оптимизация для кранчинга – снизить напряжение на видеокарте. Многие GPU держат те же частоты на меньшем вольтаже – меньше ватт, ниже температура и шум, PPD (points per day) почти не падает.
Обьяснение
Та же частота при меньшем вольтаже → та же скорость расчётов, но меньше потребление. В кранчинге это особенно заметно на тяжёлых WU.
Как сделать (Windows, NVIDIA, MSI Afterburner)
1. Запустить Afterburner → Ctrl+F (Voltage/Frequency Curve).
2. Выбрать рабочую частоту под нагрузкой и зафиксировать её на ~0.90–0.95 V.
3. Выровнять участок кривой вокруг выбранной точки, нажать Apply.
4. Прогнать несколько часов реальных WU: следить за стабильностью, что все задачи подходят без ошибок.
Ожидаемый эффект
– Уменьшение потребления при сохранении частоты.
– Тише и холоднее;
– Рост PPD/Вт заметный, особенно на долгих задачах.
Альтернатива
Понижение напряжения снижает температуру, на хороших видеокартах это позволяет поднять чистоту, иногда на ~200MHz. То есть и еще и быстрее будет считать.
P.S. Кранчинг – марафон, не спринт. Тише едет тот, кто эффективнее считает.
Тот же эффект есть и на CPU, там надо андервольтить через BIOS, если позволяет материнская плата.
#gpu
❤2👍2
Использовать Spark для BOINC нет смысла, несмотря на наличие CUDA ядер. Он определяется во многих проектах как generic GPU for Linux и не получает задания. А где получает (Asteroids, например), то работает отнсительно медленно, потому что GPU проекты в BOINC как правило зависимы от скорости памяти. То есть основное преимущество Spark (объём видеопамяти) не используется, а основной недостаток (скорость видеопамяти) понижает эффективность.
Может в PrimeGrid или Amicable (где скорость памяти не критича) он будет полезен, но в целом вряд ли будет лучше обычной домашней системы с GPU:
Может в PrimeGrid или Amicable (где скорость памяти не критича) он будет полезен, но в целом вряд ли будет лучше обычной домашней системы с GPU:
Forwarded from Закиев Василь. (AI)ron manager (Vasil Zakiev)
Собираем домашний LLM‑сервер
Неделя вышла плотной, писал мало. Исправляюсь: поизучал «настольный» DGX Spark от Nvidia. Мини-компьютер как базу для домашнего LLM‑сервера .
Короткий вывод: Spark — это про объёмные модели, а не про скорость генерации. Для повседневного офлайнового инференса компактнее и быстрее обычный ПК или мини‑ПК + внешний док под десктоп‑GPU. Выйдет быстрее и дешевле.
Почему так
– У Spark 128 ГБ унифицированной памяти, поэтому влезут большие модели. Их ещё можно объединять в ферму по оптике (кабель 15000₽), а значит доступной памяти станет больше. Для сравнения у RTX 4090 будет 24GB, у 5090 будет 32 ГБ.
– Но память LPDDR5x ~273 ГБ/с — скорость памяти станет узким местом для быстрой работы ИИ. Для сравнени RTX 5090 используется GDDR7 с ~1.8 ТБ/с, почти на порядок быстрее.
– Цена: Spark — $3 999. За те же деньги можно укомплектовать мини‑ПК + док + 5080 (а если повезёт — и 5090), получив почти на порядок более высокую скорость работы ИИ.
– Spark логичен, когда нужна ёмкость: дообучение (LoRA/QLoRA) и работа с большими моделями 70b–200b
Альтренативы для дома:
🛠️ Beelink GTi‑линейка + EX Pro Dock (прямой PCIe 5.0 ×8, БП 600 Вт
🛠️ GPU:
– RTX 5090 — максимум по скоростям, но близко к лимиту по питанию дока и может не влезть по размерам, надо смотреть по производителю
– RTX 5080 — проще по теплу/ваттам, 16 ГБ достаточно для 8–14и моделей и аккуратно подобранных 30–33b моделей
Вывод
Для «домашнего/офисного» LLM‑сервера я бы не покупал Spark. Скорее — мини‑ПК + док + 5080/5090 или собирал бы обычный домашний компьютер. Spark нужен тем, кому важнее влезть в очень большие модели или обучать их. Пусть и медленно
##ИИ
Неделя вышла плотной, писал мало. Исправляюсь: поизучал «настольный» DGX Spark от Nvidia. Мини-компьютер как базу для домашнего LLM‑сервера .
Короткий вывод: Spark — это про объёмные модели, а не про скорость генерации. Для повседневного офлайнового инференса компактнее и быстрее обычный ПК или мини‑ПК + внешний док под десктоп‑GPU. Выйдет быстрее и дешевле.
Почему так
– У Spark 128 ГБ унифицированной памяти, поэтому влезут большие модели. Их ещё можно объединять в ферму по оптике (кабель 15000₽), а значит доступной памяти станет больше. Для сравнения у RTX 4090 будет 24GB, у 5090 будет 32 ГБ.
– Но память LPDDR5x ~273 ГБ/с — скорость памяти станет узким местом для быстрой работы ИИ. Для сравнени RTX 5090 используется GDDR7 с ~1.8 ТБ/с, почти на порядок быстрее.
– Цена: Spark — $3 999. За те же деньги можно укомплектовать мини‑ПК + док + 5080 (а если повезёт — и 5090), получив почти на порядок более высокую скорость работы ИИ.
– Spark логичен, когда нужна ёмкость: дообучение (LoRA/QLoRA) и работа с большими моделями 70b–200b
Альтренативы для дома:
🛠️ Beelink GTi‑линейка + EX Pro Dock (прямой PCIe 5.0 ×8, БП 600 Вт
🛠️ GPU:
– RTX 5090 — максимум по скоростям, но близко к лимиту по питанию дока и может не влезть по размерам, надо смотреть по производителю
– RTX 5080 — проще по теплу/ваттам, 16 ГБ достаточно для 8–14и моделей и аккуратно подобранных 30–33b моделей
Вывод
Для «домашнего/офисного» LLM‑сервера я бы не покупал Spark. Скорее — мини‑ПК + док + 5080/5090 или собирал бы обычный домашний компьютер. Spark нужен тем, кому важнее влезть в очень большие модели или обучать их. Пусть и медленно
##ИИ
🔥3👍1
#PrimeGrid
Иногда в ленте PrimeGrid всплывают странные статусы новых простых чисел: PRP и Proven.
🔹 PRP (Probable Prime) — быстрый тест «похоже на простое».
Алгоритмы вроде Genefer для GFN-чисел или LLR для Proth-форм гоняют GPU и CPU, чтобы отсеять составные. Это ещё не доказательство, но вероятность ошибки меньше, чем шанс выиграть в лотерею.
🔹 Proven — уже настоящее доказательство:
через ECPP (эллиптические кривые), LLR-протоколы с верификацией или старый добрый сертификат Пратта. Тут результат можно проверить независимо — значит, простота доказана.
Разница во времени между PRP и proven — это не баг, а нормальный цикл: сначала находят кандидата, потом долго и нудно доказывают.
🔗 PrimeGrid project page: https://www.primegrid.com/
🔗 PrimeWiki (объяснение статусов): https://www.primegrid.com/wiki/
🔗 ECPP алгоритм на MathWorld: https://mathworld.wolfram.com/EllipticCurvePrimalityProving.html
Иногда в ленте PrimeGrid всплывают странные статусы новых простых чисел: PRP и Proven.
🔹 PRP (Probable Prime) — быстрый тест «похоже на простое».
Алгоритмы вроде Genefer для GFN-чисел или LLR для Proth-форм гоняют GPU и CPU, чтобы отсеять составные. Это ещё не доказательство, но вероятность ошибки меньше, чем шанс выиграть в лотерею.
🔹 Proven — уже настоящее доказательство:
через ECPP (эллиптические кривые), LLR-протоколы с верификацией или старый добрый сертификат Пратта. Тут результат можно проверить независимо — значит, простота доказана.
Разница во времени между PRP и proven — это не баг, а нормальный цикл: сначала находят кандидата, потом долго и нудно доказывают.
🔗 PrimeGrid project page: https://www.primegrid.com/
🔗 PrimeWiki (объяснение статусов): https://www.primegrid.com/wiki/
🔗 ECPP алгоритм на MathWorld: https://mathworld.wolfram.com/EllipticCurvePrimalityProving.html
👍2
Помочь Карибам после урагана
Zooniverse запустил срочный проект по анализу спутниковых снимков после урагана Melissa (категория 5).
Нужно быстро определить, где дороги, мосты, аэропорты и порты разрушены или заблокированы — чтобы гуманитарные службы могли планировать маршруты доставки помощи.
🛰️ Данные — от Planet Labs, разрешение 3 м.
🎯 Задача — отметить на фото, где есть обломки, затопления или разрушения.
📍 Даже если сомневаетесь — всё равно классифицируйте: каждый снимок проверяют несколько участников.
Проект здесь: zooniverse.org/projects/alicemead/planetary-response-network-hurricane-melissa-2025/classify
Ураган прошёл через Ямайку, Кубу, Гаити и Доминикану – и сейчас помощь зависит от того, как быстро волонтёры помогут разметить снимки.
Zooniverse запустил срочный проект по анализу спутниковых снимков после урагана Melissa (категория 5).
Нужно быстро определить, где дороги, мосты, аэропорты и порты разрушены или заблокированы — чтобы гуманитарные службы могли планировать маршруты доставки помощи.
🛰️ Данные — от Planet Labs, разрешение 3 м.
🎯 Задача — отметить на фото, где есть обломки, затопления или разрушения.
📍 Даже если сомневаетесь — всё равно классифицируйте: каждый снимок проверяют несколько участников.
Проект здесь: zooniverse.org/projects/alicemead/planetary-response-network-hurricane-melissa-2025/classify
Ураган прошёл через Ямайку, Кубу, Гаити и Доминикану – и сейчас помощь зависит от того, как быстро волонтёры помогут разметить снимки.
🔥1