QuickConnect и DDNS
QuickConnect ( далее QC)
Офф дока по QC - https://global.download.synology.com/download/Document/Software/WhitePaper/Os/DSM/All/enu/Synology_QuickConnect_White_Paper_enu.pdf
1. Клиенту по запросу передаются сведения о сервере (public IP, LAN IP, and NAT type)
2. Клиент пытается установить прямое соединение. В случае неудачи поднимается VPN и тут варианты развития:
а) режим работы ната ПОЗВОЛЯЕТ установить прямое соединение используя взаимное соединение клиентов друг с другом (это прям очень образно). Далее в работе сервера Synology не участвую и тогда скорость обмена будет равна канальной. Принцип работы отображен на изображении 1 инструкции на 9 странице
б) режим работы ната НЕ ПОЗВОЛЯЕТ установить прямое соединение. В таком случае клиент и сервер устанавливают VPN туннель до релей серверов Synology. На выходе получаем ограничение канала на уровне релей серверов. Принцип работы отображен на изображении 2 инструкции на 10 странице
Общий принцип и алгоритм работы QC отображен на изображении 3 инструкции на 11 странице.
DDNS
DDNS!=QC хотя бы потому что DDNS - Dynamic DNS - динамическая система доменных имен. Просто трансляция понятного и запоминаемого текста в IP адрес. В связи с этим в определенных режимах работы NAT'а клиенту не удастся инициализировать соединение до сервера. Но в более "щадящих"режимах ната можно получить доступ из вне имея серый ip (nat 1:1, upnp, proxy). При использовании DDNS Synology не предоставляет гибридной схемы подключения.
Касательно fqdn от провайдера и серого ip на оконечном шлюзе. Все предельно просто - реверс прокси. В зависимости от запрошенного fqdn провайдер натит соединение до серого ip закрепленного за этим fqdn. Т.е. фактически это аля DDNS, но с куртизанками из коробки.
DDNS (ровно как и fqdn от провайдера) требуют проброса портов на шлюзе. QC для прямого соединения так же требует, но в случае отсутствия такой возможности позволяет установить соединение через релей.
Тэги: #QuickConnect #DDNS
QuickConnect ( далее QC)
Офф дока по QC - https://global.download.synology.com/download/Document/Software/WhitePaper/Os/DSM/All/enu/Synology_QuickConnect_White_Paper_enu.pdf
LAN/WAN Detection
When a client attempts to reach a Synology NAS using the server’s QuickConnect ID, a request is
sent to Synology QuickConnect Server for the registered information of the NAS. This allows the
client to obtain network information about the server to identify possible ways to connect it. The
information includes the public IP, LAN IP, and NAT type among others, all of which are necessary
for the link and do not compromise the security of the NAS. With the given information, the client
can identify whether a direct connection with the IP or domain address can be established over
LAN or WAN.
QuickConnect Hole Punching
If no direct connection can be established, the client will attempt to establish a virtual tunnel
between the client and the NAS via QuickConnect to allow a temporary direct link for data
transmission. This technology allows the server and the client to experience Internet
synchronization performance very similar to connecting via WAN IP/DDNS without physically
having such an environment.
Hole punching works by initiating a virtual tunnel from the client to the NAS with the aid of the
QuickConnect Server.
1. The NAS sends out a request to the QuickConnect Server, and keeps the hole, a random
external port punched by the request on the NAT in front of the NAS, open to receive a hole
punching request.
2. Similarly, the client sends out a request to the QuickConnect Server to create another hole on
the NAT in front of the client.
3. The QuickConnect Server will deliver the hole information of the NAS to the client and vice
versa.
4. The NAS will try to establish a connection to the client through the punched hole on the client
side.
5. Once the client receives the hole punching request from the NAS, a hole punching response is
sent back to the NAS via the punched hole on the NAS side.
6. If the hole punching response arrives at the NAS, a virtual tunnel is successfully created.
Вольный перевод:1. Клиенту по запросу передаются сведения о сервере (public IP, LAN IP, and NAT type)
2. Клиент пытается установить прямое соединение. В случае неудачи поднимается VPN и тут варианты развития:
а) режим работы ната ПОЗВОЛЯЕТ установить прямое соединение используя взаимное соединение клиентов друг с другом (это прям очень образно). Далее в работе сервера Synology не участвую и тогда скорость обмена будет равна канальной. Принцип работы отображен на изображении 1 инструкции на 9 странице
б) режим работы ната НЕ ПОЗВОЛЯЕТ установить прямое соединение. В таком случае клиент и сервер устанавливают VPN туннель до релей серверов Synology. На выходе получаем ограничение канала на уровне релей серверов. Принцип работы отображен на изображении 2 инструкции на 10 странице
Общий принцип и алгоритм работы QC отображен на изображении 3 инструкции на 11 странице.
DDNS
DDNS!=QC хотя бы потому что DDNS - Dynamic DNS - динамическая система доменных имен. Просто трансляция понятного и запоминаемого текста в IP адрес. В связи с этим в определенных режимах работы NAT'а клиенту не удастся инициализировать соединение до сервера. Но в более "щадящих"режимах ната можно получить доступ из вне имея серый ip (nat 1:1, upnp, proxy). При использовании DDNS Synology не предоставляет гибридной схемы подключения.
Касательно fqdn от провайдера и серого ip на оконечном шлюзе. Все предельно просто - реверс прокси. В зависимости от запрошенного fqdn провайдер натит соединение до серого ip закрепленного за этим fqdn. Т.е. фактически это аля DDNS, но с куртизанками из коробки.
DDNS (ровно как и fqdn от провайдера) требуют проброса портов на шлюзе. QC для прямого соединения так же требует, но в случае отсутствия такой возможности позволяет установить соединение через релей.
Тэги: #QuickConnect #DDNS
Forwarded from Zloy_VEN
Купил контроллер IBM M5014 LSI с целью подключить SAS диски в систему
Начитался про поддержку во всех современных виндах, поддержку больших дисков.
Купил к нему шнурок: miniSAS SFF-8087 на 4*SFF-8482 с подключением питания на SATA
Все воткнул и подключил.
До биоса крутит надписью
LSI MegaRAID SAS-MFI BIOS
Version 3.24.00 (Build october26, 2011)
F/W Initializing Devices 0%
Затем пишет что ничего из дисков не нашло, нажмите С для конфигурации, но нажатие не впускает ни в какой конфигуратор.
Читал что SAS контроллеры могут видеть и SATA диски, но мой другой диск 2Тб SATA не видится также..
1) Методом ковыряния в инете, обновлением прошивок до самой (вроде бы последней для этого IBM M5014 контроллера ibm_fw_sraidmr_m5000-12.15.0-0248_windows_32-64.exe) получил доступ в меню контроллера
Оказывается - меню контроллера отображается после нажатий на эти и другие (от новых прошивок) сочетания ТОЛЬКО в двух случаях
1.а) если в биосе стоит "ЗАГРУЖАТЬСЯ С RAID контроллера", после всех самотестов биоса получаем меню контроллера
1.б) если в биосе в меню где отображаются загрузочные устройства и есть возможность прямо оттуда запуститься с RAID, то сразу попадаем в это самое меню RAID
2) Каждый раз поражался отсутствию ЗВУКОВ раскрутки диска и треска головок на обоих SAS дисках.
Подкинул старенькие SATA диски (2тб и более свежий 8Тб) оба ожили, протрещали и появились в контроллере.
Понял что либо дискам труба (экспериментов много выполнял, в т.ч. и чудом раздобыл кабель из SATA материнки в SAS диск+в кабель же втыкался кабель питания),
либо я что-то простейшее упускаю.
Начал гуглить и обнаружил новомодную фишку для самых свежих дисков "Power Disable Feature"
Как описывают: это 3.3в от полноценного SATA кабеля питания, которые замыкаются на 3й вывод части разъема для питания на дисках. Он вызывает отключение питания диска.
Если у Вас не супер серверная корзина, то от ПОЛНОЦЕННОГО SATA кабеля 3.3в подаются всегда
Решение: убрать 3.3в (заклеить 3. ножку на разъеме, отрезать розовый провод на кабеле SATA питания, использовать MOLEX переходник, где просто нет этого питания)
И - все завелось.
Стырено отсюда
Тэги: #SAS, #железо #контроллер, #диски
Начитался про поддержку во всех современных виндах, поддержку больших дисков.
Купил к нему шнурок: miniSAS SFF-8087 на 4*SFF-8482 с подключением питания на SATA
Все воткнул и подключил.
До биоса крутит надписью
LSI MegaRAID SAS-MFI BIOS
Version 3.24.00 (Build october26, 2011)
F/W Initializing Devices 0%
Затем пишет что ничего из дисков не нашло, нажмите С для конфигурации, но нажатие не впускает ни в какой конфигуратор.
Читал что SAS контроллеры могут видеть и SATA диски, но мой другой диск 2Тб SATA не видится также..
1) Методом ковыряния в инете, обновлением прошивок до самой (вроде бы последней для этого IBM M5014 контроллера ibm_fw_sraidmr_m5000-12.15.0-0248_windows_32-64.exe) получил доступ в меню контроллера
Оказывается - меню контроллера отображается после нажатий на эти и другие (от новых прошивок) сочетания ТОЛЬКО в двух случаях
1.а) если в биосе стоит "ЗАГРУЖАТЬСЯ С RAID контроллера", после всех самотестов биоса получаем меню контроллера
1.б) если в биосе в меню где отображаются загрузочные устройства и есть возможность прямо оттуда запуститься с RAID, то сразу попадаем в это самое меню RAID
2) Каждый раз поражался отсутствию ЗВУКОВ раскрутки диска и треска головок на обоих SAS дисках.
Подкинул старенькие SATA диски (2тб и более свежий 8Тб) оба ожили, протрещали и появились в контроллере.
Понял что либо дискам труба (экспериментов много выполнял, в т.ч. и чудом раздобыл кабель из SATA материнки в SAS диск+в кабель же втыкался кабель питания),
либо я что-то простейшее упускаю.
Начал гуглить и обнаружил новомодную фишку для самых свежих дисков "Power Disable Feature"
Как описывают: это 3.3в от полноценного SATA кабеля питания, которые замыкаются на 3й вывод части разъема для питания на дисках. Он вызывает отключение питания диска.
Если у Вас не супер серверная корзина, то от ПОЛНОЦЕННОГО SATA кабеля 3.3в подаются всегда
Решение: убрать 3.3в (заклеить 3. ножку на разъеме, отрезать розовый провод на кабеле SATA питания, использовать MOLEX переходник, где просто нет этого питания)
И - все завелось.
Стырено отсюда
Тэги: #SAS, #железо #контроллер, #диски
Монтируем btrfs не в DSM
https://kb.synology.com/ru-ru/DSM/tutorial/How_can_I_recover_data_from_my_DiskStation_using_a_PC#x_anchor_id03
Есть официальная инструкция от Synology, но в ней есть пару нюансов:
1. Для монтирования raid с файловой системой btrfs использовать только образ Ubuntu 18.04, а не 18.04.1 - 18.04.6.
2. Систему устанавливать не нужно. Достаточно загрузиться в live-режим и следовать инструкции.
3. Если вы по какой-то причине не можете или не хотите использовать Ubuntu 18.04, а используете, например, 22.04, то вам следует для монтирования raid c brtfs использовать команду (есть опасность потерять данные)
а не
Raid монтировать строго в режиме чтения, иначе можно потерять данные!
https://t.me/xpenology_russian/31561
Тэги: #btrfs #ubuntu
https://kb.synology.com/ru-ru/DSM/tutorial/How_can_I_recover_data_from_my_DiskStation_using_a_PC#x_anchor_id03
Есть официальная инструкция от Synology, но в ней есть пару нюансов:
1. Для монтирования raid с файловой системой btrfs использовать только образ Ubuntu 18.04, а не 18.04.1 - 18.04.6.
2. Систему устанавливать не нужно. Достаточно загрузиться в live-режим и следовать инструкции.
3. Если вы по какой-то причине не можете или не хотите использовать Ubuntu 18.04, а используете, например, 22.04, то вам следует для монтирования raid c brtfs использовать команду (есть опасность потерять данные)
btrfs restore /dev/mapper/ваш_raid /mnt/ваша_точка_монтирования/
а не
mount ${device_path} ${mount_point} -o ro
Raid монтировать строго в режиме чтения, иначе можно потерять данные!
https://t.me/xpenology_russian/31561
Тэги: #btrfs #ubuntu
Synology
Как я могу использовать ПК для восстановления данных, когда мой Synology NAS выходит из строя? - Центр знаний Synology
Центр знаний Synology предлагает комплексную поддержку, ответы на часто задаваемые вопросы, инструкции по устранению неисправностей, руководства по программному обеспечению и всю необходимую техническую документацию.
Forwarded from Alex
rr-fix for admin center DSM
Because the principles of new cpuinfo and old cpuinfo modification are
different, conflicts will occur.If cpuinfo (old) was enabled before the upgrade, you may encounter the
problem that the control panel cannot be opened after the upgrade.Please execute the following command to restore the js of the control panel. After the restoration, the control panel can be opened. After rebooting, the new cpuionfo addons will take effect.
Or force reinstallation, select 'Force re-install DSM' from grub menu.
Поскольку принципы модификации новой cpuinfo и старой cpuinfo
отличаются, могут возникнуть конфликты.Если до обновления была включена старая версия cpuinfo, то после обновления вы можете столкнуться с проблемой, что панель управления не открывается.Выполните следующую команду, чтобы восстановить js панели управления. После восстановления панель управления можно открыть. После перезагрузки новые аддоны cpuionfo вступят в силу.Или выполните принудительную переустановку, выбрав в меню grub пункт 'Force re-install DSM'.
curl -kL https://github.com/sqehrzed/rr-fix/blob/main/admin_center.js.gz -o /usr/syno/synoman/webman/modules/AdminCenter/admin_center.js.gz
cp -f /usr/syno/synoman/webman/modules/AdminCenter/admin_center.js.gz /usr/syno/synoman/webman/modules/AdminCenter/admin_center.js.gz.bak
PS Переложил в доступный репозиторий.
Because the principles of new cpuinfo and old cpuinfo modification are
different, conflicts will occur.If cpuinfo (old) was enabled before the upgrade, you may encounter the
problem that the control panel cannot be opened after the upgrade.Please execute the following command to restore the js of the control panel. After the restoration, the control panel can be opened. After rebooting, the new cpuionfo addons will take effect.
Or force reinstallation, select 'Force re-install DSM' from grub menu.
Поскольку принципы модификации новой cpuinfo и старой cpuinfo
отличаются, могут возникнуть конфликты.Если до обновления была включена старая версия cpuinfo, то после обновления вы можете столкнуться с проблемой, что панель управления не открывается.Выполните следующую команду, чтобы восстановить js панели управления. После восстановления панель управления можно открыть. После перезагрузки новые аддоны cpuionfo вступят в силу.Или выполните принудительную переустановку, выбрав в меню grub пункт 'Force re-install DSM'.
curl -kL https://github.com/sqehrzed/rr-fix/blob/main/admin_center.js.gz -o /usr/syno/synoman/webman/modules/AdminCenter/admin_center.js.gz
cp -f /usr/syno/synoman/webman/modules/AdminCenter/admin_center.js.gz /usr/syno/synoman/webman/modules/AdminCenter/admin_center.js.gz.bak
PS Переложил в доступный репозиторий.
GitHub
rr-fix/admin_center.js.gz at main · xpenology-russian/rr-fix
Contribute to xpenology-russian/rr-fix development by creating an account on GitHub.
FAQ от ВизГ (https://t.me/xpenology_russian/35709)
Подключение UPS через uart2usb шнурок
делается через драйвера, но при запуске системы нужно постоянно его инициализировать, делал так с smartUps700
DSM умеет в юсб, а не в ком, а по сути эта штука создает виртуальный комп-порт
Вот мой скрипт, шнурок другой, но смысл тот же
теги: #UPS #pl2303
Подключение UPS через uart2usb шнурок
делается через драйвера, но при запуске системы нужно постоянно его инициализировать, делал так с smartUps700
DSM умеет в юсб, а не в ком, а по сути эта штука создает виртуальный комп-порт
Вот мой скрипт, шнурок другой, но смысл тот же
#!/bin/bash
#скрипт прописания ИБП
###########################
#запуск необходимых библиотек
rmmod pl2303
rmmod usbserial
insmod /lib/modules/usbserial.ko;
insmod /lib/modules/pl2303.ko;
#редактируем конфигурацию UPS'a
echo "" > /usr/syno/etc/ups/ups.conf;
echo "pollinterval = 5" >> /usr/syno/etc/ups/ups.conf;
echo "" >> /usr/syno/etc/ups/ups.conf;
echo "[ups]" >> /usr/syno/etc/ups/ups.conf;
echo $'\t'" driver = apcsmart" >> /usr/syno/etc/ups/ups.conf;
echo $'\t'" port = /dev/ttyUSB0" >> /usr/syno/etc/ups/ups.conf;
sleep 5;
#перезапуск службы ИБП
for i in /sys/bus/pci/drivers/[uoex]hci_hcd; do
echo ${i%}
[ -e "$i" ] || continue
echo "${i##*/}" > "${i%}/unbind"
echo "${i##*/}" > "${i%}/bind"
done
##################
#Конец скрипта
теги: #UPS #pl2303
Forwarded from Дима 1ok
Как пробросить GPU карту Nvidia в виртуальную машину.
Оказывается просто пробросить карту в гостевую виртуальную машину недостаточно. Nvidia в драйверах смотрит где они запущены. если находит что это виртуальная машина, то они работать не будут. Поэтому нам нужно будет спрятать нашу виртуализацию. В KVM гипервизоре это делается вот так, в конфигурационном файле xml виртуальной машины нужно добавить вот эти блоки внутри раздела domain
<features>
<hyperv>
<vendor_id state='on' value='randomid'/>
</hyperv>
<kvm>
<hidden state='on'/>
</kvm>
</features>.
А теперь рассмотрим все шаги по порядку.
Проброс видеокарты в KVM (Kernel-based Virtual Machine) называется PCI Passthrough. Вот основные шаги, чтобы настроить проброс видеокарты в KVM:
Поддержка оборудования и ПО: Убедитесь, что ваш процессор и материнская плата поддерживают IOMMU (Intel VT-d для Intel или AMD-Vi для AMD).
Настройка BIOS/UEFI: Включите поддержку виртуализации (VT-x для Intel или AMD-V для AMD) и IOMMU (VT-d для Intel или AMD-Vi для AMD) в настройках BIOS/UEFI вашего компьютера.
Настройка ядра Linux: Добавьте параметры intel_iommu=on или amd_iommu=on (для моего intel GRUB_CMDLINE_LINUX="intel_iommu=on iommu=pt vfio-pci.ids=10de:1f82,10de:10fa vfio_iommu_type1.allow_unsafe_interrupts=1 vfio_virqfd=1") в параметры загрузки вашего ядра Linux. Это можно сделать, отредактировав файл /etc/default/grub и добавив эти параметры в переменную GRUB_CMDLINE_LINUX, после чего необходимо обновить конфигурацию загрузчика командой sudo update-grub.
Проверка поддержки IOMMU: После перезагрузки проверьте, активирована ли поддержка IOMMU, используя команду dmesg | grep -e DMAR -e IOMMU.
0.008215] ACPI: DMAR 0x00000000DD063490 000080 (v01 INTEL HSW 00000001 INTL 00000001)
0.197491] DMAR: IOMMU enabled
0.287811] DMAR: Host address width 39
0.287812] DMAR: DRHD base: 0x000000fed90000 flags: 0x1
Отключение графического драйвера для видеокарты: Чтобы предотвратить использование вашей видеокарты хост-системой, нужно отключить графический драйвер для этой карты. Это можно сделать через черный список драйверов в файле /etc/modprobe.d/blacklist.conf.
options vfio-pci ids=10de:1f82, 10de:10fa
blacklist nouveau
Привязка видеокарты к VFIO-PCI драйверу: Используйте vfio-pci для привязки вашей видеокарты, чтобы она могла быть использована виртуальной машиной. Необходимо узнать идентификаторы PCI вашей видеокарты (используя команду lspci) и затем привязать их к драйверу vfio-pci.
lspci -nnk
01:00.0 VGA compatible controller [0300]: NVIDIA Corporation TU107 [10de:1f82] (rev a1)
Subsystem: NVIDIA Corporation TU107 [10de:1f82]
Kernel driver in use: vfio-pci
Kernel modules: nouveau
01:00.1 Audio device [0403]: NVIDIA Corporation Device [10de:10fa] (rev a1)
Subsystem: NVIDIA Corporation Device [10de:1f82]
Kernel driver in use: vfio-pci !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! видим что подгрузились не nvidia драйвера в гипервизоре, это нам говорит о том что карта не будет занята в гипервизоре, и будет возможность ей пользоваться в другом месте.
Kernel modules: snd_hda_intel
Запомним номер pci шины, потом мы будем пробрасывать в виртуалку саму pci шину, а в ней уже будет карта. В моем случае 01:00.0 и 01:00.1
Для проброса pci шины в гостевую систему, нужно добавить следующие строки
<hostdev mode='subsystem' type='pci' managed='yes'>
<source>
<address domain='0x0000' bus='0x01' slot='0x00' function='0x0'/>
</source>
<address type='pci' domain='0x0000' bus='0x06' slot='0x00' function='0x0'/>
</hostdev>
<hostdev mode='subsystem' type='pci' managed='yes'>
<source>
<address domain='0x0000' bus='0x01' slot='0x00' function='0x1'/>
</source>
<address type='pci' domain='0x0000' bus='0x07' slot='0x00' function='0x0'/>
</hostdev>
Видно что здесь два устройства в pci шине 01 00 00 и 01 00 01
#проброс видеокарты #nvidia
Оказывается просто пробросить карту в гостевую виртуальную машину недостаточно. Nvidia в драйверах смотрит где они запущены. если находит что это виртуальная машина, то они работать не будут. Поэтому нам нужно будет спрятать нашу виртуализацию. В KVM гипервизоре это делается вот так, в конфигурационном файле xml виртуальной машины нужно добавить вот эти блоки внутри раздела domain
<features>
<hyperv>
<vendor_id state='on' value='randomid'/>
</hyperv>
<kvm>
<hidden state='on'/>
</kvm>
</features>.
А теперь рассмотрим все шаги по порядку.
Проброс видеокарты в KVM (Kernel-based Virtual Machine) называется PCI Passthrough. Вот основные шаги, чтобы настроить проброс видеокарты в KVM:
Поддержка оборудования и ПО: Убедитесь, что ваш процессор и материнская плата поддерживают IOMMU (Intel VT-d для Intel или AMD-Vi для AMD).
Настройка BIOS/UEFI: Включите поддержку виртуализации (VT-x для Intel или AMD-V для AMD) и IOMMU (VT-d для Intel или AMD-Vi для AMD) в настройках BIOS/UEFI вашего компьютера.
Настройка ядра Linux: Добавьте параметры intel_iommu=on или amd_iommu=on (для моего intel GRUB_CMDLINE_LINUX="intel_iommu=on iommu=pt vfio-pci.ids=10de:1f82,10de:10fa vfio_iommu_type1.allow_unsafe_interrupts=1 vfio_virqfd=1") в параметры загрузки вашего ядра Linux. Это можно сделать, отредактировав файл /etc/default/grub и добавив эти параметры в переменную GRUB_CMDLINE_LINUX, после чего необходимо обновить конфигурацию загрузчика командой sudo update-grub.
Проверка поддержки IOMMU: После перезагрузки проверьте, активирована ли поддержка IOMMU, используя команду dmesg | grep -e DMAR -e IOMMU.
0.008215] ACPI: DMAR 0x00000000DD063490 000080 (v01 INTEL HSW 00000001 INTL 00000001)
0.197491] DMAR: IOMMU enabled
0.287811] DMAR: Host address width 39
0.287812] DMAR: DRHD base: 0x000000fed90000 flags: 0x1
Отключение графического драйвера для видеокарты: Чтобы предотвратить использование вашей видеокарты хост-системой, нужно отключить графический драйвер для этой карты. Это можно сделать через черный список драйверов в файле /etc/modprobe.d/blacklist.conf.
options vfio-pci ids=10de:1f82, 10de:10fa
blacklist nouveau
Привязка видеокарты к VFIO-PCI драйверу: Используйте vfio-pci для привязки вашей видеокарты, чтобы она могла быть использована виртуальной машиной. Необходимо узнать идентификаторы PCI вашей видеокарты (используя команду lspci) и затем привязать их к драйверу vfio-pci.
lspci -nnk
01:00.0 VGA compatible controller [0300]: NVIDIA Corporation TU107 [10de:1f82] (rev a1)
Subsystem: NVIDIA Corporation TU107 [10de:1f82]
Kernel driver in use: vfio-pci
Kernel modules: nouveau
01:00.1 Audio device [0403]: NVIDIA Corporation Device [10de:10fa] (rev a1)
Subsystem: NVIDIA Corporation Device [10de:1f82]
Kernel driver in use: vfio-pci !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! видим что подгрузились не nvidia драйвера в гипервизоре, это нам говорит о том что карта не будет занята в гипервизоре, и будет возможность ей пользоваться в другом месте.
Kernel modules: snd_hda_intel
Запомним номер pci шины, потом мы будем пробрасывать в виртуалку саму pci шину, а в ней уже будет карта. В моем случае 01:00.0 и 01:00.1
Для проброса pci шины в гостевую систему, нужно добавить следующие строки
<hostdev mode='subsystem' type='pci' managed='yes'>
<source>
<address domain='0x0000' bus='0x01' slot='0x00' function='0x0'/>
</source>
<address type='pci' domain='0x0000' bus='0x06' slot='0x00' function='0x0'/>
</hostdev>
<hostdev mode='subsystem' type='pci' managed='yes'>
<source>
<address domain='0x0000' bus='0x01' slot='0x00' function='0x1'/>
</source>
<address type='pci' domain='0x0000' bus='0x07' slot='0x00' function='0x0'/>
</hostdev>
Видно что здесь два устройства в pci шине 01 00 00 и 01 00 01
#проброс видеокарты #nvidia
Редактируем конфиг загрузчика без загрузки в загрузчик в DSM
Справедливо для ARC.
Справедливо для ARC.
sudo -i
mkdir -p /tmp/mountMe
cd /dev
sudo mount -t vfat synoboot1 /tmp/mountMe
ls /tmp/mountMe
cd /
umount /tmp/mountMe
rm -r /tmp/mountMe
Возникла проблема с одним из дисков.
Нужно проверить файловую систему. Но при нажатии кнопки проверить .Через несколько секунд выскакивает сообщение что не удалось проверить файловую систему (ext4).
Может кто знает как ещё можно её исправить?
Используйте инструкции которые описаны тут:
https://github.com/jmiller0/how-to-fsck-on-synology-dsm7
#fsck #fs #файловая_система
Нужно проверить файловую систему. Но при нажатии кнопки проверить .Через несколько секунд выскакивает сообщение что не удалось проверить файловую систему (ext4).
Может кто знает как ещё можно её исправить?
Используйте инструкции которые описаны тут:
https://github.com/jmiller0/how-to-fsck-on-synology-dsm7
#fsck #fs #файловая_система
GitHub
GitHub - jmiller0/how-to-fsck-on-synology-dsm7: How to FSCK on Synology DSM7
How to FSCK on Synology DSM7. Contribute to jmiller0/how-to-fsck-on-synology-dsm7 development by creating an account on GitHub.
#FAQ1 от @upais
/*--------------ARPL--------------*/
1) Записать образ на флешку из https://github.com/fbelavenuto/arpl
2) Загрузится с этой флешки
3) Зайти через браузер http://(ip):7681
4) "Choose a model" - Выбираем платформу
5) "Choose a Build Number" - Выбираем версию DSM
6) "Choose a serial number" - Сгенерировать серийник
7) "Build the loader" - Собираем загрузчик
8) "Boot the loader" - Загрузиться с него
9) Зайти на http://(ip):5000 и выбрать образ DSM скачанный с офф сайта
/*--------TinyCore RedPill---------*/
./rploader.sh update now
./rploader.sh fullupgrade now
./rploader.sh serialgen DVA1622 realmac
./rploader.sh identifyusb now
./rploader.sh satamap now
./rploader.sh build dva1622-7.1.1-42962
теги: #установка #installation #арпл #arpl #загрузчик #loader #tcrp #tinycore #redpill #пилюля #таблетка
/*--------------ARPL--------------*/
1) Записать образ на флешку из https://github.com/fbelavenuto/arpl
2) Загрузится с этой флешки
3) Зайти через браузер http://(ip):7681
4) "Choose a model" - Выбираем платформу
5) "Choose a Build Number" - Выбираем версию DSM
6) "Choose a serial number" - Сгенерировать серийник
7) "Build the loader" - Собираем загрузчик
8) "Boot the loader" - Загрузиться с него
9) Зайти на http://(ip):5000 и выбрать образ DSM скачанный с офф сайта
/*--------TinyCore RedPill---------*/
./rploader.sh update now
./rploader.sh fullupgrade now
./rploader.sh serialgen DVA1622 realmac
./rploader.sh identifyusb now
./rploader.sh satamap now
./rploader.sh build dva1622-7.1.1-42962
exitcheck.sh reboot
теги: #установка #installation #арпл #arpl #загрузчик #loader #tcrp #tinycore #redpill #пилюля #таблетка
GitHub
GitHub - fbelavenuto/arpl: Automated Redpill Loader
Automated Redpill Loader. Contribute to fbelavenuto/arpl development by creating an account on GitHub.
Подключение к сервисам DSM из "вне" для мобильных приложений.
При подключении из вне для некоторых мобильных приложений необходимо в строке подключения указывать не только адрес подключения, но и порт, если он отличен от дефолтного 5000 (для http) или 5001 (для https).
Пример: имеем доменное имя somedomain.com за 443 портом которого находится DSM. Соответственно в адресе необходимо указать "somedomain.com:443".
Список приложений:
DS Get
DS File
Для остальных приложений (photos, ds cam, drive и т.д.) указывать порт необходимости нет.
#внешний #доступ #ds
При подключении из вне для некоторых мобильных приложений необходимо в строке подключения указывать не только адрес подключения, но и порт, если он отличен от дефолтного 5000 (для http) или 5001 (для https).
Пример: имеем доменное имя somedomain.com за 443 портом которого находится DSM. Соответственно в адресе необходимо указать "somedomain.com:443".
Список приложений:
DS Get
DS File
Для остальных приложений (photos, ds cam, drive и т.д.) указывать порт необходимости нет.
#внешний #доступ #ds
Получение доступа к Arc Patch начиная с версии 1.1.1
Начиная с версии 1.1.1 для получения доступа к Arc Patch необходимо регистрировать HardwareID.
1. В меню загрузчика выбираем 0 пункт "Hardware ID for Arc Patch"
2. Открываем https://arc.auxxxilium.tech/, авторизовываемся через дискорд, в поле "Enter HardwareID" вводим код указанный в появившемся окне в загрузчике и нажимаем Register.
3. Возвращаемся в загрузчик и жмем "Retry". В случае успешной проверки регистрации появится окно сообщающее что данный HardwareID привязан к вашему UserID.
Для получения доступа к https://arc.auxxxilium.tech/ необходимо в канале https://discord.com/channels/639072565155069962/1244425251132018740 написать 1 сообщение.
Все, весь функционал Arc Patch доступен для использования.
#arcpatch #arc #patch
Начиная с версии 1.1.1 для получения доступа к Arc Patch необходимо регистрировать HardwareID.
1. В меню загрузчика выбираем 0 пункт "Hardware ID for Arc Patch"
2. Открываем https://arc.auxxxilium.tech/, авторизовываемся через дискорд, в поле "Enter HardwareID" вводим код указанный в появившемся окне в загрузчике и нажимаем Register.
3. Возвращаемся в загрузчик и жмем "Retry". В случае успешной проверки регистрации появится окно сообщающее что данный HardwareID привязан к вашему UserID.
Для получения доступа к https://arc.auxxxilium.tech/ необходимо в канале https://discord.com/channels/639072565155069962/1244425251132018740 написать 1 сообщение.
Все, весь функционал Arc Patch доступен для использования.
#arcpatch #arc #patch
Forwarded from Alexxx G
This media is not supported in your browser
VIEW IN TELEGRAM
#FAQ от @bojidar13 (https://t.me/xpenology_russian/91367)
Очистка системного раздела (в случаях когда нет возможности установить/обновить приложения/DSM)
Удостоверимся:
пароль администратора
Очистка системного раздела (в случаях когда нет возможности установить/обновить приложения/DSM)
Удостоверимся:
df -h
Filesystem Size Used Avail Use% Mounted on
/dev/md0 7.9G 7.9G 0.0G 100% /
sudo -i
пароль администратора
rm -rf /@autoupdate/
rm -rf /upt@te/
rm -rf /root/Xpenology_backup/
Forwarded from Anton Karlan
Данная инструкция для таких как я кто хочет проверить не использовался ли его недавно купленный HDD от Seagate (чаще всего серии Exos) в китайских майнинговых фермах Chia, притом что вынимать диск из хранилки не хочется.
Версия smartctl в DSM 6.5, поэтому опции
У меня получилось вот так.
Делаем проект вот с таким docker-compose.yml
И вот таким простым конфигом smartd.conf рядом с этим docker-compose.yml файлом
Не забудьте переделать файлы под свои диски (у вас может быть sata0, sata1 и так далее). Да и вообще можно пробросить только исследуемый Seagate диск. У меня конфиг для задачи избыточный, но рабочий.
Запускаем проект.
Идем в SSH на DSM
Переходим в рута (не знаю, может этот шаг не обязательный, я переходил) через
Вводим команду запуска smartctl из докера
Получаем примерно вот такой вывод:
Нас интересует число в Power on Hours:
Версия smartctl в DSM 6.5, поэтому опции
-l farm
у нее нет. Нам нужна версия 7.4, которую возьмем из докер образа.У меня получилось вот так.
Делаем проект вот с таким docker-compose.yml
services:
smartmontools:
container_name: smartmontools
image: gists/smartmontools
privileged: true
devices:
- /dev/sda:/dev/sda
- /dev/sdb:/dev/sdb
- /dev/sdc:/dev/sdc
- /dev/sde:/dev/sde
volumes:
- ./smartd.conf:/etc/smartd.conf
restart: always
И вот таким простым конфигом smartd.conf рядом с этим docker-compose.yml файлом
/dev/sda -d ata
/dev/sdb -d ata
/dev/sdc -d ata
/dev/sde -d ata
Не забудьте переделать файлы под свои диски (у вас может быть sata0, sata1 и так далее). Да и вообще можно пробросить только исследуемый Seagate диск. У меня конфиг для задачи избыточный, но рабочий.
Запускаем проект.
Идем в SSH на DSM
Переходим в рута (не знаю, может этот шаг не обязательный, я переходил) через
sudo su -
и ввод пароля от своей админской учетной записи.Вводим команду запуска smartctl из докера
# docker exec smartmontools smartctl -l farm /dev/sde
Получаем примерно вот такой вывод:
smartctl 7.4 2023-08-01 r5530 [x86_64-linux-4.4.302+] (local build)
Copyright (C) 2002-23, Bruce Allen, Christian Franke, www.smartmontools.org
Seagate Field Access Reliability Metrics log (FARM) (GP Log 0xa6)
FARM Log Page 0: Log Header
FARM Log Version: 4.28
Pages Supported: 6
FARM Log Page 1: Drive Information
Device Interface: SATA
Device Capacity in Sectors: 31251759104
Physical Sector Size: 4096
Logical Sector Size: 512
Device Buffer Size: 268435456
Number of Heads: 16
Device Form Factor: 3.5 inches
Rotation Rate: 7200 rpm
Firmware Rev: SCA4
Power on Hours: 361
Spindle Power on Hours: 361
Head Flight Hours: 361
Нас интересует число в Power on Hours:
#FAQ от @ubsefor (https://t.me/xpenology_russian/94785)
Монтирование папки из tmpfs для временного хранения логов с целью уменьшения частоты записи на диски:
1) Скрипт при включении в планировщике от рута (создает папку в /tmp и монтирует при помощи bind на место, куда сино пишет логи):
2) Скрипт при выключении в планировщике от рута (сохраняет записанные в tmp логи на реальный диск):
Задача в планировщике создается как - Создать - Запущенная задача - Скрипт, заданный пользователем. Пользователь - root. Так же возможно будет полезно последнюю задачу запускать каждое N время. К примеру раз в час.
Источник: https://github.com/RROrg/rr/issues/382#issuecomment-1826459525
Монтирование папки из tmpfs для временного хранения логов с целью уменьшения частоты записи на диски:
1) Скрипт при включении в планировщике от рута (создает папку в /tmp и монтирует при помощи bind на место, куда сино пишет логи):
if [ ! -d "/var/logrotate" ]; then
mkdir /var/logrotate
cp -a -f /var/log/. /var/logrotate
fi
cp -a -f /var/logrotate/. /tmp/log/
mount -B /tmp/log /var/log
if [ ! -d "/var/cachebak" ]; then
mkdir /var/cachebak
cp -a -f /var/cache/samba/. /var/cachebak/
fi
cp -a -f /var/cachebak/. /tmp/cache/
mount -B /tmp/cache /var/cache/samba
2) Скрипт при выключении в планировщике от рута (сохраняет записанные в tmp логи на реальный диск):
if [ ! -d "/var/logrotate" ]; then
cp -a -f /tmp/log/. /var/logrotate
fi
if [ ! -d "/var/cachebak" ]; then
cp -a -f /tmp/cache/. /var/cachebak
fi
Задача в планировщике создается как - Создать - Запущенная задача - Скрипт, заданный пользователем. Пользователь - root. Так же возможно будет полезно последнюю задачу запускать каждое N время. К примеру раз в час.
Источник: https://github.com/RROrg/rr/issues/382#issuecomment-1826459525
Telegram
Ubsefor in 🇷🇺 Xpenology Хренолоджи 🇷🇺
Монтирование папки из tmpfs для временного хранения логов с целью уменьшения записи на диски:
1) Скрипт при включении в планировщике от рута (создает папку в /tmp и монтирует при помощи bind на место, куда сино пишет логи):
if [ ! -d "/var/logrotate" ];…
1) Скрипт при включении в планировщике от рута (создает папку в /tmp и монтирует при помощи bind на место, куда сино пишет логи):
if [ ! -d "/var/logrotate" ];…
Arc-control каждый раз при запуске просит создать задачи в планировщике и требует ввести пароль
Либо в планировщике создать задачу от root и выполнить ее, либо подключится по ssh и так же от root (добавить sudo в начало команды) выполнить
Где volume1 - том на котором установлен Arc-control. В результате должны увидеть
После этого запросов при запуске не должно быть, а так же должны заработать кнопки reboot to update и остальные.
После обновления приложения возможно потребуется повторить операцию.
#Arccontrol
Либо в планировщике создать задачу от root и выполнить ее, либо подключится по ssh и так же от root (добавить sudo в начало команды) выполнить
/volume1/@appstore/arc-control/app/install.sh
Где volume1 - том на котором установлен Arc-control. В результате должны увидеть
restart package [arc-control] successfully
sc-arc-control ALL=(ALL:ALL) NOPASSWD: ALL
После этого запросов при запуске не должно быть, а так же должны заработать кнопки reboot to update и остальные.
После обновления приложения возможно потребуется повторить операцию.
#Arccontrol
Патч SS для версии 9.2.2_11575 (https://github.com/ohyeah521/Surveillance-Station) все же требует постоянного рестарта SS. Необходимо в планировщике создать задачу на каждый час от рута. Содержимое скрипта: synopkg restart SurveillanceStation
Без оного через некоторое количество времени SS либо перестает писать видео и потом начинает. либо постоянно перезапускается ничего не делая.
Без оного через некоторое количество времени SS либо перестает писать видео и потом начинает. либо постоянно перезапускается ничего не делая.
GitHub
GitHub - ohyeah521/Surveillance-Station: 破解Surveillance-Station的60授权,仅供学习研究,请勿用于商业用途!
破解Surveillance-Station的60授权,仅供学习研究,请勿用于商业用途!. Contribute to ohyeah521/Surveillance-Station development by creating an account on GitHub.