3
浏览群晖数据盘分区格式理解:
1、用diskgens软件看群晖的每个数据盘会发现有三个分区,每个硬盘(群晖数据硬盘是每一个硬盘都有系统的)第一个分区为引导系统,第二个分区为具体套件DSM文件存储区,第三个分区为数据存储区,也就是只要不改变分区大小以及格式化第三个分区的内容就不会出现数据丢失的情况。其于这个原理我们可以解决很大一部分因为升级、降级引起的故障。
2、物理机:用一个新的U盘刷一个如大白菜“PE”系统,用刷了PE的U盘去引导黑群,然后进到DG,把黑群上每个硬盘的第1个分区格式化一次。然后把黑群晖引导U盘放到电脑上,重新刷写群晖的U盘引导文件。刷好以后就可以去按照全新安装的方法安装回版本即可。原来硬盘的数据都在。在安装的时候会提示发现原有群晖硬盘,点只保留数据安装即可。
3、虚拟机:挂载一个大白菜“PE”的ISO文件(大白菜安装程序有一个生成本地ISO模式),从ISO引导进到PE,把每个硬盘的第1个分区格式化一次然后退出。把原来的虚拟机引导硬盘删掉,同时新建一个新的引导硬盘,刷回原来的版本恕我晖引导,然后按照全新安装的方法安装原来版本的系统。在安装的时候会提示发现原有群晖硬盘,点只保留数据安装即可。
4、原来已经安装过群晖系统再次安装别的版本会出现错误也可以用以上方法,假如全新安装还是不行那就是这个硬盘需要彻底删除所有分区再安装全新群晖,当然里面的数据也就全部没有了。
5、套件卸载命令
root#:synopkg list --name | xargs -I"{}" synopkg stop "{}"
root#:synopkg list --name | xargs -I"{}" synopkg start "{}"
6、高级教程:群晖存储空间报只读错误尝试在SSH中以ROOT权限登陆运行以下命令(复制粘贴root#:之后命令)
思路一:单个盘报错
root#:sudo fdisk -l
屏幕显示:
/dev/md1
/dev/md2 is wraing VER:1.2 #说明:是md2硬盘报故障错误了。
MD2 UUID号: Name : NANSHAN:2 (local to host NANSHAN)
UUID : ccc13cac:370dda8e:70dfad88:adcb34a1
Events : 11660
md2 : active raid1 sdb3 #md2与数据目录的对应关系
root#:cat /proc/mdstat
root#:mdadm -D /dev/md2
root#:synospace --stop-all-spaces
屏幕显示:/dev/sdb1 2048 4982527 4980480 2.4G fd Linux raid autodetect
/dev/sdb2 4982528 9176831 4194304 2G fd Linux raid autodetect
/dev/sdb3 9437184 4294762495 4285325312 2T fd Linux raid autodetect
Disk /dev/md2: 2 TiB, 2194085511168 bytes, 4285323264 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
root#:mdadm -Cf /dev/md2 -e1.2 -n1 -l1 /dev/sdb3 -uccc13cac:370dda8e:70dfad88:adcb34a1 #说明:e1.2代表版本,/dev/md2代表前面报错的位置, /dev/sdb3代表前面查找出来的对应关系, -u参数后面的字符填写对应的UUID号
root#:synospace --start-all-spaces
重新启动群晖之后进入群晖存储管理器,看能否出现在线重组选项(有时候要多重启几次),试着在线重组恢复,假如可以赶紧备份硬盘数据之后,删除全部存储空间,新建存储空间为BASIC模式正常使用群晖。
思路二:重建整个raid表,强制重建,前提是所有硬盘分区不能格式化,重要的第三个数据分区更不能格式化
https://blog.csdn.net/qq_41190902/article/details/133939160
#--level=5表示raid5 -devices=4 表示四个磁盘 磁盘ID用
sudo fdisk -l #查看磁盘ID
比如raid5采用四个硬盘组建,则可以查看到/dev/sdg /dev/sdh /dev/sdi /dev/sdj
mdadm --create /dev/md5 --level=5 --raid-devices=4 --force /dev/sdg /dev/sdh /dev/sdi /dev/sdj
#完毕后重启存储池
synospace --stop-all-spaces #先停止存储池命令
synospace --start-all-spaces #再启动存储池命令
root@DiskStation:~# mdadm --create /dev/md5 --level=5 --raid-devices=4 --force / dev/sdg /dev/sdh /dev/sdi /dev/sdj
mdadm: /dev/sdg appears to be part of a raid array:
level=raid5 devices=4 ctime=Sun May 4 14:24:39 2025
mdadm: partition table exists on /dev/sdg but will be lost or
meaningless after creating array
mdadm: /dev/sdh appears to be part of a raid array:
level=raid5 devices=4 ctime=Sun May 4 14:24:39 2025
mdadm: partition table exists on /dev/sdh but will be lost or
meaningless after creating array
mdadm: /dev/sdi appears to be part of a raid array:
level=raid5 devices=4 ctime=Sun May 4 14:24:39 2025
mdadm: partition table exists on /dev/sdi but will be lost or
meaningless after creating array
mdadm: /dev/sdj appears to be part of a raid array:
level=raid5 devices=4 ctime=Sun May 4 14:24:39 2025
mdadm: partition table exists on /dev/sdj but will be lost or
meaningless after creating array
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md5 started.
root@DiskStation:~# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4] [raidF1]
md5 : active raid5 sdj[3] sdi[2] sdh[1] sdg[0]
17581564608 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
[>....................] resync = 0.1% (8273792/5860521536) finish=597.9min speed=163106K/sec
md2 : active raid1 sda3[0]
477662208 blocks super 1.2 [1/1] [U]
md1 : active raid1 sda2[0]
2096128 blocks super 1.2 [16/1] [U_______________]
md0 : active raid1 sda1[0]
8387584 blocks super 1.2 [16/1] [U_______________]
unused devices: <none>
root@DiskStation:~# synospace --stop-all-spaces
sucess to unmount all volume, start to disassemble space
success to disassemble all space
synospace --start-all-spacesroot@DiskStation:~#
root@DiskStation:~# synospace --start-all-spaces
success
root@DiskStation:~#
最后重启NAS之后进入存储管理器看看能不能在线重组成功