当前位置:首页 » 硬盘大全 » 万兆nasssd缓存
扩展阅读
webinf下怎么引入js 2023-08-31 21:54:13
堡垒机怎么打开web 2023-08-31 21:54:11

万兆nasssd缓存

发布时间: 2022-07-05 08:43:22

❶ 组建万兆nas硬盘用ssd还是nvme

组建万兆nas硬盘用ssd。

上PCIe+NVMe的固态硬盘则有两个问题。

第一个问题是PCIe通道数不足。大部分NAS都是采用的低功耗x86平台,PCIe Lane数非常有限,无法支持同时运行多块PCIe固态硬盘的带宽需求。

第二个问题是网络瓶颈。目前大部分高端桌面电脑都只配备了千兆网卡(1000Mbps有线网卡以及1733Mbps无线网卡),仅极少数配备了2.5Gbps甚至5Gbps、10Gbps有线网卡,所以网络仍然是一大瓶颈。

注意

即便是CoffeeLake-S的旗舰平台(如Z390、C246芯片组),也只有16+24条PCIe 3.0通道。

要命的是,其中24条来自PCH,也就是到CPU的带宽仍受限于DMI 3.0总线的8GT/s(就是PCIe 3.0,一共四条,忽略128b/130b校验位计算,理论速度约为4GB/s)。

至于CPU提供的16条PCIe也不好利用,因为默认的拆分策略只有1x16, 2x8, 1x8+2x4这几种,还得额外配备PCIe拆分芯片才能实现4x4甚至是8x2这样的分配方式。




❷ 群晖选多大的SSD

今夜来谈群晖----缓存、NAS和SSD那些事

《群晖NAS非官方入门手册》是作者Lifeisgood在张大妈首发的写作计划,以知识卡片的形式,在每篇教程分享群晖的关键技能。2018年至今,已坚持三年。Life君是本站黑群晖配置最高、白群晖闲置最多的NAS小白。从今年八月起,作者Life君在张大妈创建专属达人专栏----群晖NAS非官方入门手册。

❸ 群晖nas怎样看建议ssd

在NAS中创建SSD缓存。
SSD缓存是SSD中闪存芯片上频繁访问的数据(也称为热数据)的临时存储空间,较低延迟的SSD可以更容易地响应数据请求,以加快读/写速度并提高整体性能。由于大型顺序读/写操作(如HD视频流)缺少重新读取模式,因此此类工作负载模式无法从SSD缓存中获益。

❹ 铁威马NAS如何设置高速缓存

将SSD 安装在硬盘支架上,将支架插入TNAS 插槽;前往 TOS 桌面 > 控制面板 > 存储管理 > 磁盘阵列;点击 “高速缓存”。TNAS 识别SSD 需要花费几十秒的时间,请耐心等待;如您插入了不止一个SSD,选择一个SSD;设定SSD 的分区数。您可以将SSD 分成一个区或者两个区,每个磁盘阵列可使用其中一个分区作为高速缓存;点击 “应用”。设定高速缓存的过程需要花费少许时间,请耐心等待。

❺ 黑群晖上个SSD缓存有必要么

刚定了916+,准备用一块ssd做缓存,网上关于这方面的好像很少,只看到黑裙dsm5.2用一块ssd只能做只读缓存,读写的话要2块,dsm6.0是不是只需要一块了?有谁用过的来说一下,

2# pufer
2016-11-2 14:21:38
依然这样,读缓存1块SSD就可以,写缓存必须2块做RAID1。

原因很简单:
读缓存只是把硬盘的热数据复制到SSD中,读取时优先读取SSD的内容。如果出现SSD损坏,原来硬盘上的数据不会有丢失。
写缓存的话,系统做写入,优先写入SSD,然后再用空闲时候把数据写回到机械盘。这就带来一个问题,写缓存的盘,一直被优先写入,对于SSD的写寿命是很大的考验。所以写缓存的SSD很容易坏。同时,当写缓存SSD损坏时候,部分数据在写缓存SSD而没转移到机械盘上的,就直接丢失了。如果是文件映射表之类的数据,可能造成整个数据区的损坏。

所以群晖强制写缓存RAID1,就是出于数据安全的考虑。

商用存储,基本上也会有类似设计。而且写缓存SSD会使用Intel S3700之类的写寿命很高的盘做写缓存盘

❻ 铁威马NAS中我可以使用SSD作为SSD Cache吗使用SSD可以提高速度吗

是的,你可以使用SSD作为SSD Cache,可以提高速度。

❼ FreeNAS固态缓存大小

磁盘读写少,更加切匀,表现为同样的硬盘放在truenas上声音心,也就有效延长ろ硬盘寿命
压缩功能,变相硬盘扩容,8T硬盘压缩1.2相当于扩
容31.6T空间
自带去重,猜测就是指针改一下,维护个目录就行ろ这种形式
写时复制,不会因为系统卡死、意外中断导致数据
消失
无须花额外的钱买阵列卡,采用raidz就能达到冗余安全的效果(或直接it固T件的直通卡,直接将所有硬
盘交给NAS进行阵列的组建,才能利用上这些他们的
文件系统)
亿乎完备的企业级数据保护方案:如热备盘,系统
mirror,包括前面提到过的raidz
性能方面可以加入ssd缓存提升存储池内的并发访问速度,组2.5G局域网甚至万兆网体验很美好
拷贝文T件速度稳定而快速

❽ 八盘位NAS上几个硬盘能达到万兆

1、主板:超微X10DRL-i

2、CPU:E5 2650L v3*2

2、内存:4*8g DDR4 REG ECC(SK Hynix HMA41GR7MFR8N-TF)

4*16g DDR4 REG ECC(Samsung M393A2G40DB0-CPB)

3、阵列卡:LSI 9208-8i IT模式(共有两块,只使用了一块)

4、硬盘:8*日立HUS72302CLAR2000

5、电源:长城巨龙EPS1000DA

6、机箱:TT W200(对硬盘散热使用了7把12cm风扇保证散热)

软件平台:

系统:Ubuntu Server 20.04.1 LTS

zfs阵列使用OpenZFS on linux v2.0.4

其余raid阵列使用mdadm创建

测试脚本

本次测试均使用script命令记录测试结果

创建mdadm阵列使用如下脚本:

mdadm --create --verbose /dev/md1 -level=$level --raid-devices=$i --chunk=$chunk /dev/sd$j
其中$level与$chunk对应raid类型和chunk大小(条带大小),$i和$j则因为有部分测试只使用4块硬盘测试,使用md1因为操作系统安装在由两块ssd(sda、sdb)以raid1组成的md0阵列上

创建文件系统,使用ext4文件系统:

mkdir -p /pool_0
yes | mkfs.ext4 -F /dev/md1
yes | mount -t ext4 /dev/md1 /pool_0
清理阵列:

mdadm --stop /dev/md1
mdadm --misc --zero-superblock /dev/sd$j
创建zfs阵列使用如下脚本:

zpool create pool_0 $raid-level /dev/sdc /dev/sdd /dev/sde /dev/sdf /dev/sdg /dev/sdh /dev/sdi /dev/sdj

zpool create pool_0 $raid-level /dev/sdc /dev/sdd /dev/sde /dev/sdf $raid-level /dev/sdg /dev/sdh /dev/sdi /dev/sdj
第二种方式用于组建如raidz0等跨越阵列时使用

因为zfs自动创建挂载点,故测试时直接使用默认挂载点测试

清理阵列:

zpool destroy pool_0
sgdisk --zap-all /dev/sd$j
测速命令:

dd if=/dev/zero of=/pool_0 bs=$bs count=10000
$bs为块大小,分别测试了512,4k,8和1m下的速度

命令重复5次,去掉最大值和最小值计算平均值作为最终结果

另外还进行了每块硬盘单独测速,同样使用ext4文件系统

测试结果

各硬盘测试结果
虽然这批硬盘都是二手贴标盘,但是测试速度还是可以的,除了作为二手盘的一些毛病外(之后会提到)。

接下来是阵列速度的测试,以下测试中,以8块硬盘或4块硬盘使用mdadm创建了raid0,5,6,10和使用zfs创建raid z1,z2,z3,2*z1,strip(等于raid0),mirror+strip(等于raid10),分别测试了mdadm设置不同chunk大小对速度的影响(不带chunk的则为zfs阵列),以及使用不同bs大小测试阵列在不同块大小下速度表现。

阵列测速 block size = 512
这次测试设置的最小块大小为512,此时速度受影响最大的是使用zfs创建的各个阵列,全部只有60m/s出头的速度,而最高速度梯队均被8盘raid0占据,但速度只有140-150,与单盘相比只有不到一倍的提升,迷惑的是chunk大小对应的速度顺序十分混乱,几乎无法总结出规律。

阵列测速 block size = 4k
4k速度领先的仍然是raid0,zfs的各个阵列排在中间,最低的则变成了4盘组的raid10,速度甚至低于单盘速度,可谓惨不忍睹,而我常用的raid5速度在350左右,只有不到2倍提升。

阵列测速 block size = 8k
8k速度比较有意思,raid0速度仍然占据前列,而zfs的速度明显提升,尤其是raidz1*2和使用zfs创建的raid10,这两个都是我曾经选择过的方案(raid10使用了16盘)

阵列测速 block size = 1M
最终来到1M块大小的测试,这次变化比较大,速度最高的是8盘使用zfs创建的raid0,速度达到了1100+,而实际上,我测试12盘速度时,这种方式创建的阵列速度可以到达1300+,而其余成绩几乎没有什么出乎预料的地方,只有上面提到的zfs下raidz1*2和raid10的排名继续上升

总结

说一下我的感觉,在做这次测试之前我也预料到测试结果就是如此惨淡,因为平时我使用情况便是桌面机和服务器之间使用万兆网卡相连,通过smb共享文件,不过文件性能实在不是很满意,从桌面机的ssd拷贝文件到服务器上速度只有400出头,而且遇到大量零碎文件时响应相当慢,一直以来我便考虑是smb的问题还是磁盘性能就是这样,这个测试说出了答案。

测试中,速度最快的无疑是raid0,只不过应该不会有人选择,其余比较有价值的选择分别是raid5和2*raid z1,这两个选项都有不错的性能,也分别有1盘和2盘的冗余,当初我选择使用2t磁盘,便是考虑到在损坏1块硬盘时,2t硬盘重组阵列还是相对安全的,基本上一天以内阵列就恢复同步,当然我更偏向使用zfs,尤其是我最开始选择这套配置便是奔着freenas去的,而且raid z2和raid z3虽然性能不足,但是安全性绝对是更高的,只不过8盘位下,这两个选择明显没有优势。

对于条带大小,实在是认识有限,之前一直使用默认参数,而网络上没有找到有用的资料,只能说是瞎子过河,用我自己的理解去测试,结果是无功而返。

后记

这个测试差不多在一个多月前做的,现在才发纯粹因为懒癌犯了,第一次在b站发文章,文案啰嗦得把自己也难受到了,还是感谢能看到这里,之后也许还会总结一些我之前的经验,我会多多努力。发文的时候我的配置已经做了一个大的调整,也乘着这次矿潮,把之前的设备卖了,还得了一笔不小的差价,而目前硬件涨价实在厉害,还好我在涨价前购入了一块12t硬盘,跟之前用来冷备的另一块12t硬盘组一起,现在数据暂且存在这两块硬盘上,对nas的进一步改造只能留在将来了。

说到之前设备的缺点,只能说现实总是事与愿违,一开始我选择2t sas做阵列,主要是几方面,一是价格,二是容量,三是速度。最开始我的群晖nas上选择了两块6t和两块3t硬盘分别组raid1,光是硬盘价格就接近四千,而nas价格是三千出头。而换成自组的nas和二手硬盘,价格只要一半多点,还能拥有8盘位和万兆网络,价格便是最大的优势。而2t硬盘前面提到了,我认为这个容量还是比较适合阵列掉盘后重建的,成功率和速度都能预测得到,而有了盘位优势,容量便不是问题。至于速度,相比4盘位,8盘位优势理所当然是更大。

而实际上,二手硬盘由于质量参差不齐,有一些盘用了很久依然坚挺,而有一些在使用两三个月内就会出现问题,导致其成了消耗品,而为了安全性,我把盘位一步步提高,曾试过12盘和16盘,做了更高级别的raid如raidz3和2*raidz2,而代价是性能不升反降,而且一个大问题暴露出来了,这些硬盘本来功耗就不小,而我使用的环境没有机房那样的稳定温度,导致硬盘发热严重,而且电费也猛然飙升,最终只能下决定放弃,也意识到这个方案在我目前情况下不可行。

在测试结束后,我意识到这次测试并不太严谨,首先我只测试了写入速度没有测试读取速度,原因是没有找到合适的测试方法,在某些测试中,会因为缓存原因导致测出的速度发生明显错误,而我测试的数据也没有与其他人对比过,实际这个速度是否合格纯粹是我个人的主观判断。并且,在创建文件系统时,我并没有注意到有block的参数,而在后来发现这个参数也许会影响到结果。最后一个大问题是,在测试前后我都对硬盘进行过坏道测试,结果发现sdh盘,也就是那块型号不同的,实际上是同型号的HP贴标盘,在测试后出现了三个连续坏道,而由于第二次坏道测试是在我转让硬盘前做最后测试时发现的,不确定坏道是否在此过程中出现,所以这次的测试,只能以极其不严谨的标志定义,在将来我有机会再次测试时,定要以严谨为首要,以弥补这次的遗憾。

❾ 群晖ssd缓存和ssd通道

SSD缓存有用。
群辉的一大优势就是盘位数量不受限,应当充分发挥这个优势,加入一块小容量的SSD就能给NAS中常用热数据进行读取加速,对小文件访问性能的提升很大。