跳转到主内容

在 Data ONTAP 8.3.x 或更高版本中, RAID 擦洗有哪些重要更改

Views:
44
Visibility:
Public
Votes:
0
Category:
ontap-9
Specialty:
core
Last Updated:

适用场景

ONTAP 9

问题解答

  • CPU 和磁盘利用率一般较高,尤其是在夜间。
  • 一个可能的原因可能是 Data ONTAP 8.3 中引入的 RAID 清理计划发生了变化。
    • Data ONTAP 8.3 中的默认 RAID 擦洗计划已更改—擦洗每天运行。
      • 有关 raid.scrub.schedule的详细信息,请参阅存储 RAID 选项命令
        • 注意: 如果未定义任何特定值、则会应用默认计划。
  • 此选项指定自动启动擦洗的每周计划(日期,时间和持续时间)。

    • 在非 AFF 系统上,默认计划为每天凌晨 1 点持续时间为4小时、但星期日为12小时除外

    • 在 AFF 系统上,默认计划为每周凌晨 1 点在星期日持续 6 小时

  • 默认情况下,擦洗每天会运行 4 小时,因此与先前的 ONTAP 8.3 版本的 ONTAP 相比,整体擦洗运行时间会更高,并且完成扫描的频率也会更高。 
    • 在此期间,系统的 CPU 和磁盘活动可能会较高。
    • 如果这是一周内的问题、则可以将计划定义为在特定时间运行以及在特定持续时间运行。
示例:
  • 使用storage raid-options show命令检查当前设置:
 cluster::> storage raid-options show -name raid.scrub.schedule Node Option Value Constraint -------- ------------------------------------- ------------ ----------- cluster-01 raid.scrub.schedule none cluster-02 raid.scrub.schedule none 2 entries were displayed.
  • 使用storage raid-options modify命令根据需要更改计划:
    • 注意
      • 以下命令会计划两次每周 RAID 擦除。 
      • 第一次擦洗是从每天星期二凌晨 2 点开始,持续 240 分钟( 4 小时) 
      • 第二次擦洗从晚上 10 点开始,每个星期六持续八个小时
 cluster::> storage raid-options modify -node cluster-01 -name raid.scrub.schedule 240m@tue@2,8h@sat@22 Specified scrub schedule added
  • 使用storage raid-options show命令,您可以验证对计划所做的更改:
 cluster::> storage raid-options show -name raid.scrub.schedule Node Option Value Constraint -------- ------------------------------------- ------------ ----------- cluster-01 raid.scrub.schedule 240m@tue@2 none cluster-02 raid.scrub.schedule none 2 entries were displayed. 
通过事件日志进行验证:
  • 您还可以使用event log show命令验证和搜索相关消息:
    • 注意: ONTAP 9 需要通过 set diag 命令升级到 diag 模式。
  • 在此示例中,根据默认计划,从凌晨 1 点开始。
 Cluster-01::> event log show -messagename raid.rg.scrub.resume [?] Tue May 24 01:00:12 CEST [cluster: config_thread: raid.rg.scrub.resume:notice]: /aggr_ssc_dc1_ds11_b_sata_root/plex0 /rg0: resuming scrub at stripe 578657472 (89%% complete)
  • 要检查是否暂停擦洗,请搜索暂停消息:
    • 在此示例中,它会按照默认计划在运行 4 小时后的凌晨 5 点暂停。
 Cluster-01::> event log show -messagename raid.rg.scrub.suspend [?] Tue May 24 05:00:01 CEST [cluster: config_thread: raid.scrub.suspended:notice]: Disk scrub suspended.
  • 要检查摘要,请运行:
 Cluster-01::> event log show -messagename raid.rg.scrub.summary [?] Tue May 24 05:00:01 CEST [cluster: config_thread: raid.rg.scrub.summary.lw:notice]: Scrub found 0 RAID write signature inconsistencies in /aggr_ssc_dc1_ds11_b_sata_data_01/plex0/rg0. 

追加信息

statit 此时将显示 gread ,并且磁盘可能显示 100% 繁忙 ,但这是正常的,因为 RAID 擦除是磁盘级别的后台活动:

Cluster::> set advanced Cluster::*> node run -node node_1 -command statit -b Cluster::*> node run -node node_1 -command statit -e ... Disk Statistics (per second) ut% is the percent of time the disk was busy. xfers is the number of data-transfer commands issued per second. xfers = ureads + writes + cpreads + greads + gwrites chain is the average number of 4K blocks per command. usecs is the average disk round-trip time per 4K block. disk ut% xfers ureads--chain-usecs writes--chain-usecs cpreads-chain-usecs greads--chain-usecs gwrites-chain-usecs /data_aggr1/plex0/rg0: 0a.00.4 79 280.18 0.00 .... . 0.00 .... . 0.00 .... . 280.18 64.00 60 0.00 .... . 0a.00.18 84 280.18 0.00 .... . 0.00 .... . 0.00 .... . 280.18 64.00 67 0.00 .... . 0a.00.10 82 280.18 0.00 .... . 0.00 .... . 0.00 .... . 280.18 64.00 64 0.00 .... . 0a.00.19 87 280.18 0.00 .... . 0.00 .... . 0.00 .... . 280.18 64.00 71 0.00 .... . 0a.00.12 86 280.18 0.00 .... . 0.00 .... . 0.00 .... . 280.18 64.00 69 0.00 .... . 0a.00.17 90 280.18 0.00 .... . 0.00 .... . 0.00 .... . 280.18 64.00 75 0.00 .... . 0a.00.16 91 280.18 0.00 .... . 0.00 .... . 0.00 .... . 280.18 64.00 77 0.00 .... . 0a.00.2 91 280.18 0.00 .... . 0.00 .... . 0.00 .... . 280.18 64.00 76 0.00 .... . 0a.00.3 92 280.18 0.00 .... . 0.00 .... . 0.00 .... . 280.18 64.00 78 0.00 .... . 0a.00.5 94 280.18 0.00 .... . 0.00 .... . 0.00 .... . 280.18 64.00 82 0.00 .... . 0a.00.6 95 280.18 0.00 .... . 0.00 .... . 0.00 .... . 280.18 64.00 85 0.00 .... . 0a.00.7 95 280.18 0.00 .... . 0.00 .... . 0.00 .... . 280.18 64.00 87 0.00 .... . 0a.00.13 96 280.18 0.00 .... . 0.00 .... . 0.00 .... . 280.18 64.00 89 0.00 .... . 0a.00.15 96 280.18 0.00 .... . 0.00 .... . 0.00 .... . 280.18 64.00 92 0.00 .... .

 

Scan to view the article on your device