新钛云服已累计为您分享820篇技术干货
01
登录IBM Storage Scale图形管理界面(GUI)
执行以下操作接受自签名证书
先点击 Advanced...(划至页面最下方),再点击 Accept the Risk and Continue
Name输入admin,Password输入admin001,点击Sign In登录按钮
登录Spectrum Scale管理平台
02
查看资源池(Pools)
访问左导航Storage -> Pools菜单
查看当前系统管理的全部资源池
- ssdpool:高性能磁盘组成的资源池,主要用于存储热数据或对性能要求较高的数据存储要求
- saspool:普通性能磁盘组成的资源池,主要用于存储普通性能要求的数据
- nlsaspool:较差性能磁盘组成的资源池,主要用于存储温数据,长期保留数据等
注:对于落了盘的数据,Spectrum Scale支持通过自动化策略进行数据迁移,如大量json,xml配置文件写入ssdpool以后,很快会触发磁盘的容量上线(预设的告警线),这时就可以通过策略将不活跃数据自动迁移到其它资源处(如nlsaspool)
接下来我们通过Spectrum Scale图形管理界面快速配置自动迁移策略:
03
进入信息生命周期管理(Informatica Lifecycle)页面
访问左导航Files -> Information Lifecycle
查看右侧的Policy列表:
Active Policy:当前活跃的策略规则
Policy Repository:策略库
04
创建策略(Policy)
Policy Repository标签页
+按钮,新建一个Policy,名字为"mypolicy2"
05
配置默认放置规则 Placement default
注:这里我们的目的是让没有特殊声明的一般的文件默认写入saspool资源池
- 在mypolicy2下方有一个默认的规则Placement default (*),鼠标点击选中
- 在右侧编辑pool = saspool(表示系统默认会把所有文件放置在saspool中)
- 点击Apply Changes按钮,保存设置
06
创建并配置高性能需求的放置规则
注:这里我们的目的是把json和xml格式的文件默认写入ssdpool
- 点击Add Rule按钮新建一个placement规则,Rule name: highperf,Rule type: Placement,
- 在右侧编辑pool = ssdpool
- 向下滚屏,如图所示,编辑Placement Criteria:Extension IN *.json, *.xml
- 点击左侧下方的Apply Changes按钮,保存设置
07
创建并配置迁移规则
注:我们的目的是当资源池ssdpool的存储空间占用率超过20%的时候,将json和xml格式的文件,迁移到资源池nlsaspool,释放ssdpool的空间,直到有99%的可用空间
- 点击Add Rule按钮新建一个Migration规则,Rule name: freeup,Rule type: Migration
- 在右侧配置参数
- Source=ssdpool, target=nlsaspool,
- Migration Threshold (Start=20%, Stop=1%),
注:勾选 Start 后需要点击 Register Default Script
- Migration Criteria (Include the files... → Extension IN *.json, *.xml),如下图所示,
- 点击左侧Apply Changes按钮,保存设置
08
调整放置规则(Rules)的顺序
- 将Placement default规则拖拽到最下方
- 点击Apply Changes按钮,保存设置
09
激活策略
注:此时创建的包含迁移规则的mypolicy2策略并没有在系统里生效,只是注册在了策略库(Policy Repository)里,下面我们把它们都激活
在左侧滚屏至最上面,右键选中mypolicy2,选择Apply as Active Policy点击进入Active Policy标签页,查看当前active的规则列表
10
模拟文件写入并触发迁移条件,验证迁移策略
注:如下命令行操作说明。在 GPFS服务器端的 /gpfs/migration目录中,我们可以查看到test1.json和test2.json文件默认在ssdpool资源池中,然后我们模拟写入一个1GB的test.json文件,此时触发了ssdpool占用率超过20%,会自动迁移json文件到nlsaspool的条件,几分钟后,再次查看到test1.json和test2.json已经迁移到nlsaspool中,证明迁移策略设置成功。
- 在桌面下方任务栏中,找到PuTTY客户端,它已经默认登陆到GPFS服务器中
- 进入/gpfs/migrationtest文件目录
# cd /ibm/gpfs/migrationtest
- 通过Spectrum Scale命令验证现有测试文件当前所在的存储资源池
# mmlsattr -L test1.json
# mmlsattr -L test2.json
查看输出结果中的storage pool name值,正常情况下应该显示:
test1.json -> ssdpool
test2.json -> ssdpool
- 通过命令mmdf gpfs查看ssdpool资源池的使用情况
# mmdf gpfs -P ssdpool --block-size auto
查看到当前ssdpool的剩余空间(free in full blocksz)约为93%
- 创建测试文件,触发20%的迁移条件
注:我们创建一个大小为1GB的文件,名为test.json,按照之前设置的默认放置策略,该文件会自动写入ssdpool,并触发20%的阈值
# dd if=/dev/zero of=test.json bs=1M count=1000
- 通过命令mmdf gpfs再次查看ssdpool资源池的使用情况
# mmdf gpfs -P ssdpool --block-size auto
查看到当前ssdpool的剩余空间(free in full blocksz)约为77%,触发20%的迁移条件
◦等待大约5-10分钟,查看结果
# mmlsattr -L test1.json
# mmlsattr -L test2.json
◦查看输出结果中的storage pool name值,正常情况下应该显示:
test1.json -> nlsaspool
test2.json -> nlsaspool
通过上面简单的测试我们可以发现Spectrum Scale可以通过快速的配置对数据进行在线迁移。我们在示例中仅仅演示了基于文件后缀名的判断条件,还有其它的参数,如用户,用户组等可以左右判断属性,您可自助实验。
如有相关问题,请在文章后面给小编留言,小编安排作者第一时间和您联系,为您答疑解惑。
热门跟贴