Showing posts with label Virtuozzo. Show all posts
Showing posts with label Virtuozzo. Show all posts

June 4, 2015

Quản lý CPU limits trên Virtuozzo

9

Giới hạn CPU cho Containers và VM trên Parallels Server Bare Metal ( PSBM ),  Parallels Virtuozzo.

Việc giới hạn sử dụng CPU trên các Container hoặc VM được xác định theo các tham số sau.Cpus:  Tham số này qui định số core/thread tối đa mà VM/CT được phép sử dụng tại 1 thời điểm từ CPU của host. VM/CT sau khi được cấp số lượng core/thread này sẽ không thể sử dụng nhiều hơn số lượng core/thread đó trên host.
Cpumask:   Để chỉ định VM/CT  sử dụng core/thread nào trên host CPU.
Ví dụ:
Một Server có CPU có 8 core và bạn muốn các tiến trình trong container 102 được xử lý bởi chỉ 2 core cuối từ host CPU.
B1: Hiển thị các chỉ mục Core/thread của host CPU (Bắt đầu từ 0 -> n)
#numactl -H | grep cpu
node 0 cpus: 0 1 2 3 4 5 6 7
B2: Cấu hình cho CT 102 sử dụng 2 core cuối từ host CPU
#vzctl set 102 –cpumask 6,7 –save
Để kiểm tra container 102 hiện đang được phục vụ bởi core nào:
#vzctl 102 –o cpumask
Để cấu hình container 102 tự động sử dụng các core hiện có trên host CPU:
#vzctl set 102 –cpumask auto --save
Cpuunits : Qui định độ ưu tiên xử lý host CPU mà CT  được ưu tiên sử dụng khi vào một thời điểm có nhiều VM/CT khác trên host cũng đang cần sử dụng phần CPU này hoặc trong trường hợp host CPU đầy tải. Cpuunits VM/CT nào cao hơn sẽ được ưu tiên hơn.
#vzctl set 101 --cpuunits 272004 --save
Nodemask : Chỉ định CPU vật lý mà VM/CT được phép sử dụng, Nodemask sử dụng cùng lúc với Cpumask để chỉ định CPU vật lý và core trên CPU vật lý đó cho VM/CT sử dụng. Giả sử Server của bạn có 2 CPU vật lý, mỗi CPU 8 core/thread. VD muốn chỉ định VM/CT sử dụng CPU vật lý thứ 2 và core bất kì.
B1: Hiển thị các chỉ mục CPU vật lý và Core/Thread của host CPU
#numactl -H | grep cpu
node 0 cpus: 0 1 2 3 8 9 10 11 (CPU vật lý 1)
node 1 cpus: 4 5 6 7 12 13 14 15 (CPU vật lý 2)
B2: Chỉ định cho VM/CT sử dụng CPU vật lý thứ 2
#vzctl set 102 -nodemask 1 –cpumask auto --save
Cpulimit :  Parallels cung cấp 2 giá trị chỉ định tốc độ xử lý của VM/CT theo 2 dạng: phần trăm tốc độ host CPU (%) và tốc độ host CPU theo megaherz.
  • Giả sử một server có 4 core và xung nhịp của nó là 2000Mhz. Khi một core hoạt động tối đa thì nó đạt mức 100% (2000Mhz) , ví dụ một server có 4 core thì mức hoạt động tối đa của nó sẽ là 400% hoặc 8000Mhz.
 Các bảng bên dưới sẽ thể hiện rõ hơn về Limit CPU trên 2 phần cứng khác nhau.
#vzctrl set CTID --save --cpus 1 --cpulimit 100%
1
#vzctrl set CTID --save --cpus 2 --cpulimit 100%
2
#vzctrl set CTID --save --cpus 1 --cpulimit 50%
3
#vzctrl set CTID --save --cpus 2 --cpulimit 50%
4
#vzctrl  set  CTID  --save  --cpus 1  --cpulimit  1000m
5
#vzctrl set CTID --save --cpus 1 --cpulimit 2000m
6
#vzctrl set CTID --save --cpus 4 --cpulimit 100%
7
#vzctrl set CTID --save --cpus 4 --cpulimit 2000m
8
#vzctrl set CTID --save --cpus 4 --cpulimit  250%
9

Migrate OpenVZ container qua PSBM hoặc Virtuozzo

Để migrate một  OpenVZ container đến (Parallels Server Bare Metal) PSBM hoặc PCS, cần làm như sau:
  1. Copy/move thư mục chứa container đến nơi cần chuyển.Ví dụ ở đây đích đến là /vz/tmp/111 trên 192.168.15.15.
    # rsync -avz /vz/private/111 root@192.168.15.15:/vz/tmp/111 --numeric-ids
    
  2. Copy file /etc/vz/conf/111.conf trên server cũ vào folder tương ứng trên 192.168.15.15.
  3. Sau đó chuyển container 111 ( đã migrate trên folder /tmp ) tới nơi muốn lưu chính trên 192.168.15.15.
    # mv /vz/tmp/111 /vz/private/
    
  4. Thay đổi các tham số cấu hình bên trong container ở folder /etc/vz/conf/111.conf:
    PHYSPAGES="0:262144" ->  PHYSPAGES="262144"
    SWAPPAGES="0:2621440" -> SWAPPAGES="2621440"
    DISKSPACE="2G:2.2G" -> DISKSPACE="2000000"
    
  5. Chạy command ovzconvert ( không cần các option ) sẽ tự động convert container.
    # ovzconvert
  6. Khởi động Container thôi . :)

Tạo và quản lý Private network cho VM/CT trên Virtuozzo

  • Private network
Dùng để tạo 1 vùng network private về mặt logic giữa các địa chỉ IP trực thuộc Private network đó, cách ly các IP này với bên ngoài. Lúc này thì chỉ có các IP thành viên mới giao tiếp được với nhau.
Để tạo private network cho CT 101 và 102 có IP lần lượt là 10.10.10.101 và 10.10.10.102
#prlsrvctl privnet add test –ipadd 10.10.10.101 –ip 10.10.10.102
Lưu ý: Đối với VM/CT đang chạy network mode Bridged phải thực hiện câu lệnh sau trên tất cả các server node trong cluster
# echo 1 > /proc/sys/net/vzpriv_handle_bridge
Private network có giá trị cục bộ trên từng node, vì vậy với trường hợp các VM/CT cùng thuộc 1 private network nhưng nằm  rải rác trên nhiều node, ta phải tạo nhiều private network khác nhau trên nhiều node, các private network này phải giống nhau về các IP thành viên và không nhất thiết phải giống private network name.
VD: CT 101 nằm trên node 1 và CT 102 nằm trên node 2
Trên node 1:
#prlsrvctl privnet add test –ipadd 10.10.10.101 –ip 10.10.10.102
Trên node 2:
#prlsrvctl privnet add test –ipadd 10.10.10.101 –ip 10.10.10.102
hoặc
#prlsrvctl privnet add test1 –ipadd 10.10.10.101 –ip 10.10.10.102

  • Weak private network
Khác với Private network sẽ cách ly các IP thành viên với mạng bên ngoài, weak private network dùng để cho phép các thành viên bên trong 1 private network có thể giao tiếp với bên ngoài (Internet).
#prlsrvctl privnet set <privnet_name> –ipadd ‘*’

Quản lý Disk I/O cho VM/CT trên Virtuozzo

PCS cho phép cấu hình độ ưu tiên về I/O giữa các Container và VM. Có thể thay đổi giá trị ưu tiên về I/O bằng tham số “ioprio.”
#prlctl set MyVM --ioprio 6
#prlctl set 101 --ioprio 6
Tham số –ioprio có giá trị từ 0 đến 7, mặc định ioprio là 4 cho tất cả VM và Container. VM và Container nào có ioprio cao hơn thì được ưu tiên hơn I/O từ hệ thống.  Kiểm tra giá trị ioprio hiện tại trên VM hoặc Container.
Container :
# grep IOPRIO /etc/vz/conf/101.conf
IOPRIO=”6″
VM :
# prlctl list --info | grep ioprio
cpu 2 VT-x accl=high mode=32 cpuunits=1000 ioprio=6 iolimit=0
Giới hạn băng thông I/O cho VM và CT.
Tham số –iolimit : Giới hạn bandwidth mà VM/CT có thể sử dụng tối đa khi tranfer data trên mạng, nếu không giới hạnVM/CT có thể sử dụng băng thông đĩa cứng tối đa từ hệ thống.
VD: Giới hạn bandwidth tranfer là 10MB/s
# prlctl set MyVM --iolimit 10
Set up iolimit: 10485760
The VM has been successfully configured.
Mặc định limit bandwidth ở mức MB, nhưng có thể limit ở các mức khác như gigabyte ( VD : 1G ), kilobyte ( VD: 1K ), bytes ( 1B ).
Để kiểm tra mức iolimit hiện tại của VM hoặc Container.
# prlctl list MyVM -o iolimit
110485760
# prlctl list 101 -o iolimit
IOLIMIT
10485760
Xóa iolimit của VM hoặc Container.
# prlctl set MyVM --iolimit 0
Set up iolimit: 0
The VM has been successfully configured.
# prlctl set 101 --iolimit 0
Set up iolimit: 0
Saved parameters for Container 101

IOPS : Input/Ouput Per Second . Giới hạn IOPS tối đa mà 1 VM/CT có thể sử dụng. Để cấu hình iops limit ta dùng tham số –iopslimit .
Giới hạn 100 iops cho CT 101 và myvm
# prlctl set 101 --iopslimit 100
# prlctl set MyVM --iopslimit 100
Để kiểm tra lại iops đã giới hạn ta dùng
# pstat –A
ST IOUSED IOWAIT IO IOPS NAME
OK 0.00 0.00 0.0/—KB/s 0.0/100/s MyVM
OK 0.00 0.00 0.0/—KB/s 0.0/100/s 101
Để xóa iops limit ta dùng
# prlctl set 101 --iopslimit 0
# prlctl set MyVM --iopslimit 0

Thống kê số lượng Disk I/O hiện tại.
Để thống kê số lượng I/O của các VM/CT ta sử dụng command pstat với option –a.
# pstat -a
7:18pm, up 1 day, 1:29, 2 users, load average: 0.00, 0.01, 0.00
CTNum 1, procs 127: R 2, S 125, D 0, Z 0, T 0, X 0
CPU [ OK ]: CTs 0%, CT0 1%, user 0%, sys 2%, idle 98%, lat(ms) 12/0
Mem [ OK ]: total 1560MB, free 627MB/402MB (low/high), lat(ms) 0/0
ZONE0 (DMA): size 16MB, act 0MB, inact 0MB, free 11MB (0/0/0)
ZONE1 (Normal): size 880MB, act 76MB, inact 104MB, free 616MB (3/4/5)
ZONE2 (HighMem): size 684MB, act 116MB, inact 153MB, free 402MB (0/1/1)
Mem lat (ms): A0 0, K0 0, U0 0, K1 0, U1 0
Slab pages: 65MB/65MB (ino 43MB, de 9MB, bh 2MB, pb 0MB)
Swap [ OK ]: tot 2502MB, free 2502MB, in 0.000MB/s, out 0.000MB/s
Net [ OK ]: tot: in 0.005MB/s 45pkt/s, out 0.000MB/s 1pkt/s
lo: in 0.000MB/s 0pkt/s, out 0.000MB/s 0pkt/s
eth0: in 0.005MB/s 45pkt/s, out 0.000MB/s 1pkt/s
br0: in 0.000MB/s 0pkt/s, out 0.000MB/s 0pkt/s
br1: in 0.000MB/s 0pkt/s, out 0.000MB/s 0pkt/s
Disks [ OK ]: in 0.000MB/s, out 0.000MB/s
ST IOUSED IOWAIT IO IOPS NAME
OK 0.00 0.00 0.0/—KB/s 0.0/–/s 101
OK 0.00 0.00 0.0/—KB/s 0.0/–/s MyVM
IOUSED% : phần trăm thời gian disk mà các vm/ct đã sử dụng.
IOWAIT% : thời gian chờ các i/o trong hàng đợi hoàn thành để tiếp tục thực hiện i/o các tiếp theo.
IO : I/O có thể áp dụng ở mức bytes, kilobytes, megabytes, hoặc gigabytes theo giây.
IOPS :             mức IOPS đang bị giới hạn trên vm/ct theo giây.

Cấu hình Limit Disk I/O Container trong quá trình migrations và backups.
. Để giới hạn cho tất cả các container trên hệ thống chỉ cần edit file /etc/vz/vz.conf.
# VZ Tools IO limit
# To enable – uncomment next line, check the value – there should not be CT with the
same ID
# VZ_TOOLS_BCID=2
# Uncomment next line to specify required disk IO bandwidth in Bps (10485760 – 10MBps)
# VZ_TOOLS_IOLIMIT=10485760
Bỏ dấu thăng trước dòng VZ_TOOLS_BCID để mở chức năng limit
Bỏ dấu thăng trước dòng VZ_TOOLS_IOLIMIT để set giá trị limit cho các ct.

Kết nối Virtuozzo Storage với ESXi 5.5

iscsi.pcs

Kết nối Virtuozzo Storage với ESXi 5.5

Bài hướng dẫn dưới đây sẽ nói về cách kết nối để hệ thống ảo hóa VMware vSphere có thể kết nối storage PCS bằng giao thức kết nối storage thông dụng hiện nay là iSCSI. Bên dưới là mô hình kết nối giữa hệ thống VMware vSphere và Storage PCS
Với mô hình trên, người quản trị có thể tạo ra nhiều iSCSI target và đặt trên nhiều server node trong cluster, mỗi dịch vụ iSCSI target trên server node tương đương với một client (VirtualMachine/Container) nằm trên node và việc này nhằm chia tải của các iSCSI target ra toàn cluster giúp cho người dùng khai thác tối đa performance từ hệ thống.
Tạo iSCSI Target và LUN trên storage PCS
Đầu tiên là ta phải tạo các iSCSI Target trên cluster PCS chứa các LUN ( Logical unit number ) với dung lượng tùy ý. Ở đây tôi sẽ tạo 1 Target với dung lượng là 50G trên 1 server node.
#pstorage-iscsi create --name test0 --address 192.168.9.236
#pstorage-iscsi lun-add --target iqn.2014.06.com.parallels:test0 --lun 1 --size 50G
#pstorage-iscsi start --target iqn.2014.06.com.parallels:test0

Tiến hành kết nối với iSCSI Target với storage PCS trên hệ thống VMware vSphere

Bước 1: Thêm cổng giao tiếp VMkernel để sử dụng giao thức iSCSI trên VMware vSphere (bắt buộc)
Trong giao diện chính của Vsphere ESXi 5.5, chọn Add Networking.
 1
Sau đó ta chọn VMkernel. Đây là phần type để thiết lập các services quan trọng như vSphere vMotion, iSCSI, NFS, và host management.
2
Chúng ta sẽ chon vswitch nào dùng để kết nối đến với các Target. Ở đây tôi chọn vSwitch0 –> Next.
3
Đặt tên cho Network Lable cho Port Group và VLAN ID chúng ta đang cài đặt. Mọi người có thể tìm hiểu thêm về khái niệm Port Group ở đây.
4
Cấu hình IP VMkernel. Các bạn có thể đặt ip static bất kì trong range để kết nối đến Target, lưu ý là IP này là duy nhất, không được trùng với bất cứ Target và thiết bị nào trong mạng. Ở đây tôi chọn IP động.
5
Xem lại tổng quan những gì đã cấu hình và chọn Finish để lưu. Chú ý ở VMkernel Port.
 6
Sau khi Finish thì sẽ xuất hiện thông tin như sau. VMkernel Port sẽ nối trực tiếp với card mạng thật của host.
7

Bước 2: Thêm iSCSI software adapter trên Vmware vsphere (ESXi) và kết nối iSCSI target
Bước tiếp theo sẽ cấu hình Storage Adapters để kết nối đến iSCSI Target. Chúng ta sẽ thấy trong phần iSCSI Software Adapter xuất hiện card vmhba37 (số 37 ở đây là random của vmware ).
8
Chọn Properties. Phải đảm bảo là Status là Enabled. Nếu đang ở Disable thì chọn Configure và đánh check vào Enable.
9
Chuyển qua Tab Dynamic Discovery để add IP của Target, mặc định port sẽ là 3260.
10

Bước 3: Tiến hành thêm ổ đĩa mới trên iSCSI target vừa kết nối
Tiếp theo ta vào phần Storage, add LUN của target để sử dụng. Chon Add Storage
12
Chọn Disk/LUN.
11
Sẽ xuất hiện target chúng ta đã add tại phần Storage Network. Next
13
Chọn VMFS-5. Chọn VMFS-5 để giúp hỗ trợ các LUN có dung lượng lớn hơn 2TB. Lưu ý là tính năng này chỉ hổ trợ ESXi 5 trở lên.
14
Chọn Next, ta sẽ thấy tổng quan về tên device – Drive Type – Capacity – Available Dung lương – LUN ( LUN ID ) của LUN trước khi add.
15
Next. Đây là phần đặt tên cho datastorage.
16
Để sử dụng tối đa dung lượng của LUN, tôi khuyến cáo nên chọn mục chọn đầu tiên.
17
Đây là thông tin sau khi LUN được format để đưa vào sử dụng.
18
Đã hoàn tất việc cấu hình Storage cho ESXi.

http://www.slideshare.net/laonap166/kt-ni-virtuozzo-storage-vi-esxi-5

Chú ý khi thực hiện Yum update Hardware node Virtuozzo

Để update 1 node trong cluster PCS, Parallels khuyến khích người dùng thực hiện theo các hướng dẫn bên dưới. Điều này rất quan trọng, vì nó sẽ giảm thời gian downtime của các VM và Container xuống mức thấp nhất. Lưu ý là mỗi lần update chỉ nên update từng node, không được update cùng một lúc nhiều node, vì sẽ gây ra lỗi không ổn định cho hệ thống cluster .
Bước 1: Lựa chọn node để update.
Bược 2: Chuyển tất cả các VM và Container trên node định update sang 1 node khác trong cluster ( phải đảm bảo node chứa các VM và Container phải đủ yêu cầu cấu hình là lincense để duy trì VM và Container hoạt động ).
# prlctl migrate 333 192.168.1.15
Bước 3: Cài đặt đầy đủ các gói update và reboot server.
# yum update
Bước 4: Move các VM và CT ngược trở lại node vừa update xong như ở bước 2.
Bước 5: Tiếp tục update từng node khác như các bước bên trên.
Lưu ý: Các node PCS trong Cluster nên được update đều đặn nếu có bản cập nhật mới từ Parallels, việc không update cũng như có quá nhiều node chưa được update đúng version thì không được khuyến khích.

Hướng dẫn cài đặt công cụ monitor Cluster Virtuozzo Storage bằng giao diện web và các hướng dẫn cơ bản


Hướng dẫn cài đặt công cụ monitor Cluster Virtuozzo Storage bằng giao diện web và các hướng dẫn cơ bản

Để monitor toàn bộ trạng thái dịch vụ đang chạy trong Cluster PCS ở thời gian thực, Parallels có cung cấp cho người dùng công cụ #pstorage -c <cluster_name> top trong giao thức SSH trên từng server node thành viên của Cluster PCS và việc monitor trên các server node khác nhau thuộc 1 Cluster bằng công cụ trên là như nhau. Ngoài ra Parallels đã build riêng một công cụ monitor trên web có chức năng tương tự công cụ pstorage trên SSH để tiết kiệm thời gian cho người dùng. Bài viết dưới đây sẽ hướng dẫn việc cài đặt công cụ monitor trên web và một số hướng dẫn cơ bản để người dùng có thể monitor dễ dàng.
Các gói yêu cầu khi cài trên client linux ( Centos – RedHat )
Thứ tự cài đặt các gói theo thứ tự sắp xếp bên trên.
Sau khi cài đặt hoàn tất, sẽ có các file bên dưới trong /etc/httpd/conf.d/
listpackket-monitorpcs
Tiến hành cấu hình file pstorage-www.conf như bên dưới : Allow from All
pstorage-www-monitorpcs
Tương tự như trên đối với file aps.conf : Allow from All
aps-monitorpcs
Tiến hành restart service httpd sau khi hoàn tất cấu hình.
service httpd restart
Kiểm tra bằng cách đứng từ bất kì client nào có thể kết nối đến client monitor PCS , sau đó vào trình duyệt Web để truy cấp đến ip client monitor để monitor cluster.
VD client có ip là 10.10.10.10
10.10.10.10/pstorage

Các thông số cần lưu ý khi monitor cluster trên giao diện Web.

Screenshot from 2015-03-06 10:58:25
Đây là giao diện chính, cho ta thấy một cách tổng quan nhất về cluster, về tình trạng license, capacity, các node, dung lương space của cluster, IO, Replication IO, ETA, Sync,… Chúng ta sẽ xem kĩ hơn về từng thành phần của cluster ở từng Tab.
————-
Metadata Server: Đây là tab monitor chi tiết về Metadata Server, cho biết có bao nhiêu MDS trong cluster, lịch sử hoạt động của MDS trong khoảng thời gian 1 giờ – 1 ngày – 1 tuần – 1 tháng – 1 năm. Tất cả dữ liệu ở đây đều là realtime, được cập nhật liên tục trên từng MDS.
Screenshot from 2015-03-06 11:14:07
Storage Servers : Tab này monitor chi tiết về chunk server (CS), các Disk trong trong CS.  lịch sử hoạt động của Storage trong khoảng thời gian 1 giờ – 1 ngày – 1 tuần – 1 tháng – 1 năm. Tất cả dữ liệu ở đây đều là realtime, được cập nhật liên tục trên từng Chunk Server.
Screenshot from 2015-03-06 11:18:21
Các thông số cần lưu ý khi monitor CS:
  • IOWAIT (% thời gian mà các tiến trình I/O đang nằm trong hàng đợi để chờ được xử lý): thể hiện theo đơn vị %, nếu chỉ số này dao động trong khoảng từ 0 ~ 50% và thay đổi liên tục được xem là ổn định, nếu IOWAIT thường xuyên duy trì giá trị cao hơn 50% đồng nghĩa với việc hệ thống sắp đạt ngưỡng quá tải và cần phải nâng cấp thêm.
  • IO latency (Thời gian để hệ thống để xử lý hoàn tất một tiến trình I/O từ client): thời gian (đơn vị mili giây) mà một tiến trình xử lý được hoàn tất. Giá trị này dao động trong khoảng từ 0 ~ 100 (ms) được cho là ổn định, nếu giá trị cao hơn 100 (ms) đồng nghĩa việc hệ thống cũng đang đạt ngưỡng quá tải và cần nâng cấp.
  • Disk total (dung lượng thật ở mức vật lý của các Disk )  và disk free (dung lượng hiện đang trống trên các Disk).
Screenshot from 2015-03-06 11:53:39
Clients: Tab này cho biết có bao nhiêu client trong cluster, tốc độ Read, Write theo MB/s, ops/s, tốc độ Sync/s, IO latency.
Screenshot from 2015-03-06 12:07:40
Events: Tab này cho ta xem các log của hệ thống cluster, những vấn đề gì đã xảy ra với cluster theo từng khoảng thời gian mong muốn (1 giờ – 1 ngày – 1 tuần – 1 tháng – 1 năm ).
Screenshot from 2015-03-06 12:09:31
Performance : Tab này cho biết tổng thể hiệu năng hiện tại của cluster, tốc độ Read, Write ( theo MB/s ), Read, Write ( theo IOPS ), tốc độ Replication ( theo MB/s ), và dung lượng disk trống trên cluster ( theo GB )
Screenshot from 2015-03-06 12:09:56
Files : Tab này hiển thị cấu trúc file hiện tại trên cluster ( /pstorage/cluster_name/ ).

Monitor Virtuozzo Cluster Storage trên giao diện console của hardware node

Odin cung cấp 2 công cụ để monitor hệ thống cluster là thông qua web và command line.
Hôm nay chúng ta sẽ tiến hành monitor Cluster bằng command line thông qua lệnh ” pstorage -c cluster_name top ”
Lưu ý: Cluster_name là tên cluster của hệ thống.
#pstorage -c ods top
sc1
Bên trên là thông tin tổng quan về hệ thống cluster. Có thể chia ra thành 5 phần: tổng quan thông tin chung, MDS server, CS server, Client và Log của cluster.
Tiếp theo chúng ta sẽ phân tích sâu vào từng thành phần để nắm rõ về các thông số monitor cung cấp.
Phần 1: Tổng quan thông tin chung.
scc
Ở phần này, monitor sẽ cung cấp cái nhìn tổng quan nhất về các thông số chung của cluster như: Name, Space cluster, số lượng MDS và CS, Replication, License, IO ….
Tham SốMô Tả
ClusterTên của cluster. Lưu ý tình trạng Healthy, ở đây thể hiện Cluster hiện tại đang hoàn toàn ổn định.
Vui lòng xem thêm tại đây về các thông báo trạng thái khác của cluster.
Space Thể hiện dung lượng thật hiện có của cluster (VD: free 4.45TB of 4.50TB là tổng dung lượng toàn bộ
các disk trong cluster), Allocatable 1.44TB (+688.9GB unlicensed) of 2.25TB: thể hiện dung lượng thật có thể sử dụng tối đa của cluster là 2.25TB. Tuy nhiên vì mới chỉ active license storage là 1.5TB nên cần phải mua thêm license ~700GB storage để có thể sử dụng hết 2.25TB.
MDS nodesSố lượng MDS Nodes đã tạo trên cluster.
CS NodesSố lượng CS Nodes đã tạo trên cluster. Chi tiết vui lòng xem tại đây.
License Tình trạng license,ngày hết hạn, cũng như dung lượng thật của license mà cluster có thể dùng.
Replication Thông số Replication đang được cấu hình trên cluster.
ChunksCác trạng thái chunk trên cluster (tính theo % tổng số chunk đang có trên cluster). Lưu ý các thông số như healthy,degraded,urgent,.. Ở đây tình trạng của healthy là 100% thể hiện tất cả các chunk đã được replication hoàn tất. Chi tiết các thông số có thể xem tại đây.
FSTổng dung lượng thật sự của các chunk trên cluster cũng như số lượng chunk replicas.
IOTốc độ thật về Input/Output của cluster.
IO TotalTổng dung lượng đã đọc và ghi của cluster.
Repl IOTốc độ Replication của Cluster.
Sync rate và IO QDEPTHHai tham số này thể hiện tốc độ đồng bộ dữ liệu trên cluster cũng như tốc độ IO trung bình và cao nhất của cluster trong qúa trình hoạt động.
Phần 2 : MDS Server
Phần này sẽ tập trung vào các thông tin của các node MDS trên cluster.
sc4
Tham SốMô Tả
MDS IDMỗi MDS khi tạo trên cluster đều có 1 ID riêng để xác định.
Ký tự “M” trước ID MDS bất kỳ thể hiện  MDS server đó là master MDS vì một thời điểm chỉ có 1 MDS đảm nhận Master còn lại đều là Slaver.
STATUSTình trạng hiện tại của MDS server (Avail thể hiện tình trạng MDS này đang hoạt động tốt)
 %CTIMETổng lượng thời gian MDS server cần để ghi lên journal local.
COMMITMỗi MDS đều có 1 ID riêng để xác định trên cluster.
Ký tự “M” trước ID MDS bất kỳ thể hiện node MDS đó là master MDS.
%CPULượng % CPU MDS đang sử dụng.
MEMLượng bộ nhớ RAM vật lý mà MDS đang sử dụng.
UPTIMETổng thời gian MDS đã online từ lần khởi động gần nhất.
HOSTĐịa chỉ HOST của MDS.
Phần 3: CS server
sc3.1
Đây là phần tổng quan về CS server, các tham số quan trọng trên hệ thống cluster. Lưu ý là có thể dung phím “i” để chuyển đến các tab thông tin chi tiết hơn về CS server.
Tham SốMô Tả
CS IDMã ID duy nhất của mỗi CS trên cluster.
STATUSTình trạng hiện tại của CS. Các thông số chi tiết về CS có thể xem tại đây.
SPACEĐây là dung lượng trống của tất cả các disk trên chunk server.
AVAILTổng dung lượng có thể ghi trên từng disk.
REPLICASTổng số lượng chunk đang được phân phát và lưu trên từng disk.
IOWAILPhần trăm lượng Input/Output trên từng disk. Lượng IO Wailt này nếu qúa cao sẽ ảnh hưởng đếnhiêu năng của node và cluster. (IOWAIT dao động liên tục từ 0 ~ 50% được xem là tình trạng tốt, nếu cao hơn thể hiện Chunk server này đang quá tải performance, cần thêm disk hoặc chunk server mới)
IOLATThể hiện thời gian Trung bình/tối đa (tính theo milliseconds) mà CS cần để thực hiện xong 1 tiến trình
I/O. (IOLAT trung bình trong khoảng 0 ~ 200 ms được xem là tình trạng tốt, nếu cao hơn thể hiện Chunk server này đang quá tải performance, cần thêm disk hoặc chunk server mới)
FLAGSĐây là những cờ quan trọng xác định các CS đang ở trạng thái nào. Chi tiết có thể xem tại đây.
J : cờ J thông báo là CS hiện tại đang sử dụng tính năng write journal.
C: cờ này dùng để checksum data có bị chỉnh sửa bởi 1 phần mềm bên ngoài nào đó không ( bảo đảm tính toàn vẹn của data )
D: cờ này thể hiện CS đang sử dụng tốc độ I/O thật của nó. Không dùng write journal.
c: cờ này thể hiện dung lượng hiện tại của journal hiện đang trống. Không có hoạt động nào tác động write journal nào từ SSD đến HDD nơi CS được đặt.
Phần 4 : Client
sc4
Phần này cung cấp các thông tin về client trong cluster.
Tham SốMô Tả
CL IDMã ID duy nhất của mỗi Client trên cluster.
LEASESố lượng file trung bình các file đã được mở dành cho qúa trình đọc ghi và số lượng các file hiện tại vừa được đóng.
READTỉ lệ trung bình bao nhiêu byte dữ liệu client có thể đọc theo giây.
WRITETỉ lệ trung bình bao nhiêu byte dữ liệu client có thể ghi theo giây.
RD_OPSTrung bình thời gian client thực hiện một tiến trình đọc giây.
WR_OPSTrung bình thời gian client thực hiện một tiến trình ghi theo giây.
FSYNCSTrung bình thời gian client thực hiện 1 tiến trình đồng bộ theo giây.
IOLAT Trung bình thời gian tính bằng miliseconds mà client cần để thực hiện hoàn tất một tiến trình I/O.
HOST Tên hoặc IP của client.
Phần 5: Event Log
Trong phần event log cung cấp log về các tiến trình đã và đang hoạt động trong hệ thống. Log là 1 phần rất quan trọng của hệ thống. Chi tiết vui lòng xem bài viết phân tích về event log tại đây.