Advertisement
Guest User

Untitled

a guest
Aug 11th, 2016
106
0
Never
Not a member of Pastebin yet? Sign Up, it unlocks many cool features!
Bash 2.51 KB | None | 0 0
  1. [root@hulk ~]# ceph -s
  2.     cluster f8aa3ef3-e5c9-4bd1-9ee8-2b141ff2f485
  3.      health HEALTH_WARN
  4.             1 near full osd(s)
  5.      monmap e1: 1 mons at {ceph-admin=192.168.127.12:6789/0}
  6.             election epoch 1, quorum 0 ceph-admin
  7.      osdmap e16367: 12 osds: 12 up, 12 in
  8.       pgmap v633228: 256 pgs, 1 pools, 7358 GB data, 1842 kobjects
  9.             14791 GB used, 4281 GB / 20094 GB avail
  10.                  256 active+clean
  11. [root@hulk ~]# ceph osd tree
  12. ID WEIGHT   TYPE NAME             UP/DOWN REWEIGHT PRIMARY-AFFINITY
  13. -1 19.66994 root default                                            
  14. -2  5.79999     host ceph-server0                                  
  15.  0  1.45000         osd.0              up  1.00000          1.00000
  16.  1  1.45000         osd.1              up  1.00000          1.00000
  17.  4  1.45000         osd.4              up  1.00000          1.00000
  18.  5  1.45000         osd.5              up  1.00000          1.00000
  19. -3  5.79999     host ceph-server1                                  
  20.  2  1.45000         osd.2              up  1.00000          1.00000
  21.  3  1.45000         osd.3              up  1.00000          1.00000
  22.  6  1.45000         osd.6              up  1.00000          1.00000
  23.  7  1.45000         osd.7              up  1.00000          1.00000
  24. -4  8.06996     host ceph-server2                                  
  25.  8  2.68999         osd.8              up  1.00000          1.00000
  26.  9  0.89999         osd.9              up  1.00000          1.00000
  27. 10  2.68999         osd.10             up  1.00000          1.00000
  28. 11  1.78999         osd.11             up  1.00000          1.00000
  29. [root@hulk ~]# ceph osd df
  30. ID WEIGHT  REWEIGHT SIZE   USE    AVAIL  %USE  VAR  
  31.  0 1.45000  1.00000  1480G  1038G   366G 70.15 0.95
  32.  1 1.45000  1.00000  1480G   954G   450G 64.48 0.88
  33.  4 1.45000  1.00000  1480G  1126G   278G 76.11 1.03
  34.  5 1.45000  1.00000  1480G  1214G   190G 82.03 1.11
  35.  2 1.45000  1.00000  1480G  1360G 45312M 91.93 1.25
  36.  3 1.45000  1.00000  1480G  1243G   161G 84.00 1.14
  37.  6 1.45000  1.00000  1480G  1098G   307G 74.18 1.01
  38.  7 1.45000  1.00000  1480G   723G   681G 48.88 0.66
  39.  8 2.68999  1.00000  2750G  2275G   334G 82.74 1.12
  40.  9 0.89999  1.00000   916G   552G   317G 60.26 0.82
  41. 10 2.68999  1.00000  2750G  2019G   591G 73.41 1.00
  42. 11 1.78999  1.00000  1833G  1184G   556G 64.59 0.88
  43.               TOTAL 20094G 14791G  4281G 73.61      
  44. MIN/MAX VAR: 0.66/1.25  STDDEV: 11.44
  45. [root@hulk ~]# du -sh /mnt/ceph
  46. 7.2T    /mnt/ceph
  47. [root@hulk ~]# ceph osd pool ls
  48. rbd
Advertisement
Add Comment
Please, Sign In to add comment
Advertisement