Advertisement
kmajumder

cephcluster

Jun 7th, 2021
1,076
0
Never
Not a member of Pastebin yet? Sign Up, it unlocks many cool features!
YAML 12.53 KB | None | 0 0
  1. apiVersion: ceph.rook.io/v1
  2. kind: CephCluster
  3. metadata:
  4.   creationTimestamp: "2021-06-07T10:12:50Z"
  5.   finalizers:
  6.  - cephcluster.ceph.rook.io
  7.   generation: 1
  8.   labels:
  9.     app: ocs-storagecluster
  10.   managedFields:
  11.   - apiVersion: ceph.rook.io/v1
  12.     fieldsType: FieldsV1
  13.     fieldsV1:
  14.       f:metadata:
  15.         f:labels:
  16.           .: {}
  17.           f:app: {}
  18.         f:ownerReferences: {}
  19.       f:spec:
  20.         .: {}
  21.         f:cephVersion:
  22.           .: {}
  23.           f:allowUnsupported: {}
  24.           f:image: {}
  25.         f:cleanupPolicy:
  26.           .: {}
  27.           f:sanitizeDisks: {}
  28.         f:continueUpgradeAfterChecksEvenIfNotHealthy: {}
  29.         f:crashCollector: {}
  30.         f:dashboard: {}
  31.         f:dataDirHostPath: {}
  32.         f:disruptionManagement:
  33.           .: {}
  34.           f:machineDisruptionBudgetNamespace: {}
  35.           f:managePodBudgets: {}
  36.         f:external: {}
  37.         f:healthCheck:
  38.           .: {}
  39.           f:daemonHealth:
  40.             .: {}
  41.             f:mon: {}
  42.             f:osd: {}
  43.             f:status: {}
  44.         f:logCollector:
  45.           .: {}
  46.           f:enabled: {}
  47.           f:periodicity: {}
  48.         f:mgr:
  49.           .: {}
  50.           f:modules: {}
  51.         f:mon:
  52.           .: {}
  53.           f:count: {}
  54.         f:monitoring:
  55.           .: {}
  56.           f:enabled: {}
  57.           f:rulesNamespace: {}
  58.         f:network:
  59.           .: {}
  60.           f:dualStack: {}
  61.           f:ipFamily: {}
  62.           f:provider: {}
  63.           f:selectors:
  64.             .: {}
  65.             f:cluster: {}
  66.             f:public: {}
  67.         f:placement:
  68.           .: {}
  69.           f:all:
  70.             .: {}
  71.             f:nodeAffinity:
  72.               .: {}
  73.               f:requiredDuringSchedulingIgnoredDuringExecution:
  74.                 .: {}
  75.                 f:nodeSelectorTerms: {}
  76.             f:tolerations: {}
  77.           f:arbiter:
  78.             .: {}
  79.             f:tolerations: {}
  80.           f:mon:
  81.             .: {}
  82.             f:nodeAffinity:
  83.               .: {}
  84.               f:requiredDuringSchedulingIgnoredDuringExecution:
  85.                 .: {}
  86.                 f:nodeSelectorTerms: {}
  87.             f:podAntiAffinity:
  88.               .: {}
  89.               f:requiredDuringSchedulingIgnoredDuringExecution: {}
  90.         f:priorityClassNames:
  91.           .: {}
  92.           f:mgr: {}
  93.           f:mon: {}
  94.           f:osd: {}
  95.         f:resources:
  96.           .: {}
  97.           f:mds:
  98.             .: {}
  99.             f:limits:
  100.               .: {}
  101.               f:cpu: {}
  102.               f:memory: {}
  103.             f:requests:
  104.               .: {}
  105.               f:cpu: {}
  106.               f:memory: {}
  107.           f:mgr:
  108.             .: {}
  109.             f:limits:
  110.               .: {}
  111.               f:cpu: {}
  112.               f:memory: {}
  113.             f:requests:
  114.               .: {}
  115.               f:cpu: {}
  116.               f:memory: {}
  117.           f:mon:
  118.             .: {}
  119.             f:limits:
  120.               .: {}
  121.               f:cpu: {}
  122.               f:memory: {}
  123.             f:requests:
  124.               .: {}
  125.               f:cpu: {}
  126.               f:memory: {}
  127.           f:rgw:
  128.             .: {}
  129.             f:limits:
  130.               .: {}
  131.               f:cpu: {}
  132.               f:memory: {}
  133.             f:requests:
  134.               .: {}
  135.               f:cpu: {}
  136.               f:memory: {}
  137.         f:security:
  138.           .: {}
  139.           f:kms: {}
  140.         f:storage:
  141.           .: {}
  142.           f:storageClassDeviceSets: {}
  143.     manager: ocs-operator
  144.     operation: Update
  145.     time: "2021-06-07T10:12:50Z"
  146.   - apiVersion: ceph.rook.io/v1
  147.     fieldsType: FieldsV1
  148.     fieldsV1:
  149.       f:metadata:
  150.         f:finalizers: {}
  151.       f:status:
  152.         .: {}
  153.         f:ceph:
  154.           .: {}
  155.           f:capacity: {}
  156.           f:details:
  157.             .: {}
  158.             f:AUTH_INSECURE_GLOBAL_ID_RECLAIM_ALLOWED:
  159.               .: {}
  160.               f:message: {}
  161.               f:severity: {}
  162.             f:MDS_SLOW_METADATA_IO:
  163.               .: {}
  164.               f:message: {}
  165.               f:severity: {}
  166.             f:PG_AVAILABILITY:
  167.               .: {}
  168.               f:message: {}
  169.               f:severity: {}
  170.           f:health: {}
  171.           f:lastChecked: {}
  172.           f:versions:
  173.             .: {}
  174.             f:mds:
  175.               .: {}
  176.               f:ceph version 16.2.4 (3cbe25cde3cfa028984618ad32de9edc4c1eaed0) pacific (stable): {}
  177.             f:mgr:
  178.               .: {}
  179.               f:ceph version 16.2.4 (3cbe25cde3cfa028984618ad32de9edc4c1eaed0) pacific (stable): {}
  180.             f:mon:
  181.               .: {}
  182.               f:ceph version 16.2.4 (3cbe25cde3cfa028984618ad32de9edc4c1eaed0) pacific (stable): {}
  183.             f:overall:
  184.               .: {}
  185.               f:ceph version 16.2.4 (3cbe25cde3cfa028984618ad32de9edc4c1eaed0) pacific (stable): {}
  186.         f:conditions: {}
  187.         f:message: {}
  188.         f:phase: {}
  189.         f:state: {}
  190.         f:version:
  191.           .: {}
  192.           f:image: {}
  193.           f:version: {}
  194.     manager: rook
  195.     operation: Update
  196.     time: "2021-06-07T10:16:07Z"
  197.   name: ocs-storagecluster-cephcluster
  198.   namespace: openshift-storage
  199.   ownerReferences:
  200.   - apiVersion: ocs.openshift.io/v1
  201.     blockOwnerDeletion: true
  202.     controller: true
  203.     kind: StorageCluster
  204.     name: ocs-storagecluster
  205.     uid: 012a9c23-846b-43fd-b1cd-41f79a741516
  206.   resourceVersion: "11994181"
  207.   selfLink: /apis/ceph.rook.io/v1/namespaces/openshift-storage/cephclusters/ocs-storagecluster-cephcluster
  208.   uid: 0090b395-f582-4077-b36d-838db2b8b6f1
  209. spec:
  210.   cephVersion:
  211.     allowUnsupported: true
  212.     image: ceph/daemon-base:latest-pacific
  213.   cleanupPolicy:
  214.     sanitizeDisks: {}
  215.   continueUpgradeAfterChecksEvenIfNotHealthy: true
  216.   crashCollector: {}
  217.   dashboard: {}
  218.   dataDirHostPath: /var/lib/rook
  219.   disruptionManagement:
  220.     machineDisruptionBudgetNamespace: openshift-machine-api
  221.     managePodBudgets: true
  222.   external: {}
  223.   healthCheck:
  224.     daemonHealth:
  225.       mon: {}
  226.       osd: {}
  227.       status: {}
  228.   logCollector:
  229.     enabled: true
  230.     periodicity: 24h
  231.   mgr:
  232.     modules:
  233.     - enabled: true
  234.       name: pg_autoscaler
  235.     - enabled: true
  236.       name: balancer
  237.   mon:
  238.     count: 3
  239.   monitoring:
  240.     enabled: true
  241.     rulesNamespace: openshift-storage
  242.   network:
  243.     dualStack: true
  244.     ipFamily: IPv6
  245.     provider: multus
  246.     selectors:
  247.       cluster: ipv6
  248.       public: ipv6
  249.   placement:
  250.     all:
  251.       nodeAffinity:
  252.         requiredDuringSchedulingIgnoredDuringExecution:
  253.           nodeSelectorTerms:
  254.           - matchExpressions:
  255.             - key: cluster.ocs.openshift.io/openshift-storage
  256.               operator: Exists
  257.       tolerations:
  258.       - effect: NoSchedule
  259.         key: node.ocs.openshift.io/storage
  260.         operator: Equal
  261.         value: "true"
  262.     arbiter:
  263.       tolerations:
  264.       - effect: NoSchedule
  265.         key: node-role.kubernetes.io/master
  266.         operator: Exists
  267.     mon:
  268.       nodeAffinity:
  269.         requiredDuringSchedulingIgnoredDuringExecution:
  270.           nodeSelectorTerms:
  271.           - matchExpressions:
  272.             - key: cluster.ocs.openshift.io/openshift-storage
  273.               operator: Exists
  274.       podAntiAffinity:
  275.         requiredDuringSchedulingIgnoredDuringExecution:
  276.         - labelSelector:
  277.             matchExpressions:
  278.             - key: app
  279.               operator: In
  280.               values:
  281.              - rook-ceph-mon
  282.           topologyKey: topology.rook.io/rack
  283.   priorityClassNames:
  284.     mgr: system-node-critical
  285.     mon: system-node-critical
  286.     osd: system-node-critical
  287.   resources:
  288.     mds:
  289.       limits:
  290.         cpu: "3"
  291.         memory: 8Gi
  292.       requests:
  293.         cpu: "3"
  294.         memory: 8Gi
  295.     mgr:
  296.       limits:
  297.         cpu: "1"
  298.         memory: 3Gi
  299.       requests:
  300.         cpu: "1"
  301.         memory: 3Gi
  302.     mon:
  303.       limits:
  304.         cpu: "1"
  305.         memory: 2Gi
  306.       requests:
  307.         cpu: "1"
  308.         memory: 2Gi
  309.     rgw:
  310.       limits:
  311.         cpu: "2"
  312.         memory: 4Gi
  313.       requests:
  314.         cpu: "2"
  315.         memory: 4Gi
  316.   security:
  317.     kms: {}
  318.   storage:
  319.     storageClassDeviceSets:
  320.     - count: 1
  321.       name: example-deviceset-0
  322.       placement:
  323.         topologySpreadConstraints:
  324.         - labelSelector:
  325.             matchExpressions:
  326.             - key: ceph.rook.io/pvc
  327.               operator: Exists
  328.           maxSkew: 1
  329.           topologyKey: kubernetes.io/hostname
  330.           whenUnsatisfiable: DoNotSchedule
  331.       preparePlacement:
  332.         topologySpreadConstraints:
  333.         - labelSelector:
  334.             matchExpressions:
  335.             - key: ceph.rook.io/pvc
  336.               operator: Exists
  337.           maxSkew: 1
  338.           topologyKey: kubernetes.io/hostname
  339.           whenUnsatisfiable: DoNotSchedule
  340.       resources:
  341.         limits:
  342.           cpu: "2"
  343.           memory: 5Gi
  344.         requests:
  345.           cpu: "2"
  346.           memory: 5Gi
  347.       volumeClaimTemplates:
  348.       - metadata:
  349.           annotations:
  350.             crushDeviceClass: ""
  351.         spec:
  352.           accessModes:
  353.          - ReadWriteOnce
  354.           resources:
  355.             requests:
  356.               storage: 100Gi
  357.           storageClassName: block
  358.           volumeMode: Block
  359.         status: {}
  360.     - count: 1
  361.       name: example-deviceset-1
  362.       placement:
  363.         topologySpreadConstraints:
  364.         - labelSelector:
  365.             matchExpressions:
  366.             - key: ceph.rook.io/pvc
  367.               operator: Exists
  368.           maxSkew: 1
  369.           topologyKey: kubernetes.io/hostname
  370.           whenUnsatisfiable: DoNotSchedule
  371.       preparePlacement:
  372.         topologySpreadConstraints:
  373.         - labelSelector:
  374.             matchExpressions:
  375.             - key: ceph.rook.io/pvc
  376.               operator: Exists
  377.           maxSkew: 1
  378.           topologyKey: kubernetes.io/hostname
  379.           whenUnsatisfiable: DoNotSchedule
  380.       resources:
  381.         limits:
  382.           cpu: "2"
  383.           memory: 5Gi
  384.         requests:
  385.           cpu: "2"
  386.           memory: 5Gi
  387.       volumeClaimTemplates:
  388.       - metadata:
  389.           annotations:
  390.             crushDeviceClass: ""
  391.         spec:
  392.           accessModes:
  393.          - ReadWriteOnce
  394.           resources:
  395.             requests:
  396.               storage: 100Gi
  397.           storageClassName: block
  398.           volumeMode: Block
  399.         status: {}
  400.     - count: 1
  401.       name: example-deviceset-2
  402.       placement:
  403.         topologySpreadConstraints:
  404.         - labelSelector:
  405.             matchExpressions:
  406.             - key: ceph.rook.io/pvc
  407.               operator: Exists
  408.           maxSkew: 1
  409.           topologyKey: kubernetes.io/hostname
  410.           whenUnsatisfiable: DoNotSchedule
  411.       preparePlacement:
  412.         topologySpreadConstraints:
  413.         - labelSelector:
  414.             matchExpressions:
  415.             - key: ceph.rook.io/pvc
  416.               operator: Exists
  417.           maxSkew: 1
  418.           topologyKey: kubernetes.io/hostname
  419.           whenUnsatisfiable: DoNotSchedule
  420.       resources:
  421.         limits:
  422.           cpu: "2"
  423.           memory: 5Gi
  424.         requests:
  425.           cpu: "2"
  426.           memory: 5Gi
  427.       volumeClaimTemplates:
  428.       - metadata:
  429.           annotations:
  430.             crushDeviceClass: ""
  431.         spec:
  432.           accessModes:
  433.          - ReadWriteOnce
  434.           resources:
  435.             requests:
  436.               storage: 100Gi
  437.           storageClassName: block
  438.           volumeMode: Block
  439.         status: {}
  440. status:
  441.   ceph:
  442.     capacity: {}
  443.     details:
  444.       AUTH_INSECURE_GLOBAL_ID_RECLAIM_ALLOWED:
  445.         message: mons are allowing insecure global_id reclaim
  446.         severity: HEALTH_WARN
  447.       MDS_SLOW_METADATA_IO:
  448.         message: 1 MDSs report slow metadata IOs
  449.         severity: HEALTH_WARN
  450.       PG_AVAILABILITY:
  451.         message: 'Reduced data availability: 176 pgs inactive'
  452.         severity: HEALTH_WARN
  453.     health: HEALTH_WARN
  454.     lastChecked: "2021-06-07T10:27:16Z"
  455.     versions:
  456.       mds:
  457.         ceph version 16.2.4 (3cbe25cde3cfa028984618ad32de9edc4c1eaed0) pacific (stable): 2
  458.       mgr:
  459.         ceph version 16.2.4 (3cbe25cde3cfa028984618ad32de9edc4c1eaed0) pacific (stable): 1
  460.       mon:
  461.         ceph version 16.2.4 (3cbe25cde3cfa028984618ad32de9edc4c1eaed0) pacific (stable): 3
  462.       overall:
  463.         ceph version 16.2.4 (3cbe25cde3cfa028984618ad32de9edc4c1eaed0) pacific (stable): 6
  464.   conditions:
  465.   - lastHeartbeatTime: "2021-06-07T10:27:16Z"
  466.     lastTransitionTime: "2021-06-07T10:14:05Z"
  467.     message: Cluster created successfully
  468.     reason: ClusterCreated
  469.     status: "True"
  470.     type: Ready
  471.   message: Cluster created successfully
  472.   phase: Ready
  473.   state: Created
  474.   version:
  475.     image: ceph/daemon-base:latest-pacific
  476.     version: 16.2.4-0
Advertisement
Add Comment
Please, Sign In to add comment
Advertisement