Wie man

Installieren Sie den Cluster Logging Operator auf OpenShift / OKD 4.x

Installieren Sie den Cluster Logging Operator auf OpenShift / OKD 4.x

Der Cluster Logging Operator erstellt und verwaltet die Komponenten des Logging Stacks in Ihrem OpenShift oder OKD 4.x-Cluster. Die Clusterprotokollierung wird verwendet, um alle Protokolle aus Ihrem OpenShift Container Platform-Cluster zu aggregieren, z. B. Anwendungscontainerprotokolle, Knotensystemprotokolle, Überwachungsprotokolle usw.

In diesem Artikel werden wir den Logging-Operator installieren und eine benutzerdefinierte Cluster-Logging-Ressource (CR) erstellen, um Cluster-Logging-Pods und andere Ressourcen zu planen, die zur Unterstützung der Cluster-Logging erforderlich sind. Bei Verwendung eines Operators liegt die Verantwortung für die anfängliche Bereitstellung, Upgrades und Wartung der Clusterprotokollierung in der Verantwortung des Operators und nicht in der Verantwortung von SysAdmin.

OpenShift-Kurse:

Praktisches OpenShift für Entwickler - Neuer Kurs 2021

Ultimate Openshift (2021) Bootcamp von School of Devops

Installieren Sie den Cluster Logging Operator auf OpenShift / OKD 4.x

Die standardmäßige benutzerdefinierte Ressource (CR) für die Clusterprotokollierung heißt Beispiel. Diese CR kann geändert werden, um eine vollständige Cluster-Logging-Bereitstellung zu definieren, die alle Komponenten des Logging-Stacks zum Erfassen, Speichern und Visualisieren von Logs enthält. Der Cluster-Logging-Operator überwacht die benutzerdefinierte ClusterLogging-Ressource und passt die Logging-Bereitstellung entsprechend an.

Wir werden die Bereitstellungen über die Befehlszeilenschnittstelle durchführen. Der Schwerpunkt dieses Artikels liegt auf dem Teil der Protokollsammlung. Wir werden weitere Artikel veröffentlichen, die die Speicherung und Visualisierung von Logs erklären.

Schritt 1: Operator-Namespace erstellen

Wir werden einen Namensraum namens openshift-logging für den Logging-Operator erstellen.

Erstellen Sie eine neue Objekt-YAML-Datei für die Namespace-Erstellung:

Katze << EOF >ocp_cluster_logging_namespace.yaml apiVersion: v1 Art: Namespace-Metadaten: Name: openshift-logging Anmerkungen: openshift.io/node-selector: "" Labels: openshift.io/cluster-logging: "echtes" Openshift.io/Cluster-Überwachung: "echte" EOF

Wenden Sie die Datei für die eigentliche Namespace-Erstellung an.

oc apply -f ocp_cluster_logging_namespace.jaml

Schritt 2: OperatorGroup-Objekt erstellen

Als nächstes folgt die Installation von Cluster Logging Operator. Erstellen Sie ein OperatorGroup-Objekt YAML, indem Sie die folgenden Befehle ausführen.

Katze << EOF >Cluster-Logging-Betreibergruppe.yaml apiVersion: Operatoren.Kernos.com/v1 Art: OperatorGroup-Metadaten: Name: Cluster-Logging-Namespace: openshift-logging-Spezifikation: targetNamespaces: - openshift-logging EOF

Erstellen Sie das OperatorGroup-Objekt:

oc apply -f cluster-logging-operatorgroup.jaml

Schritt 3: Abonnieren eines Namespace beim Cluster-Logging-Operator.

Wir müssen einen Namespace beim Cluster Logging Operator abonnieren. Erstellen Sie jedoch zuerst eine YAML-Datei für ein Abonnementobjekt.

Katze << EOF >Cluster-Logging-Sub.yaml apiVersion: Operatoren.Kernos.com/v1alpha1 Art: Abonnement-Metadaten: Name: Cluster-Logging-Namespace: Openshift-Logging-Spezifikation: Kanal: "4.4" # Set Channel name: Cluster-Logging source: redhat-operators sourceNamespace: openshift-marketplace EOF

Erstellen Sie das Abonnementobjekt, das den Cluster-Logging-Operator bereitstellt Openshift-Protokollierung Namensraum:

oc apply -f cluster-logging-sub.jaml

Installation überprüfen:

$ oc get csv -n openshift-logging NAME DISPLAY VERSION ERSETZT PHASE clusterlogging.4.4.0-202009161309.p0 Cluster-Protokollierung 4 Log.4.0-202009161309.p0 Erfolgreicher Elasticsearch-Operator.4.4.0-202009161309.p0 Elasticsearch-Operator 4.4.0-202009161309.p0 Elasticsearch-Operator.4.4.0-202009041255.p0 erfolgreich 

Schritt 4: Erstellen Sie eine Cluster Logging-Instanz

Erstellen Sie eine Instanzobjekt-YAML-Datei für den Cluster-Logging-Operator:

Katze << EOF >Cluster-Logging-Instanz.yaml apiVersion: "logging.offene Schicht.io/v1" Art: "ClusterLogging" Metadaten: Name: "Instanz" Namespace: "Openshift-Logging" Spezifikation: ManagementState: "Managed" Kuration: Typ: "Kurator" Kurator: Zeitplan: "30 3 * * *" Sammlung: Protokolle: Typ: "fluentd" fluentd:  EOF

Erstellen Sie die Logging-Instanz:

oc apply -f Cluster-Logging-Instanz.jaml

Überprüfen Sie die Pods, die nach einigen Minuten ausgeführt werden.

$ oc get pods -n openshift-logging NAME BEREIT STATUS NEUSTARTEN ALTER cluster-logging-operator-f7574655b-mjj9x 1/1 Laufend 0 73m fluentd-57d6h 1/1 Laufend 0 36s fluentd-dfvdc 1/1 Laufend 0 36s fluentd-j7xs8 1/1 Laufen 0 36s fluentd-ss5wr 1/1 Laufen 0 36s fluentd-tbg4c 1/1 Laufen 0 36s fluentd-tzjtg 1/1 Laufen 0 36s fluentd-v9xz9 1/1 Laufen 0 36s fluentd-vjpqp 1/1 Laufen 0 36s fluentd-z7vzf 1/1 Laufen 0 36s

In unserem nächsten Artikel werden wir behandeln, wie Sie Logs auf OpenShift Cluster an externe Splunk- und ElasticSearch-Logging-Setups senden können.

Schauen Sie sich in der Zwischenzeit andere Artikel an, die wir über OpenShift haben.

Offenlegen der internen OpenShift-Registry extern und Anmeldung mit Docker/Podman CLI

So führen Sie Telnet / tcpdump in OpenShift v4 CoreOS-Knoten aus

Gewähren Sie Benutzern Zugriff auf das Projekt/Namespace in OpenShift

Konfigurieren Sie den Chrony NTP-Dienst auf OpenShift 4.x / OKD 4.x

So beheben Sie d3dx9_43.dll fehlt bei Ihrem Computerfehler
Wenn Sie ein begeisterter Spieler sind oder normalerweise an Projekten arbeiten, die fortgeschrittene Grafikprogramme erfordern, müssen Sie auf ein d3...
So verschieben Sie den Speicherort des Desktop-Ordners in Windows 10
Ihr PC-Desktop ist der Ort, an dem Sie alles von Dateien, Ordnern, Apps bis hin zu Verknüpfungen speichern können. Der Desktop zeigt all das an und be...
So entfernen Sie das Windows 10-Aktivierungswasserzeichen dauerhaft
Das Aktivierungswasserzeichen von Windows 10 wird auf dem Desktop angezeigt, wenn Sie Ihre Kopie von Windows 10 nach Ablauf der 90-tägigen Testphase n...