Wie man

Installieren Sie Apache Hadoop / HBase auf Ubuntu 18.04

Installieren Sie Apache Hadoop / HBase auf Ubuntu 18.04

Wie installiere ich Hadoop und HBase unter Ubuntu 18.04?. HBase ist eine verteilte, nicht relationale Open-Source-Datenbank, die unter der Apache Software Foundation entwickelt wurde. Es ist in Java geschrieben und läuft auf Hadoop File Systems (HDFS). HBase ist eine der dominierenden Datenbanken bei der Arbeit mit Big Data, da sie für einen schnellen Lese- und Schreibzugriff auf große Mengen strukturierter Daten ausgelegt ist.

Für CentOS 7 siehe So installieren Sie Apache Hadoop / HBase auf CentOS 7

Dies ist unsere erste Anleitung zur Installation von Hadoop und HBase unter Ubuntu 18.04. Es handelt sich um eine HBase-Installation auf einem Single Node Hadoop Cluster. Es wird auf einem Barebone Ubuntu 18 . gemacht.04 virtuelle Maschine mit 8GB Ram und 4vCPU.

Hadoop unter Ubuntu 18 installieren.04

Hier sind die Schritte zum Installieren eines Single Node Hadoop-Clusters auf Ubuntu 18.04 LTS.

Schritt 1: System aktualisieren

Aktualisieren Sie Ihr Ubuntu-System, bevor Sie mit der Bereitstellung von Hadoop und HBase beginnen.

sudo apt-Update
sudo apt -y upgrade
sudo neu starten

Schritt 2: Java installieren

Installieren Sie Java, wenn es auf Ihrem Ubuntu 18 . fehlt.04-System.

sudo add-apt-repository ppa:webupd8team/java
sudo apt-Update
sudo apt -y install oracle-java8-installer oracle-java8-set-default

Überprüfen Sie, ob Java erfolgreich installiert wurde.

$ Java-Version
Java-Version "1.8.0_201"
Java(TM) SE Laufzeitumgebung (Build 1.8.0_201-b09)
Java HotSpot(TM) 64-Bit-Server-VM (Build 25.201-b09, gemischter Modus)

einstellen JAVA_HOME Variable.

Katze <export JAVA_HOME=$(dirname $(dirname $(readlink $(readlink $(welche javac)))))
export PFAD=\$PFAD:\$JAVA_HOME/bin
EOF

Aktualisiere deinen $PATH und deine Einstellung.

Quelle /etc/profile.d/hadoop_java.Sch

Dann testen:

$ echo $JAVA_HOME
/usr/lib/jvm/java-8-oracle

Ref:

So legen Sie die Standard-Java-Version unter Ubuntu / Debian fest

So installieren Sie Java 8 unter Ubuntu 18.04/16.04

Schritt 3: Erstellen Sie ein Benutzerkonto für Hadoop

Erstellen wir einen separaten Benutzer für Hadoop, damit wir eine Isolation zwischen dem Hadoop-Dateisystem und dem Unix-Dateisystem haben.

sudo adduser hadoop
sudo usermod -aG sudo hadoop

Sobald der Benutzer hinzugefügt wurde, generieren Sie ein SS-Schlüsselpaar für den Benutzer.

$ sudo su - hadoop
$ ssh-keygen -t rsa
Generieren eines öffentlichen/privaten rsa-Schlüsselpaars.
Geben Sie die Datei ein, in der der Schlüssel gespeichert werden soll (/home/hadoop/.ssh/id_rsa):
Verzeichnis '/home/hadoop/ erstellt.ssh'.
Passphrase eingeben (leer für keine Passphrase):
Geben Sie dieselbe Passphrase erneut ein:
Ihre Identifikation wurde in /home/hadoop/ gespeichert.ssh/id_rsa.
Ihr öffentlicher Schlüssel wurde in /home/hadoop/ gespeichert.ssh/id_rsa.Kneipe.
Der wichtigste Fingerabdruck ist:
SHA256:mA1b0nzdKcwv/LPktvlA5R9LyNe9UWt+z1z0AjzySt4 [email protected]
Das Randomart-Bild des Schlüssels ist:
+---[RSA 2048]----+
| |
| o +… |
| Ö + . = o o|
| Ö . Ö.Ö.o=|
| + S . *ooB=|
| o *=.B|
|… *+=|
| o o o.O+|
| o E.=o=|
+----[SHA256]-----+

Fügen Sie den Schlüssel dieses Benutzers zur Liste der autorisierten SSH-Schlüssel hinzu.

Katze ~/.ssh/id_rsa.Kneipe >> ~/.ssh/authorized_keys
chmod 0600 ~/.ssh/authorized_keys

Stellen Sie sicher, dass Sie mit dem hinzugefügten Schlüssel ssh können.

[email protected]:~$ ssh localhost
Die Authentizität des Hosts 'localhost (127.0.0.1)' kann nicht festgestellt werden.
Der Fingerabdruck des ECDSA-Schlüssels lautet SHA256:CWrh3rLJRpu5dUGI278L1JnO29waYxJ0LzdUKV1t1/U.
Sind Sie sicher, dass Sie die Verbindung fortsetzen möchten (ja/nein)? Ja
Warnung: 'localhost' (ECDSA) dauerhaft zur Liste der bekannten Hosts hinzugefügt.
Willkommen bei Ubuntu 18.04.2 LTS (GNU/Linux 4.fünfzehn.0-47-generisch x86_64)
Dokumentation: https://Hilfe.ubuntu.com
Verwaltung: https://landschaft.kanonisch.com
Unterstützung: https://ubuntu.com/Vorteil
Systeminformationen vom Sa. 6. April 17:46:37 MESZ 2019
Systemlast: 0.01 Prozesse: 105
Verwendung von /: 2.2% von 75.06GB Angemeldete Benutzer: 1
Speichernutzung: 1% IP-Adresse für eth0: 192.168.20.11

[email protected]:~$ Ausfahrt
Ausloggen
Verbindung zu localhost geschlossen.

Schritt 4: Hadoop herunterladen und installieren

Suchen Sie nach der neuesten Version von Hadoop, bevor Sie die hier angegebene Version herunterladen. Zum jetzigen Zeitpunkt ist dies die Version 3.2.1.

Speichern Sie die aktuelle Version in einer Variablen.

FREIGABE="3.2.1"

Laden Sie dann das Hadoop-Archiv auf Ihr lokales System herunter.

wget https://www-eu.Apache.org/dist/hadoop/common/hadoop-$RELEASE/hadoop-$RELEASE.Teer.gz

Entpacken Sie die Datei.

tar -xzvf hadoop-$RELEASE.Teer.gz

Verschieben Sie das resultierende Verzeichnis nach /usr/local/hadoop.

rm hadoop-$RELEASE.Teer.gz
sudo mv hadoop-$RELEASE/ /usr/local/hadoop

einstellen HADOOP_HOME und fügen Sie ein Verzeichnis mit Hadoop-Binärdateien zu Ihrem . hinzu $PFAD.

$ sudo vim tee /etc/profile.d/hadoop_java.Sch export JAVA_HOME=$(dirname $(dirname $(readlink $(readlink $(welcher javac)))) export HADOOP_HOME=/usr/local/hadoop export HADOOP_HDFS_HOME=$HADOOP_HOME export HADOOP_MAPRED_HOME=$HADOOP_HOME export YARN_HOME=$HA =$HADOOP_HOME export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

Quelldatei.

Quelle /etc/profile.d/hadoop_java.Sch

Bestätigen Sie Ihre Hadoop-Version.

$ Hadoop-Version Hadoop 3.2.1 Quellcode-Repository https://github.com/apache/hadoop.git -r 1019dde65bcf12e05ef48ac71e84550d589e5d9a Kompiliert von sunilg am 29.01.2019T01:39Z Kompiliert mit Protokoll 2.5.0 Aus Quelle mit Prüfsumme 64b8bdd4ca6e77cce75a93eb09ab2a9 Dieser Befehl wurde mit /usr/local/hadoop/share/hadoop/common/hadoop-common-3 . ausgeführt.2.1.Krug

Schritt 5: Hadoop konfigurieren

Alle Ihre Hadoop-Konfigurationen befinden sich unter /usr/local/hadoop/etc/hadoop/ Verzeichnis.

Eine Reihe von Konfigurationsdateien müssen geändert werden, um die Hadoop-Installation auf Ubuntu 18 . abzuschließen.04.

Erste Bearbeitung JAVA_HOME im Shell-Skript hadoop-env.Sch:

$ sudo vim /usr/local/hadoop/etc/hadoop/hadoop-env.Sch
# JAVA_HOME einstellen - Zeile 54
export JAVA_HOME=/usr/lib/jvm/java-8-oracle

Dann konfigurieren Sie:

1. Core-Site.xml

Das Core-Site.xml Datei enthält Hadoop-Cluster-Informationen, die beim Start verwendet werden. Zu diesen Eigenschaften gehören:

Öffnen Core-Site.xml

sudo vim /usr/local/hadoop/etc/hadoop/core-site.xml

Fügen Sie die folgenden Eigenschaften zwischen den und Stichworte.

  fs.Standard.Name hdfs://localhost:9000 Der Standard-Dateisystem-URI   

Siehe Screenshot unten.

2. hdfs-site.xml

Diese Datei muss für jeden Host konfiguriert werden, der im Cluster verwendet werden soll. Diese Datei enthält Informationen wie:

In diesem Setup möchte ich die Hadoop-Infrastruktur auf einer sekundären Festplatte speichern - /dev/sdb.

$ lsblk
NAME MAJ:MIN RM GRÖSSE RO TYP MOUNTPOINT
sda 8:0 0 76.3G 0-Festplatte
sda1 8:1 0 76.3G 0-Teil /
sdb 8:16 0 50G 0 Festplatte
sr0 11:0 1 1024M 0 rom

Ich werde diese Festplatte partitionieren und mounten /hadoop Verzeichnis.

sudo parted -s -- /dev/sdb mklabel gpt
sudo parted -s -a optimal -- /dev/sdb mkpart primär 0% 100%
sudo parted -s -- /dev/sdb align-check optimal 1
sudo mkfs.xfs /dev/sdb1
sudo mkdir /hadoop
echo "/dev/sdb1 /hadoop xfs defaults 0 0" | sudo tee -a /etc/fstab
sudo mount -a

Bestätigen:

$ df -hT | grep /dev/sdb1
/dev/sdb1 xfs 50G 84M 50G 1% /hadoop

Verzeichnisse erstellen für Namensknoten und Datenknoten.

sudo mkdir -p /hadoop/hdfs/namenode,datanode

Eigentümerschaft auf hadoop-Benutzer und -Gruppe setzen.

sudo chown -R hadoop:hadoop /hadoop

Öffnen Sie nun die Datei:

sudo vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml

Fügen Sie dann die folgenden Eigenschaften zwischen den und Stichworte.

  dfs.Reproduzieren 1   dfs.Name.dir file:///hadoop/hdfs/namenode   dfs.Daten.dir file:///hadoop/hdfs/datanode  

Siehe Screenshot unten.

3. mapred-site.xml

Hier legen Sie das zu verwendende MapReduce-Framework fest.

sudo vim /usr/local/hadoop/etc/hadoop/mapred-site.xml

Set wie unten.

  Karte verkleinern.Rahmen.Name Garn  

4. Garn-Site.xml

Die Einstellungen in dieser Datei überschreiben die Konfigurationen für Hadoop-Garn. Es definiert Ressourcenmanagement- und Jobplanungslogik.

sudo vim /usr/local/hadoop/etc/hadoop/yarn-site.xml

Hinzufügen:

  Garn.Knotenmanager.Hilfsdienste mapreduce_shuffle  

Hier ist der Screenshot meiner Konfiguration.

Schritt 6: Hadoop-Konfigurationen validieren

Hadoop Infrastructure Store initialisieren Infrastructure.

sudo su - hadoop
hdfs namenode -format

Siehe Ausgabe unten:

HDFS-Konfigurationen testen.

$ start-dfs.Sch
Namenodes auf [localhost] starten
Starten von Datenknoten
Sekundäre Namensknoten starten [hbase]
hbase: Warnung: 'hbase' (ECDSA) dauerhaft zur Liste der bekannten Hosts hinzugefügt.

Überprüfen Sie zuletzt die YARN-Konfigurationen:

$ Startgarn.Sch
Ressourcenmanager starten
Knotenmanager starten

Hadoop 3.x standardmäßige Web-UI-Ports:

Sie können die von hadoop verwendeten Ports überprüfen, indem Sie:

$ ss -tunelp

Beispielausgabe ist unten gezeigt.

Greifen Sie auf das Hadoop-Web-Dashboard zu http://ServerIP:9870.

Überprüfen Sie die Hadoop-Cluster-Übersicht unter http://ServerIP:8088.

Testen Sie, ob Sie ein Verzeichnis erstellen können.

$ hadoop fs -mkdir /test
$ hadoop fs -ls /
1 Artikel gefunden
drwxr-xr-x - hadoop supergroup 0 2019-04-07 10:23 /test

Stoppen von Hadoop-Diensten

Verwenden Sie die Befehle:

$ stop-dfs.Sch
$ Stoppgarn.Sch

Installieren Sie HBase auf Ubuntu 18.04

Sie können HBase im Standalone-Modus oder im Pseudo-Distributed-Modus installieren. Der Einrichtungsprozess ähnelt unserer Hadoop-Installation.

Schritt 1: HBase herunterladen und installieren

Überprüfen Sie die neueste Version oder die stabile Version, bevor Sie herunterladen. Für den produktiven Einsatz empfehle ich Ihnen, mit Stabke Release zu gehen.

VER="2.2.4" wget http://apache.Spiegel.gtcomm.net/hbase/stable/hbase-$VER-bin.Teer.gz

Extrahieren Sie das heruntergeladene Hbase-Archiv.

tar xvf hbase-$VER-bin.Teer.gz
sudo mv hbase-$VER/ /usr/local/HBase/

Aktualisieren Sie Ihre $PATH-Werte.

$ sudo vim /etc/profile.d/hadoop_java.Sch export JAVA_HOME=$(dirname $(dirname $(readlink $(readlink $(welches javac)))) export HADOOP_HOME=/usr/local/hadoop export HADOOP_HDFS_HOME=$HADOOP_HOME export HADOOP_MAPRED_HOME=$HADOOP_HOME export YARN_HOME=$HA =$HADOOP_HOME-Export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/nativer Export HBASE_HOME=/usr/local/HBase-Export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin/$HBASE_

Aktualisieren Sie Ihre Shell-Umgebungswerte.

$ Quelle /etc/profile.d/hadoop_java.Sch
$ echo $HBASE_HOME
/usr/local/HBase

Bearbeiten JAVA_HOME im Shell-Skript hbase-env.Sch:

$ sudo vim /usr/local/HBase/conf/hbase-env.Sch
# JAVA_HOME einstellen - Zeile 27
export JAVA_HOME=/usr/lib/jvm/java-8-oracle

Schritt 2: HBase konfigurieren

Wir werden Konfigurationen wie bei Hadoop durchführen. Alle Konfigurationsdateien für HBase befinden sich auf /usr/local/HBase/conf/ Verzeichnis.

hbase-Site.xml

Setzen Sie das Datenverzeichnis auf einen geeigneten Speicherort in dieser Datei.

Option 1: HBase im Standalone-Modus installieren (nicht empfohlen)

Im Standalone-Modus liefen alle Daemons (HMaster, HRegionServer und ZooKeeper) in einem jvm-Prozess/-Instanz

HBase-Stammverzeichnis erstellen.

sudo mkdir -p /hadoop/HBase/HFiles
sudo mkdir -p /hadoop/zookeeper
sudo chown -R hadoop:hadoop /hadoop/

Öffnen Sie die Datei zum Bearbeiten.

sudo vim /usr/local/HBase/conf/hbase-site.xml

Fügen Sie nun die folgenden Konfigurationen zwischen den und Tags wie unten aussehen.

  hbase.rootdir Datei:/hadoop/HBase/HFiles   hbase.Tierpfleger.Eigentum.dataDir /hadoop/zookeeper  

Standardmäßig, es sei denn, Sie konfigurieren die hbase.rootdir Eigentum, Ihre Daten werden weiterhin gespeichert in /tmp/.

Starten Sie nun HBase mit start-hbase.Sch Skript im HBase bin-Verzeichnis.

$ sudo su - hadoop
$ start-hbase.Sch
laufender Master, Protokollierung in /usr/local/HBase/logs/hbase-hadoop-master-hbase.aus

Option 2: HBase im pseudoverteilten Modus installieren (empfohlen)

Unser Wert von hbase.rootdir früher eingestellt wird im Standalone-Modus gestartet. Pseudo-verteilter Modus bedeutet, dass HBase immer noch vollständig auf einem einzelnen Host läuft, aber jeder HBase-Daemon (HMaster, HRegionServer und ZooKeeper) als separater Prozess läuft.

Um HBase im pseudo-verteilten Modus zu installieren, setzen Sie die Werte auf:

  hbase.rootdir hdfs://localhost:8030/hbase   hbase.Tierpfleger.Eigentum.dataDir /hadoop/zookeeper   hbase.Cluster.verteilt wahr  

In diesem Setup werden Daten stattdessen in HDFS gespeichert stored.

Stellen Sie sicher, dass das Zookeeper-Verzeichnis erstellt wurde.

sudo mkdir -p /hadoop/zookeeper
sudo chown -R hadoop:hadoop /hadoop/

Starten Sie nun HBase mit start-hbase.Sch Skript im HBase bin-Verzeichnis.

$ sudo su - hadoop
$ start-hbase.Sch
localhost: Ausführen von Zookeeper, Protokollierung bei /usr/local/HBase/bin/… /logs/hbase-hadoop-zookeeper-hbase.aus
laufender Master, Protokollierung in /usr/local/HBase/logs/hbase-hadoop-master-hbase.aus
: Ausführen von regionserver, Protokollierung bei /usr/local/HBase/logs/hbase-hadoop-regionserver-hbase.aus

Überprüfen Sie das HBase-Verzeichnis in HDFS:

$ hadoop fs -ls /hbase
9 Artikel gefunden
drwxr-xr-x - Hadoop-Supergruppe 0 2019-04-07 09:19 /hbase/.tmp
drwxr-xr-x - hadoop supergroup 0 2019-04-07 09:19 /hbase/MasterProcWALs
drwxr-xr-x - hadoop supergroup 0 2019-04-07 09:19 /hbase/WALs
drwxr-xr-x - hadoop supergroup 0 2019-04-07 09:17 /hbase/corrupt
drwxr-xr-x - Hadoop-Supergruppe 0 2019-04-07 09:16 /hbase/data
drwxr-xr-x - hadoop supergroup 0 2019-04-07 09:16 /hbase/hbase
-rw-r--r-- 1 Hadoop-Supergruppe 42 2019-04-07 09:16 /hbase/hbase.Ich würde
-rw-r--r-- 1 Hadoop-Supergruppe 7 2019-04-07 09:16 /hbase/hbase.Ausführung
drwxr-xr-x - hadoop supergroup 0 2019-04-07 09:17 /hbase/oldWALs

Schritt 3: HMaster & HRegionServer verwalten

Der HMaster-Server steuert den HBase-Cluster. Sie können bis zu 9 Backup-HMaster-Server starten, was insgesamt 10 HMasters ergibt, wobei die primären gezählt werden.

Der HRegionServer verwaltet die Daten in seinen StoreFiles gemäß den Anweisungen des HMaster. Im Allgemeinen läuft ein HRegionServer pro Knoten im Cluster. Das Ausführen mehrerer HRegionServer auf demselben System kann zum Testen im pseudoverteilten Modus nützlich sein.

Master- und Regionsserver können mit den Skripten gestartet und gestoppt werden Local-Master-Backup.Sch und local-regionservers.Sch beziehungsweise.

$ local-master-backup.sh start 2 # Backup starten HMaster
$ local-regionservers.sh start 3 # Mehrere RegionServer starten

Der folgende Befehl startet 3 Backup-Server mit den Ports 16002/16012, 16003/16013 und 16005/16015.

$ local-master-backup.sch starten 2 3 5

Der folgende Befehl startet vier zusätzliche RegionServer, die auf sequenziellen Ports ab 16022/16032 (Basisports 16020/16030 plus 2) ausgeführt werden.

$ local-regionservers.sch starten 2 3 4 5

Um zu stoppen, ersetzen Sie Start Parameter mit Stopp für jeden Befehl gefolgt vom Offset des zu stoppenden Servers. Beispiel.

$ local-regionservers.sch halt 5

HBase Shell starten

Hadoop und Hbase sollten ausgeführt werden, bevor Sie die HBase-Shell verwenden können. Hier die richtige Reihenfolge der Startdienste.

$ alles starten.Sch
$ start-hbase.Sch

Dann verwenden Sie die HBase-Shell.

[email protected]:~$ hbase-Shell
07.04.2019 10:44:43.821 WARN [main] util.NativeCodeLoader: Native-Hadoop-Bibliothek für Ihre Plattform kann nicht geladen werden… ggf. mit eingebauten Java-Klassen
SLF4J: Klassenpfad enthält mehrere SLF4J-Bindungen.
SLF4J: Bindung in [jar:file:/usr/local/HBase/lib/slf4j-log4j12-1 . gefunden.7.10.Krug!/org/slf4j/impl/StaticLoggerBinder.Klasse]
SLF4J: Bindung in [jar:file:/usr/local/hadoop/share/hadoop/common/lib/slf4j-log4j12-1 . gefunden.7.25.Krug!/org/slf4j/impl/StaticLoggerBinder.Klasse]
SLF4J: Siehe http://www.slf4j.Organisation/Codes.html#multiple_bindings für eine Erklärung.
SLF4J: Die tatsächliche Bindung ist vom Typ [org.slf4j.impli.Log4jLoggerFactory]
HBase-Shell
Verwenden Sie "Hilfe", um eine Liste der unterstützten Befehle zu erhalten.
Verwenden Sie "exit", um diese interaktive Shell zu beenden.
Version 1.4.9, rd625b212e46d01cb17db9ac2e9e927fdb201afa1, Mi. 5. Dezember 11:54:10 PST 2018
hbase(main):001:0>

Stoppen von HBase.

stop-hbase.Sch

Fazit

Sie haben Hadoop und HBase erfolgreich auf Ubuntu 18 . installiert.04. Weitere Informationen finden Sie in der Apache Hadoop-Dokumentation und im Apache HBase-Buch.

Bücher zum Lesen:

Hadoop: The Definitive Guide: Storage and Analysis at Internet Scale

$59.99
$34.68  auf Lager24 neu ab 28 $.96
65 gebraucht ab $6.fünfzehn
Kostenloser Versand
JETZT KAUFENmazon.comab 08.05.2021 20:15 Uhr

Hadoop erklärt

 auf LagerJETZT KAUFENmazon.comab 08.05.2021 20:15 Uhr

Eigenschaften

Veröffentlichungsdatum2014-06-16T00:00:00.000Z
SpracheEnglisch
Seitenzahl156
Veröffentlichungsdatum2014-06-16T00:00:00.000Z
FormatKindle-eBook

Hadoop-Anwendungsarchitekturen

$49.99
$40.28  auf Lager14 neu ab 27 $.80
37 gebraucht ab 2.84
Kostenloser Versand
JETZT KAUFENmazon.comab 08.05.2021 20:15 Uhr

HBase: The Definitive Guide: Direktzugriff auf Ihre Daten von Planet-Größe

$39.99
$28.01  auf Lager18 neu ab 13 $.99
38 gebraucht ab 2.32
Kostenloser Versand
JETZT KAUFENmazon.comab 08.05.2021 20:15 Uhr

Eigenschaften

Artikelnummer978-1-4493-9610-7
Ist ein Produkt für Erwachsene
Auflage1
SpracheEnglisch
Seitenzahl556
Veröffentlichungsdatum2011-09-23T00:00:01Z

Big Data: Prinzipien und Best Practices skalierbarer Echtzeit-Datensysteme

$49.99
$37.76  auf Lager13 neu ab 34 $.99
44 gebraucht ab 2.32
Kostenloser Versand
JETZT KAUFENmazon.comab 08.05.2021 20:15 Uhr

Eigenschaften

Artikelnummer43171-600463
Ist ein Produkt für Erwachsene
Veröffentlichungsdatum2015-05-10T00:00:01Z
Auflage1
SpracheEnglisch
Seitenzahl328
Veröffentlichungsdatum2015-05-10T00:00:01Z

Entwicklung datenintensiver Anwendungen: Die großen Ideen hinter zuverlässigen, skalierbaren und wartbaren Systemen

$59.99
$35.00  auf Lager32 neu ab 31 $.00
26 gebraucht ab $32.14
Kostenloser Versand
JETZT KAUFENmazon.comab 08.05.2021 20:15 Uhr

Eigenschaften

Artikelnummer41641073
Auflage1
SpracheEnglisch
Seitenzahl616
Veröffentlichungsdatum2017-04-11T00:00:01Z

Weitere interessante Anleitungen:

Installieren Sie das verteilte Ablaufverfolgungssystem von Zipkin auf Ubuntu / Debian / CentOS

Installieren Sie den WildFly (JBoss)-Anwendungsserver auf Ubuntu 18.04 / Debian 10/9

So stellen Sie Kubernetes-Cluster mit Rancher bereit
Willkommen zu unserer vollständigen Anleitung zum Starten eines Kubernetes-Clusters mit Rancher in der Cloud, einer virtuellen Maschine (VMware, Virtu...
So führen Sie einen lokalen Kubernetes-Cluster in Docker-Containern aus
Frage: Kann ich Kubernetes in Docker ausführen??. Wenn Sie Kubernetes unverbindlich testen möchten, nutzen Sie am einfachsten und schnellsten Docker-C...
Bereitstellen eines leichten Kubernetes-Clusters in 5 Minuten mit K3s
Sie möchten einen Lightweight Kubernetes Cluster einfach und mit weniger Speicherbedarf bereitstellen?, alles in einer Binärdatei von weniger als 40 M...