Wie man

Installieren Sie Apache Hadoop / HBase auf Ubuntu 20.04

Installieren Sie Apache Hadoop / HBase auf Ubuntu 20.04

Dieses Tutorial wird versuchen, die Schritte zur Installation von Hadoop und HBase auf Ubuntu 20 zu erklären.04 (Focal Fossa) Linux-Server?. HBase ist eine verteilte, nicht relationale Open-Source-Datenbank, die in Java geschrieben ist und auf Hadoop-Dateisystemen (HDFS) läuft. Mit der HBase können Sie riesige Cluster betreiben, die sehr große Tabellen mit Milliarden von Zeilen und Millionen von Spalten auf Standardhardware hosten.

Diese Installationsanleitung ist nicht auf hochverfügbare Produktions-Setups ausgerichtet, sondern für Lab-Setup, um Ihnen die Entwicklung zu ermöglichen. Unsere HBase-Installation erfolgt auf einem Single Node Hadoop Cluster. Der Server ist ein Ubuntu 20.04 virtuelle Maschine mit den folgenden Spezifikationen:

Wenn Ihre Ressourcen nicht mit diesem Lab-Setup übereinstimmen, können Sie mit Ihren vorhandenen Ressourcen arbeiten und prüfen, ob die Dienste gestartet werden können.

Für CentOS 7 siehe So installieren Sie Apache Hadoop / HBase auf CentOS 7

Hadoop auf Ubuntu 20 . installieren.04

Der erste Abschnitt behandelt die Installation eines Single-Node-Hadoop-Clusters auf Ubuntu 20.04 LTS-Server. Die Installation von Ubuntu 20.04-Server ist nicht Gegenstand dieses Handbuchs. Weitere Informationen finden Sie in den Dokumentationen Ihrer Virtualisierungsumgebung.

Schritt 1: System aktualisieren

Aktualisieren und aktualisieren Sie optional alle Pakete, die auf Ihrem Ubuntu-System installiert sind:

sudo apt update sudo apt -y upgrade sudo reboot

Schritt 2: Java auf Ubuntu 20 installieren.04

Installieren Sie Java, wenn es auf Ihrem Ubuntu 20 fehlt.04-System.

sudo apt update sudo apt install default-jdk default-jre

Nach erfolgreicher Installation von Java auf Ubuntu 20.04, bestätigen Sie die Version mit der Java-Befehlszeile.

$ java -version openjdk-Version "11.0.7" 2020-04-14 OpenJDK-Laufzeitumgebung (Build 11.0.7+10-post-Ubuntu-3ubuntu1) OpenJDK 64-Bit-Server-VM (Build 11.0.7+10-post-Ubuntu-3ubuntu1, gemischter Modus, Teilen)

einstellen JAVA_HOME Variable.

Katze <

Aktualisiere deinen $PATH und deine Einstellung.

Quelle /etc/profile.d/hadoop_java.Sch

Dann testen:

$ echo $JAVA_HOME /usr/lib/jvm/java-11-openjdk-amd64

Ref:

So legen Sie die Standard-Java-Version unter Ubuntu / Debian fest

Schritt 3: Erstellen Sie ein Benutzerkonto für Hadoop

Erstellen wir einen separaten Benutzer für Hadoop, damit wir eine Isolation zwischen dem Hadoop-Dateisystem und dem Unix-Dateisystem haben.

sudo adduser hadoop sudo usermod -aG sudo hadoop sudo usermod -aG sudo hadoop

Sobald der Benutzer hinzugefügt wurde, generieren Sie ein SS-Schlüsselpaar für den Benutzer.

$ sudo su - hadoop
$ ssh-keygen -t rsa
Generieren eines öffentlichen/privaten rsa-Schlüsselpaars.
Geben Sie die Datei ein, in der der Schlüssel gespeichert werden soll (/home/hadoop/.ssh/id_rsa):
Verzeichnis '/home/hadoop/ erstellt.ssh'.
Passphrase eingeben (leer für keine Passphrase):
Geben Sie dieselbe Passphrase erneut ein:
Ihre Identifikation wurde in /home/hadoop/ gespeichert.ssh/id_rsa.
Ihr öffentlicher Schlüssel wurde in /home/hadoop/ gespeichert.ssh/id_rsa.Kneipe.
Der wichtigste Fingerabdruck ist:
SHA256:mA1b0nzdKcwv/LPktvlA5R9LyNe9UWt+z1z0AjzySt4 [email protected]
Das Randomart-Bild des Schlüssels ist:
+---[RSA 2048]----+
| |
| o +… |
| Ö + . = o o|
| Ö . Ö.Ö.o=|
| + S . *ooB=|
| o *=.B|
|… *+=|
| o o o.O+|
| o E.=o=|
+----[SHA256]-----+

Fügen Sie den Schlüssel dieses Benutzers zur Liste der autorisierten SSH-Schlüssel hinzu.

Katze ~/.ssh/id_rsa.Kneipe >> ~/.ssh/authorized_keys chmod 0600 ~/.ssh/authorized_keys

Stellen Sie sicher, dass Sie mit dem hinzugefügten Schlüssel ssh können.

$ ssh localhost Die Authentizität des Hosts 'localhost (127.0.0.1)' kann nicht festgestellt werden. Der Fingerabdruck des ECDSA-Schlüssels ist SHA256:42Mx+I3isUOWTzFsuA0ikhNN+cJhxUYzttlZ879y+QI. Sind Sie sicher, dass Sie die Verbindung fortsetzen möchten (ja/nein/[Fingerabdruck])? ja Warnung: 'localhost' (ECDSA) dauerhaft zur Liste der bekannten Hosts hinzugefügt. Willkommen bei Ubuntu 20.04 LTS (GNU/Linux 5.4.0-28-generic x86_64) * Dokumentation: https://help.ubuntu.com * Verwaltung: https://landscape.kanonisch.com * Unterstützung: https://ubuntu.com/advantage Die im Ubuntu-System enthaltenen Programme sind freie Software; die genauen Vertriebsbedingungen für jedes Programm sind in den einzelnen Dateien in /usr/share/doc/*/copyright . beschrieben. Ubuntu kommt mit ABSOLUT KEINE GARANTIE, soweit dies nach geltendem Recht zulässig ist. $ beenden

Schritt 4: Hadoop herunterladen und installieren

Suchen Sie nach der neuesten Version von Hadoop, bevor Sie die hier angegebene Version herunterladen. Zum jetzigen Zeitpunkt ist dies die Version 3.2.1.

Speichern Sie die aktuelle Version in einer Variablen.

FREIGABE="3.2.1"

Laden Sie dann das Hadoop-Archiv auf Ihr lokales System herunter.

wget https://www-eu.Apache.org/dist/hadoop/common/hadoop-$RELEASE/hadoop-$RELEASE.Teer.gz

Entpacken Sie die Datei.

tar -xzvf hadoop-$RELEASE.Teer.gz

Verschieben Sie das resultierende Verzeichnis nach /usr/local/hadoop.

sudo mv hadoop-$RELEASE/ /usr/local/hadoop sudo mkdir /usr/local/hadoop/logs sudo chown -R hadoop:hadoop /usr/local/hadoop

einstellen HADOOP_HOME und fügen Sie ein Verzeichnis mit Hadoop-Binärdateien zu Ihrem . hinzu $PFAD.

Katze <

Quelldatei.

Quelle /etc/profile.d/hadoop_java.Sch

Bestätigen Sie Ihre Hadoop-Version.

$ Hadoop-Version Hadoop 3.2.1 Quellcode-Repository https://gitbox.Apache.org/repos/asf/hadoop.git -r b3cbbb467e22ea829b3808f4b7b01d07e0bf3842 Kompiliert von rohithsharmaks am 2019-09-10T15:56Z Kompiliert mit Protokoll 2.5.0 Aus Quelle mit Prüfsumme 776eaf9eee9c0ffc370bcbc1888737 Dieser Befehl wurde mit /usr/local/hadoop/share/hadoop/common/hadoop-common-3 . ausgeführt.2.1.Krug

Schritt 5: Hadoop konfigurieren

Alle Ihre Hadoop-Konfigurationen befinden sich unter /usr/local/hadoop/etc/hadoop/ Verzeichnis.

Eine Reihe von Konfigurationsdateien müssen geändert werden, um die Hadoop-Installation auf Ubuntu 20 . abzuschließen.04.

Erste Bearbeitung JAVA_HOME im Shell-Skript hadoop-env.Sch:

$ sudo vim /usr/local/hadoop/etc/hadoop/hadoop-env.Sch # Set JAVA_HOME - Zeile 54 Export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64/

Dann konfigurieren Sie:

1. Core-Site.xml

Das Core-Site.xml Datei enthält Hadoop-Cluster-Informationen, die beim Start verwendet werden. Zu diesen Eigenschaften gehören:

Öffnen Core-Site.xml

sudo vim /usr/local/hadoop/etc/hadoop/core-site.xml

Fügen Sie die folgenden Eigenschaften zwischen den und Stichworte.

  fs.Standard.Name hdfs://localhost:9000 Der Standard-Dateisystem-URI   

Siehe Screenshot unten.

2. hdfs-site.xml

Diese Datei muss für jeden Host konfiguriert werden, der im Cluster verwendet werden soll. Diese Datei enthält Informationen wie:

In diesem Setup möchte ich die Hadoop-Infrastruktur auf einer sekundären Festplatte speichern - /dev/sdb.

$ lsblk NAME MAJ:MIN RM GRÖSSE RO TYP MOUNTPOINT sda 8:0 0 76.3G 0 Scheibe └─sda1 8:1 0 76.3G 0-Teil / SDB 8:16 0 100G 0 Festplatte sr0 11:0 1 1024M 0 rom 

Ich werde diese Festplatte partitionieren und mounten /hadoop Verzeichnis.

sudo parted -s -- /dev/sdb mklabel gpt sudo parted -s -a optimal -- /dev/sdb mkpart primär 0% 100 % sudo parted -s -- /dev/sdb align-check optimal 1 sudo mkfs.xfs /dev/sdb1 sudo mkdir /hadoop echo "/dev/sdb1 /hadoop xfs defaults 0 0" | sudo tee -a /etc/fstab sudo mount -a 

Bestätigen:

$ df -hT | grep /dev/sdb1 /dev/sdb1 xfs 50G 84M 100G 1% /hadoop

Verzeichnisse erstellen für Namensknoten und Datenknoten.

sudo mkdir -p /hadoop/hdfs/namenode,datanode

Eigentümerschaft auf hadoop-Benutzer und -Gruppe setzen.

sudo chown -R hadoop:hadoop /hadoop

Öffnen Sie nun die Datei:

sudo vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml

Fügen Sie dann die folgenden Eigenschaften zwischen den und Stichworte.

  dfs.Reproduzieren 1   dfs.Name.dir file:///hadoop/hdfs/namenode   dfs.Daten.dir file:///hadoop/hdfs/datanode  

Siehe Screenshot unten.

3. mapred-site.xml

Hier legen Sie das zu verwendende MapReduce-Framework fest.

sudo vim /usr/local/hadoop/etc/hadoop/mapred-site.xml

Set wie unten.

  Karte verkleinern.Rahmen.Name Garn  

4. Garn-Site.xml

Die Einstellungen in dieser Datei überschreiben die Konfigurationen für Hadoop-Garn. Es definiert Ressourcenmanagement- und Jobplanungslogik.

sudo vim /usr/local/hadoop/etc/hadoop/yarn-site.xml

Hinzufügen:

  Garn.Knotenmanager.Hilfsdienste mapreduce_shuffle  

Hier ist der Screenshot meiner Konfiguration.

Schritt 6: Hadoop-Konfigurationen validieren

Hadoop Infrastructure Store initialisieren Infrastructure.

sudo su - hadoop hdfs namenode -format

Siehe Ausgabe unten:

HDFS-Konfigurationen testen.

$ start-dfs.Sch Namenodes auf [localhost] starten Datanodes starten Sekundäre Namenodes starten [hbase] hbase: Warnung: 'hbase' (ECDSA) dauerhaft zur Liste der bekannten Hosts hinzugefügt.

Überprüfen Sie zuletzt die YARN-Konfigurationen:

$ Startgarn.Sch
Ressourcenmanager starten
Knotenmanager starten

Hadoop 3.x standardmäßige Web-UI-Ports:

Sie können die von hadoop verwendeten Ports überprüfen, indem Sie:

$ ss -tunelp

Beispielausgabe ist unten gezeigt.

Greifen Sie auf das Hadoop-Web-Dashboard zu http://ServerIP:9870.

Überprüfen Sie die Hadoop-Cluster-Übersicht unter http://ServerIP:8088.

Testen Sie, ob Sie ein Verzeichnis erstellen können.

$ hadoop fs -mkdir /test $ hadoop fs -ls / 1 Artikel gefunden drwxr-xr-x - hadoop supergroup 0 2020-05-29 15:41 /test

Stoppen von Hadoop-Diensten

Verwenden Sie die Befehle:

$ stop-dfs.sh $ stop-garn.Sch

Installieren Sie HBase auf Ubuntu 20.04

Sie können HBase im Standalone-Modus oder im Pseudo-Distributed-Modus installieren. Der Einrichtungsprozess ähnelt unserer Hadoop-Installation.

Schritt 1: HBase herunterladen und installieren

Überprüfen Sie die neueste Version oder die stabile Version, bevor Sie herunterladen. Für den produktiven Einsatz empfehle ich Ihnen, sich für eine stabile Version zu entscheiden.

VER="2.2.4" wget http://apache.Spiegel.gtcomm.net/hbase/stable/hbase-$VER-bin.Teer.gz

Extrahieren Sie das heruntergeladene Hbase-Archiv.

tar xvf hbase-$VER-bin.Teer.gz sudo mv hbase-$VER/ /usr/local/HBase/

Aktualisieren Sie Ihre $PATH-Werte.

Katze <

Aktualisieren Sie Ihre Shell-Umgebungswerte.

$ Quelle /etc/profile.d/hadoop_java.Sch
$ echo $HBASE_HOME
/usr/local/HBase

Bearbeiten JAVA_HOME im Shell-Skript hbase-env.Sch:

$ sudo vim /usr/local/HBase/conf/hbase-env.Sch # Set JAVA_HOME - Zeile 27 export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64/

Schritt 2: HBase konfigurieren

Wir werden Konfigurationen wie bei Hadoop durchführen. Alle Konfigurationsdateien für HBase befinden sich auf /usr/local/HBase/conf/ Verzeichnis.

hbase-Site.xml

Setzen Sie das Datenverzeichnis auf einen geeigneten Speicherort in dieser Datei.

Option 1: HBase im Standalone-Modus installieren (nicht empfohlen)

Im Standalone-Modus liefen alle Daemons (HMaster, HRegionServer und ZooKeeper) in einem jvm-Prozess/-Instanz

HBase-Stammverzeichnis erstellen.

sudo mkdir -p /hadoop/HBase/HFiles sudo mkdir -p /hadoop/zookeeper sudo chown -R hadoop:hadoop /hadoop/

Öffnen Sie die Datei zum Bearbeiten.

sudo vim /usr/local/HBase/conf/hbase-site.xml

Fügen Sie nun die folgenden Konfigurationen zwischen den und Tags wie unten aussehen.

  hbase.rootdir Datei:/hadoop/HBase/HFiles   hbase.Tierpfleger.Eigentum.dataDir /hadoop/zookeeper  

Standardmäßig, es sei denn, Sie konfigurieren die hbase.rootdir Eigentum, Ihre Daten werden weiterhin gespeichert in /tmp/.

Starten Sie nun HBase mit start-hbase.Sch Skript im HBase bin-Verzeichnis.

$ sudo su - hadoop
$ start-hbase.Sch
laufender Master, Protokollierung in /usr/local/HBase/logs/hbase-hadoop-master-hbase.aus

Option 2: HBase im pseudoverteilten Modus installieren (empfohlen)

Unser Wert von hbase.rootdir früher eingestellt wird im Standalone-Modus gestartet. Pseudo-verteilter Modus bedeutet, dass HBase immer noch vollständig auf einem einzelnen Host läuft, aber jeder HBase-Daemon (HMaster, HRegionServer und ZooKeeper) als separater Prozess läuft.

Um HBase im pseudo-verteilten Modus zu installieren, setzen Sie die Werte auf:

  hbase.rootdir hdfs://localhost:8030/hbase   hbase.Tierpfleger.Eigentum.dataDir /hadoop/zookeeper   hbase.Cluster.verteilt wahr  

In diesem Setup werden Daten stattdessen in HDFS gespeichert stored.

Stellen Sie sicher, dass das Zookeeper-Verzeichnis erstellt wurde.

sudo mkdir -p /hadoop/zookeeper sudo chown -R hadoop:hadoop /hadoop/

Starten Sie nun HBase mit start-hbase.Sch Skript im HBase bin-Verzeichnis.

$ sudo su - hadoop $ start-hbase.Sch  localhost: Ausführen von Zookeeper, Protokollierung bei /usr/local/HBase/bin/… /logs/hbase-hadoop-zookeeper-hbase.out running master, loggen in /usr/local/HBase/logs/hbase-hadoop-master-hbase.out : Ausführen von regionserver, loggen bei /usr/local/HBase/logs/hbase-hadoop-regionserver-hbase.aus

Überprüfen Sie das HBase-Verzeichnis in HDFS:

$ hadoop fs -ls /hbase
9 Artikel gefunden
drwxr-xr-x - Hadoop-Supergruppe 0 2019-04-07 09:19 /hbase/.tmp
drwxr-xr-x - hadoop supergroup 0 2019-04-07 09:19 /hbase/MasterProcWALs
drwxr-xr-x - hadoop supergroup 0 2019-04-07 09:19 /hbase/WALs
drwxr-xr-x - hadoop supergroup 0 2019-04-07 09:17 /hbase/corrupt
drwxr-xr-x - Hadoop-Supergruppe 0 2019-04-07 09:16 /hbase/data
drwxr-xr-x - hadoop supergroup 0 2019-04-07 09:16 /hbase/hbase
-rw-r--r-- 1 Hadoop-Supergruppe 42 2019-04-07 09:16 /hbase/hbase.Ich würde
-rw-r--r-- 1 Hadoop-Supergruppe 7 2019-04-07 09:16 /hbase/hbase.Ausführung
drwxr-xr-x - hadoop supergroup 0 2019-04-07 09:17 /hbase/oldWALs

Schritt 3: HMaster & HRegionServer verwalten

Der HMaster-Server steuert den HBase-Cluster. Sie können bis zu 9 Backup-HMaster-Server starten, was insgesamt 10 HMasters ergibt, wobei die primären gezählt werden.

Der HRegionServer verwaltet die Daten in seinen StoreFiles gemäß den Anweisungen des HMaster. Im Allgemeinen läuft ein HRegionServer pro Knoten im Cluster. Das Ausführen mehrerer HRegionServer auf demselben System kann zum Testen im pseudoverteilten Modus nützlich sein.

Master- und Regionsserver können mit den Skripten gestartet und gestoppt werden Local-Master-Backup.Sch und local-regionservers.Sch beziehungsweise.

$ local-master-backup.sh start 2 # Backup starten HMaster
$ local-regionservers.sh start 3 # Mehrere RegionServer starten

Der folgende Befehl startet 3 Backup-Server mit den Ports 16002/16012, 16003/16013 und 16005/16015.

$ local-master-backup.sch starten 2 3 5

Der folgende Befehl startet vier zusätzliche RegionServer, die auf sequenziellen Ports ab 16022/16032 (Basisports 16020/16030 plus 2) ausgeführt werden.

$ local-regionservers.sch starten 2 3 4 5

Um zu stoppen, ersetzen Sie Start Parameter mit Stopp für jeden Befehl gefolgt vom Offset des zu stoppenden Servers. Beispiel.

$ local-regionservers.sch halt 5

HBase Shell starten

Hadoop und Hbase sollten ausgeführt werden, bevor Sie die HBase-Shell verwenden können. Hier die richtige Reihenfolge der Startdienste.

$ alles starten.sh $ start-hbase.Sch

Dann verwenden Sie die HBase-Shell.

[email protected]:~$ hbase-Shell
07.04.2019 10:44:43.821 WARN [main] util.NativeCodeLoader: Native-Hadoop-Bibliothek für Ihre Plattform kann nicht geladen werden… ggf. mit eingebauten Java-Klassen
SLF4J: Klassenpfad enthält mehrere SLF4J-Bindungen.
SLF4J: Bindung in [jar:file:/usr/local/HBase/lib/slf4j-log4j12-1 . gefunden.7.10.Krug!/org/slf4j/impl/StaticLoggerBinder.Klasse]
SLF4J: Bindung in [jar:file:/usr/local/hadoop/share/hadoop/common/lib/slf4j-log4j12-1 . gefunden.7.25.Krug!/org/slf4j/impl/StaticLoggerBinder.Klasse]
SLF4J: Siehe http://www.slf4j.Organisation/Codes.html#multiple_bindings für eine Erklärung.
SLF4J: Die tatsächliche Bindung ist vom Typ [org.slf4j.impli.Log4jLoggerFactory]
HBase-Shell
Verwenden Sie "Hilfe", um eine Liste der unterstützten Befehle zu erhalten.
Verwenden Sie "exit", um diese interaktive Shell zu beenden.
Version 1.4.9, rd625b212e46d01cb17db9ac2e9e927fdb201afa1, Mi. 5. Dezember 11:54:10 PST 2018
hbase(main):001:0>

Stoppen von HBase.

stop-hbase.Sch

Sie haben Hadoop und HBase erfolgreich auf Ubuntu 20 . installiert.04.

Bücher zum Lesen:

Hadoop: The Definitive Guide: Storage and Analysis at Internet Scale

$59.99
$34.68  auf Lager24 neu ab 28 $.96
65 gebraucht ab $6.13
Kostenloser Versand
JETZT KAUFENmazon.comStand 09.05.2021 10:37 Uhr

Hadoop erklärt

 auf LagerJETZT KAUFENmazon.comStand 09.05.2021 10:37 Uhr

Eigenschaften

Veröffentlichungsdatum2014-06-16T00:00:00.000Z
SpracheEnglisch
Seitenzahl156
Veröffentlichungsdatum2014-06-16T00:00:00.000Z
FormatKindle-eBook

Hadoop-Anwendungsarchitekturen

$49.99
$40.28  auf Lager14 neu ab 27 $.80
37 gebraucht ab 2.76
Kostenloser Versand
JETZT KAUFENmazon.comStand 09.05.2021 10:37 Uhr

HBase: The Definitive Guide: Direktzugriff auf Ihre Daten von Planet-Größe

$39.99
$28.01  auf Lager16 neu ab 13 $.99
37 gebraucht ab 2.32
Kostenloser Versand
JETZT KAUFENmazon.comStand 09.05.2021 10:37 Uhr

Eigenschaften

Artikelnummer978-1-4493-9610-7
Ist ein Produkt für Erwachsene
Auflage1
SpracheEnglisch
Seitenzahl556
Veröffentlichungsdatum2011-09-23T00:00:01Z

Big Data: Prinzipien und Best Practices skalierbarer Echtzeit-Datensysteme

$49.99
$37.76  auf Lager13 neu ab 35 $.00
45 gebraucht ab $2.32
Kostenloser Versand
JETZT KAUFENmazon.comStand 09.05.2021 10:37 Uhr

Eigenschaften

Artikelnummer43171-600463
Ist ein Produkt für Erwachsene
Veröffentlichungsdatum2015-05-10T00:00:01Z
Auflage1
SpracheEnglisch
Seitenzahl328
Veröffentlichungsdatum2015-05-10T00:00:01Z

Entwicklung datenintensiver Anwendungen: Die großen Ideen hinter zuverlässigen, skalierbaren und wartbaren Systemen

$59.99
$35.00  auf Lager30 neu ab 31 $.00
27 gebraucht ab $32.00
Kostenloser Versand
JETZT KAUFENmazon.comStand 09.05.2021 10:37 Uhr

Eigenschaften

Artikelnummer41641073
Auflage1
SpracheEnglisch
Seitenzahl616
Veröffentlichungsdatum2017-04-11T00:00:01Z

Referenz:

  • Apache Hadoop-Dokumentation
  • Apache HBase-Buch
Top-Bücher zur Vorbereitung auf die CRISC-Zertifizierungsprüfung im Jahr 2021
EinführungCertified in Risk and Information Systems (CRISC) ist eine Zertifizierung, die von ISACA entwickelt wurde und aufrechterhalten wird. Ihr Hau...
Die besten Bücher zum Erlernen der Scala-Programmierung im Jahr 2021
„Unterschätze niemals die Kraft der Träume und den Einfluss des menschlichen Geistes. In dieser Vorstellung sind wir alle gleich: Das Potenzial für Gr...
Beste Zertifizierungsbücher für Project Management Professional (PMP) 2021
EinführungProject Management Professional (PMP) ist eine international anerkannte Berufsbezeichnung des Project Management Institute (PMI). Es ist ein...

Website für Gadgets, Betriebssysteme und moderne Technologie. Viele interessante Artikel und nützliche Tipps