Užitočné príkazy shellu Hadoop



Tento blog popisuje všetky užitočné príkazy shellu Hadoop. Spolu s príkazmi Hadoop Shell má aj snímky obrazovky, ktoré uľahčujú učenie. Pokračuj v čítaní!

HDFS znamená „ H vypískať D istribuovaný F s S ystem ‘. HDFS je čiastkovým projektom projektu Apache Hadoop. Tento projekt Apache Software Foundation je navrhnutý tak, aby poskytoval súborový systém odolný voči chybám určený na prevádzku na komoditnom hardvéri. K HDFS sa pristupuje prostredníctvom sady shell príkazov, o ktorých sa bude diskutovať v tomto príspevku.





Krátka poznámka pred spustením: Všetky príkazy Hadoop Shell sú vyvolané skriptom bin / hadoop.

Príkazy používateľa:

  • Spustite súborový systém DFS:

Použitie: hadoop fsck - /



Súborový systém Run-DFS (1)

  • C. sakra verzia Hadoop :

Použitie: Verzia Hadoop



Príkazy FS Shell:

Príkaz Hadoop fs spustí bežného klienta užívateľa súborového systému, ktorý interaguje so súborovým systémom MapR (MapR-FS).

  • Zobraziť zoznamy súborov:

Použitie: hadoop fs -ls hdfs: /

zlúčiť triediaci algoritmus c ++

  • Skontrolujte stav pamäte:

Použitie: hadoop fs -df hdfs: /

  • Počet adresárov, súborov a bajtov v zadanej ceste a vzore súboru:

Použitie: hadoop fs -count hdfs: /

  • Presunúť súbor z jedného umiestnenia do druhého:

Použitie: -mv

  • Skopírujte súbor zo zdroja do cieľa :

Použitie: -cp

  • Zmazať súbor:

Použitie: -rm

  • Vložte súbor z lokálneho súborového systému do distribuovaného súborového systému Hadoop:

Použitie: -výstup ...

  • Kopírovať súbor z lokálneho na HDFS:

Použitie: -copyFromLocal…

  • Zobraziť súbor v systéme distribuovaných súborov Hadoop :

Použitie: -kat

Príkazy pre správu:

  • Naformátujte účel :

Použitie: hadoop purpose -formát

koľko vyhradených slov v jave

  • Počiatočné sekundárne účely:

Použitie: hadoop secondrynamenode

  • Bežte naschvál :

Použitie: hadoop účel

  • Bež dátový uzol :

Použitie: hadoop datanode

príklad webdriveru uhorka java selén
  • Vyvažovanie klastrov :

Použitie: hadoop balancer

  • Spustiť uzol sledovania úloh MapReduce:

Použitie: sledovač úloh hadoop

  • Spustiť uzol sledovania úloh MapReduce:

Použitie: hadoop tasktracker

Máte na nás otázku? Uveďte ich prosím v sekcii komentárov a my sa vám ozveme.

Súvisiace príspevky:

Operátori v Apache Pig