Perintah Shell Hadoop Berguna



Blog ini menerangkan tentang semua Perintah Shell Hadoop yang bermanfaat. Bersama dengan Hadoop Shell Commands, ia juga mempunyai tangkapan layar untuk memudahkan pembelajaran. Teruskan membaca!

HDFS bermaksud ‘ H pujuk D diagihkan F dengan S ystem ’. HDFS adalah sub-projek dari projek Apache Hadoop. Projek Apache Software Foundation ini dirancang untuk menyediakan sistem fail toleransi kesalahan yang dirancang untuk dijalankan pada perkakasan komoditi. HDFS diakses melalui sekumpulan perintah shell yang akan dibincangkan dalam catatan ini.





Catatan ringkas sebelum memulakan: Semua arahan Hadoop Shell dipanggil oleh skrip bin / hadoop.

Perintah Pengguna:

  • Jalankan sistem fail DFS:

Penggunaan: hadoop fsck - /



Sistem fail Run-DFS (1)

  • C heck versi Hadoop :

Penggunaan: Versi Hadoop



Perintah Shell Shell:

Perintah Hadoop fs menjalankan klien pengguna sistem fail generik yang berinteraksi dengan sistem fail MapR (MapR-FS).

  • Lihat senarai fail:

Penggunaan: hadoop fs -ls hdfs: /

susun susun dalam c ++

  • Periksa status memori:

Penggunaan: hadoop fs -df hdfs: /

  • Kiraan Direktori, Fail dan Byte dalam jalur dan corak fail yang ditentukan:

Penggunaan: hadoop fs -count hdfs: /

  • Pindahkan fail dari satu lokasi ke lokasi lain:

Penggunaan: -mv

  • Salin fail dari sumber ke destinasi :

Penggunaan: -cp

  • Padam fail:

Penggunaan: -rm

  • Masukkan fail dari sistem fail Tempatan ke Sistem Fail Terdistribusi Hadoop:

Penggunaan: -put ...

  • Salin fail dari Local ke HDFS:

Penggunaan: -copyFromLocal…

  • Lihat fail dalam sistem Fail Terdistribusi Hadoop :

Penggunaan: -cat

Perintah Pentadbiran:

  • Format tujuan :

Penggunaan: hadoop tujuan-format

cara menukar double menjadi integer di java

  • Memulakan tujuan Menengah:

Penggunaan: hadoop secondrynamenode

  • Berlari dengan sengaja :

Penggunaan: tujuan hadoop

bagaimana menjadi pemaju tableau
  • Lari nod data :

Penggunaan: hadoop datanode

  • Pengimbangan Kluster :

Penggunaan: pengimbang hadoop

  • Jalankan simpul penjejak kerja MapReduce:

Penggunaan: tracker pekerjaan hadoop

  • Jalankan nod pelacak tugas MapReduce:

Penggunaan: tasktracker hadoop

Ada soalan untuk kami? Sila sebutkan di bahagian komen dan kami akan menghubungi anda.

Catatan berkaitan:

Pengendali dalam Apache Pig