Isi kandungan:
Definisi - Apakah maksud Hadoop Common?
Hadoop Common merujuk kepada pengumpulan utiliti dan perpustakaan biasa yang menyokong modul Hadoop yang lain. Ini merupakan bahagian penting atau modul Rangka Kerja Apache Hadoop, bersama dengan Sistem Fail Teragih Hadoop (HDFS), Hadoop YARN dan Hadoop MapReduce. Sama seperti semua modul lain, Hadoop Common menganggap bahawa kegagalan perkakasan adalah biasa dan ini harus ditangani secara automatik dalam perisian oleh Rangka Kerja Hadoop.
Hadoop Common juga dikenali sebagai Hadoop Core.
Techopedia menerangkan Hadoop Common
Pakej Hadoop Common dianggap sebagai asas / inti dari kerangka kerja kerana menyediakan layanan penting dan proses dasar seperti abstraksi sistem operasi dasar dan sistem filenya. Hadoop Common juga mengandungi fail Arkib Java (JAR) yang diperlukan dan skrip yang diperlukan untuk memulakan Hadoop. Pakej Hadoop Common juga menyediakan kod sumber dan dokumentasi, serta seksyen sumbangan yang merangkumi projek yang berbeza dari Komuniti Hadoop.