Isi kandungan:
Data besar, nama menarik untuk jumlah besar data berstruktur, tidak berstruktur atau separa berstruktur, amat sukar untuk menangkap, menyimpan, mengurus, berkongsi, menganalisis dan memvisualisasikan, sekurang-kurangnya menggunakan pangkalan data tradisional dan aplikasi perisian. Itulah sebabnya teknologi data besar mempunyai potensi untuk mengurus dan memproses jumlah besar data secara berkesan dan cekap. Dan itu Apache Hadoop yang menyediakan rangka kerja dan teknologi yang berkaitan untuk memproses set data besar di seluruh kelompok komputer dengan cara yang diedarkan. Oleh itu, untuk benar-benar memahami data besar, anda perlu memahami sedikit tentang Hadoop. Di sini kita akan melihat syarat-syarat teratas yang anda dengar mengenai Hadoop - dan apa yang mereka maksudkan.
Webinar: Big Iron, Bertemu Big Data: Membebaskan Data Mainframe dengan Hadoop & Spark Daftar disini |
Tetapi Pertama, Lihatlah Bagaimana Kerja Hadoop
Sebelum masuk ke sistem eko Hadoop, anda perlu memahami dua perkara asas dengan jelas. Yang pertama ialah bagaimana fail disimpan dalam Hadoop; yang kedua adalah bagaimana data yang disimpan diproses. Semua teknologi yang berkaitan dengan Hadoop terutamanya berfungsi di kedua-dua bidang ini dan menjadikannya lebih mesra pengguna. (Dapatkan asas bagaimana Hadoop berfungsi dalam Bagaimana Hadoop Membantu Menyelesaikan Masalah Data Besar.)
Sekarang, pada syarat-syarat.