Abstrak
Hadoop adalah platform komputer terdistribusi berbasis open source dari Apache. Hadoop pertamakali dikembangkan oleh Doug Cutting setelah meniru pengelolaan data secara terdistribusi oleh Google File System (GFS) & pemrosesan komputasi terdistribusi diatasnya. Hadoop banyak dieksploitasi untuk mengolah berbagai varian data, umumnya data tak terstruktur seperti log dari data mesin, multimedia seperti citra satelit ataupun rekaman suara, hingga data web seperti media sosial– dalam ukuran volume yang sangat masif, yang dikenal sebagai Big Data.dengan meniru GFS, Cutting mengembangkan HDFS (Hadoop Distributed File System) dan framework komputasi terdistribusi bernama MapReduce. Map Reduce adalah komponen service kunci yang paling sering dikaitkan dengan istilah “Hadoop”, berfungsi untuk melakukan proses komputasi Big Data secara paralel dan terdistribusi.
Capacity Scheduling adalah job scheduler pada Hadoop job scheduler yang berkarakteristik memberikan resource guarantee kepada antrian yang masuk terhadap queue yag telah didefinisikan yang mengakibatkan bisa ditekannya nilai Fail pada job yang dimasukkan pada Hadoop job scheduler, karena job yang masuk pada antrian dibagi menjadi beberapa antrian maka performansi Response Time dan Job Troughput menurun dibandingkan dengan algoritma FIFO.
Kata kunci : Hadoop, data, multi-user, Capacity Scheduling, FIFO