Informasi Umum

Kode

113030193

Klasifikasi

005.1 - Computer programming

Jenis

Karya Ilmiah - Skripsi (S1) - Reference

Subjek

Rekayasa Perangkat Lunak

Dilihat

558 kali

Informasi Lainnya

Abstraksi

ABSTRAKSI: Permasalahan kelas imbalance merupakan permasalahan dimana terjadi ketimpangan pada persebaran data yang signifikan; dimana kelas yang satu memiliki jumlah data yang sangat banyak (mayoritas), sedangkan kelas lainnya memiliki jumlah data yang sangat sedikit (minoritas). Pada pengklasifikasian biasa, kelas minoritas tersebut tidak dapat terprediksi; karena bila jumlah data pada satu kelas sangat kecil, kelas tersebut akan langsung diprediksi sebagai kelas mayoritas. Terdapat beberapa cara untuk menangani permasalahan ini; dan boosting adalah salah satu cara penanganannya. Di dalam boosting, diperkenalkan adanya iterasi. Dalam tiap iterasi learning-nya, dibangun model hasil prediksi data latih dan kemudian disampel ulang untuk masuk pada iterasi berikutnya. Pada umumnya, hal ini akan meningkatkan tingkat keakurasian dalam pengklasifikasian. Algoritma boosting yang dianalisa dalam Tugas Akhir ini adalah AdaBoost, MultiBoost, LogitBoost, RareBoost-1, AdaC1, AdaC2, dan AdaC3. Masing-masing algoritma tersebut diujikan ke dalam dua jenis dataset, yaitu dataset tanpa noise dan dataset dengan noise. Hasil yang didapatkan menunjukkan bahwa algoritma boosting mampu memperbaiki tingkat keakurasian dari base classifier baik jika pada data terdapat noise ataupun tidak.Kata Kunci : imbalance, boosting, AdaBoost, MultiBoost, LogitBoost, RareBoost-1, AdaC1, AdaC2, AdaC3.ABSTRACT: Class imbalance problem is a problem where the data distribution is very unbalance. The data of one class has significantly a lot more in quantity (majority class) if compare to another class (minority class). In general classification, this minority class can not be classified correctly; because, if the number of instances of this minority class is too few, they are often will be directly predicted to be the data of the majority class. There are several ways to handle this problem; and boosting is one of those solutions. There is a feature in boosting which is called iteration. By using this iteration in the learning process, a model will be built from certain training set and then the data will be resampled to be used in the next iteration. Generally, those iterations will improve the accuracy of the classification. The boosting algorithms which are used in this undergraduate thesis are AdaBoost, MultiBoost, LogitBoost, RareBoost-1, AdaC1, AdaC2, and AdaC3. Each of these algorithms will be tested into two kind of datasets. One of them is a dataset without noise, and another is a dataset with noise. The results show that these boosting algorithms can improve the accuracy of the base classifier, regardless there are noises or not.Keyword: imbalance, boosting, AdaBoost, MultiBoost, LogitBoost, RareBoost-1, AdaC1, AdaC2, AdaC3.

Koleksi & Sirkulasi

Tersedia 1 dari total 1 Koleksi

Anda harus log in untuk mengakses flippingbook

Pengarang

Nama Arie Yanuar
Jenis Perorangan
Penyunting M. Arif Bijaksana, Rimba Widhiana Ciptasari
Penerjemah

Penerbit

Nama Universitas Telkom
Kota Bandung
Tahun 2009

Sirkulasi

Harga sewa IDR 0,00
Denda harian IDR 0,00
Jenis Non-Sirkulasi