ABSTRAKSI: Klasifikasi teks adalah salah satu permasalahan dalam text mining. Banyak metode yang dapat digunakan untuk menyelesaikan masalah tersebut. Salah satu metode klasifikasi adalah Weight Adjusted K-Nearest Neighbor(WAKNN). Metode ini adalah metode yang didasarkan pada K-Nearest Neighbor yang merupakan salah satu algoritma learning yang sangat efektif untuk berbagai domain permasalahan. Namun, K-Nearest Neighbor dianggap kurang efektif dalam pengukuran similarity/kemiripan sifat antara satu dokumen dengan dokumen yang lainnya karena memakai semua term yang terdapat dalam dokumen tersebut baik penting maupun tidak. Sedangkan pada Weigth Adjusted K-Nearest Neighbor akan menghitung serta mengevaluasi bobot kata dari setiap dokumen untuk menentukan kata-kata penting dari suatu kelas sehingga pada proses klasifikasi, setiap dokumen akan dibandingkan antara satu dengan yang lainnya sesuai dengan kata-kata penting yang dimilikinya. Pada tugas akhir ini, akan dicoba untuk mengklasifikasikan teks berita berbahasa Indonesia dengan menggunakan Weigth Adjusted K-Nearest Neighbor. Parameter yang akan diuji adalah precision, recall, dan f-measure. Berdasarkan hasil pengujian, WAKNN terbukti menghasilkan tingkat akurasi yang lebih baik daripada KNN
Kata Kunci : Klasifikasi teks berita, Weigth Adjusted K-Nearest Neighbor, K-Nearest NeighborABSTRACT: Text classification is one of problems in text mining. Many methods that can be used to solve this problem. One of those methods is Weight Adjusted K-Nearest Neighbor(WAKNN). This method is based on the K-Nearest Neighbor classification paradigm which is proved very effective for many problems. But, K-Nearest Neighbor seems to be less effective in similarity measurement because it uses all terms in a document without consider the importances of those terms. Whereas in Weight Adjusted K-Nearest Neighbor, it will count and evaluate the weight from each term in a document for choosing some important terms from each class so that in the classification process, one document will be compared to another document by using their important terms. In this final project, it will try to classify news text in Bahasa Indonesia by using Weight Adjusted K-Nearest Neighbor. Some parameters that will be tested are precision, recall, and f-measure. Refers to the result of the experiment, WAKNN is proved giving better accuracy than KNN.
Keyword: Text classification, Weigth Adjusted k-Nearest Neighbor, K-Nearest Neighbor