ABSTRAKSI: Salah satu masalah utama dalam monitoring Elektrokardiogram (EKG)
adalah kompresi data EKG. Setiap harinya proses komputerisasi sinyal data EKG
menghasilkan data yang berukuran 600 Mbit, sehingga sulit untuk disimpan dan
ditransmisikan. Dalam monitoring dibutuhkan sebuah algoritma untuk
mengurangi ukuran data yang akan disimpan dengan tetap mempertahankan atau
tidak mengurangi content atau isi dari informasi struktur sinyal. Berbagai
algoritma ditawarkan dengan berbagai macam kelebihan dan kelemahannya. Pada
beberapa aplikasi, proses kompresi/pengurangan ukuran dan proses
rekonstruksinya membutuhkan performansi yang real time.
Pada tugas akhir ini disimulasikan beberapa algoritma kompresi antara
lain: TP, AZTEC, FAN, SAPA, dan RLE. Dalam penelitian kompresi sinyal EKG
ini ada 3 sinyal kondisi jantung untuk digunakan sebagai input. 3 sinyal tersebut
antara lain: atrial fibrillation, congestive heart failure, dan normal sinus rhythm
dengan frekuensi sampling 250 Hz, semua panjang input 1000 sampel.
Menganalisis perbandingan besar dari Compression Ratio dan Cross Correlation
yang dihasilkan dari 5 algoritma yang berbeda.
Dari hasil pengujian simulasi diperoleh hasil akhir berupa nilai
Compression Ratio dan Cross Correlation dari masing-masing algoritma.
Algoritma yang paling optimal dari hasil pengujian adalah Algoritma FAN
dengan nilai Compression Ratio dan Cross Correlation berubah-ubah. Pada
bagian proses kompresi yang dilakukan pada kondisi normal sinus rhythm
dihasilkan nilai Compression Ratio rata-rata sebesar 2.50076 dan Cross
Correlation 20.9959 %, pada bagian proses kompresi yang dilakukan pada
kondisi congestive heart failure dihasilkan nilai Compression Ratio rata-rata
sebesar 1.95755 dan Cross Correlation 45.2443 %, dan pada bagian proses
kompresi yang dilakukan pada kondisi atrial fibrillation dihasilkan nilai
Compression Ratio rata-rata sebesar 2.12412 dan Cross Correlation 40.9267 %.Kata Kunci : -ABSTRACT: One major problem in Elektrokardiogram (EKG) monitoring is data
compression. EKG signal computerization process yield about 600 Mbit of data
every day, thus difficult to be kept and transmitted. Monitoring process require an
algorithm for lessening data size which will be kept to maintain signal structure
information content. There are various algorithms with its advantages and
disadvantages. In some applications, compression and reconstruction process
require a real time performance.
At this final project some compression algorithms were simulated, i.e.: TP,
AZTEC, FAN, SAPA, and RLE. In this research of EKG signal compression, 3
signal of heart condition used as input were: atrial fibrillation, congestive heart
failure, and normal sinus rhythm with sampling frequency of 250 Hertz, all inputs
lengths of 1000 sample. The output target has high Compression Ratio (CR) and
low Cross Correlation (CC).
The results of the simulation were Compression Ratio and Cross
Correlation value from each algorithm. The optimum algorithm from examination
result was FAN algorithm with Compression Ratio and Cross Correlation values
fluctuate. The compression process which done at normal sinus rhythm conditions
yield average Compression Ratio value equal to 2.50076 dan Cross Correlation
20.9959 %, The compression process which done at congestive heart failure
conditions yield average Compression Ratio value equal to 1.95755 dan Cross
Correlation 45.2443 %, and The compression process which done at atrial
fibrillation conditions yield average Compression Ratio value equal to 2.12412
dan Cross Correlation 40.9267 %.Keyword: -