Mengukur Akurasi – Confusion Matrix

Untuk proyeksi yang prediksinya berupa data kontinyu, kebanyakan menggunakan Mean Absolute Percent Error (MAPE). Untuk mengukur hasil uji yang berisi True dan False Positive atau Negative diperlukan matriks Receiver Operating Characteristic (ROC). Tetapi jika datanya diskrit atau berupa kelas, misalnya baik, cukup, kurang, maka biasanya peneliti menggunakan matriks confusion.

Dasar-Dasar Matriks Confusion

Paling mudah adalah dengan menggunakan data dua kategori: Positif dan Negatif. Seperti tampak pada gambar di bawah ini, Lihat rujukannya.

Secara logika, akurat bila aktualnya a dan diprediksi a atau aktualnya d dan diprediksi tepat d. Namun sebelumnya perlu mengetahui istilah recall dan precision.

Recall. Dikenal dengan istilah true positive rate (TP) proporsi kasus positif (d) yang secara akutal teridentifikasi (c dan d). Jadi rumusnya:

Precision. Adalah proporsi prediksi positif yang tepat dengan seluruh prediksi positif (b dan d). Rumusnya:

False Positif (FP). Istilah ini banyak digunakan untuk pengecekan biometriks, seperti sidik jari. Nilai ini besar jika banyak sidik jari yang harusnya dimiliki orang lain tetepi diakui oleh yang diuji. Rumusnya adalah perbandingan atas kesalahan yang harusnya negatif (milik orang lain) tetapi diaku miliknya (b):

False Negatif (FN). Adalah kebalikan dari false positif.

True Negatif (TN). Mirip recall tetapi yang dibandingkan adalah negatifnya.

Sekian postingan tentang matiks confusion, mudah-mudahan bisa menjadi sitasi cepat jika lupa istilah-istilah di atas. Postingan berikutnya akan dibahas penggunaannya dalam Matlab.

Iklan