Pemanfaatan Hugging Face untuk analisis sentimen dimulai dengan proses pendaftaran guna mengakses fasilitas yang tersedia. Setelah itu, dilakukan instalasi library Transformers di Google Colab, diikuti dengan impor modul penting seperti AutoTokenizer dan AutoModel. Inferensi dilakukan dengan mengecek sentimen dari sebuah kalimat yang dimasukkan, namun hasil awal menunjukkan skor positif yang terlalu tinggi, mengindikasikan kurangnya akurasi pada model yang digunakan.
Untuk meningkatkan akurasi, model kemudian diganti dengan yang lebih sesuai, seperti IndoBERT. Model ini diunduh dan dijalankan menggunakan tokenizer serta pipeline yang tersedia. Dengan memanfaatkan BERT multilingual yang telah dilatih untuk memahami berbagai bahasa, termasuk bahasa Indonesia, analisis sentimen menunjukkan hasil yang lebih akurat. Sentimen positif dan negatif dapat diidentifikasi dengan lebih baik dibandingkan model sebelumnya.
Pengujian lebih lanjut dilakukan dengan beberapa contoh kalimat untuk memastikan keakuratan model. Input dengan sentimen negatif diuji untuk melihat apakah model dapat mengenalinya dengan benar. Hasilnya menunjukkan peningkatan akurasi, di mana skor yang semakin mendekati lima menunjukkan sentimen yang semakin positif. Dengan pendekatan ini, Hugging Face berhasil dimanfaatkan untuk analisis sentimen menggunakan Transformers, memberikan hasil yang lebih andal untuk pemrosesan bahasa alami. Lihat link Colab berikut.