Halusinasi AI yang Berbahaya

Artikel berita ini [Url] menunjukan bahwa sebagai seorang dosen dan peneliti perlu mewaspadai diri ketika menjadi anggota penulis (co-author). Kalau untuk rekan biasanya kita sudah percaya dan mudah memverifikasinya, namun yang perlu diperhatikan adalah mahasiswa bimbingan.

Salah satu hal detil yang terkadang terlewati adalah artikel referensi yang jadi rujukan. Kasus diatas menunjukan hal sepele, bisa berakibat fatal. Ternyata referensi yang ditunjukan AI adalah fiktif atau istilahnya halusinasi (hallucination), karakteristik generatif dari Large Language Models (LLMs). Sebenarnya mudah, tinggal searching saja referensinya di google lalu kalau asli dan bukan fiktif, biasanya akan muncul dan bisa kita lihat DOI dan reputasi jurnalnya. Namun karena beban yang besar (jika jumlah mahasiswa banyak), terkadang si dosen tidak sempat mengeceknya.

Terkadang penulisan jurnal memiliki penulis yang banyak, apalagi jurnal internasional. Masa sih, tidak ada satu pun co-author yang mengecek referensinya, apakah dibuat dengan AI atau tidak. Memang, dengan menarik artikel dari jurnal sudah beres, tetapi untuk kampus bereputasi (kasus di atas tingkat 11 dunia) memaksa dosen yang sekaligus dekan di satu departemen harus mengundurkan diri. Ibarat motor balap, AI (chatgpt, gemini, meta, dll) jika dikendarai oleh orang yang naik sepeda aja susah, bisa berakibat fatal.