Neural Networks (NN) merupakan machine learning yang sudah dikenal lama. Pasang surut metode ini dapat dijumpai dari rekam jejak penelitiannya. Dari problem utama exclusive or (XOR) yang tidak dapat dikerjakan hingga ditemukannya backpropagation membuat metode ini timbul tenggelam. Termasuk kisah para pelopor bidang ini, dari yang sempat kuliah lagi di kedokteran hingga ada yang harus cuti karena tidak ada uang kuliah. Maklum bidang yang waktu itu masih baru dan belum jelas apakah bisa diselesaikan atau tidak.
Walter Harry Pitts & Jerome Lettvin, Cognitive Science, Source: Link.
Peran Google
Di tahun 2000-an ketika menyusun tesis, laptop yang saya gunakan untuk memproses NN sempat “hang” karen mengelola citra tanda tangan yang berukuran besar. Beberapa peneliti waktu itu, terutama yang dari Indonesia, mengurangi resolusi menjadi sangat kecil, mirip dengan seven segment agar bisa diproses. Terpaksa waktu itu saya menggunakan prinsip encoder agar tidak membuat vektor yang panjang, jadi prinsipnya hanya pencocokan pola, bukan identifikasi pola. Toh hanya digunakan untuk sistem absensi.
Ternyata perkembangan NN, khususnya untuk menangani citra berukuran besar sangat pesat, terutama ditemukannya CNN oleh Yann Lecun. Prinsip konvolusi dibantu dengan pooling mampu menurunkan resolusi citra hingga berukuran kecil tanpa menghilangkan “ciri” lewat preprocessing yang terintegrasi dengan NN. Di sinilah konsep DL muncul, yang di awal-awal sering disebut Deep Neural Network karena memiliki layer dan neuron yang banyak dan dalam.
Tokoh DL: Yann Lecun (Fb), Geoffrey Hinton (Google), Yoshua Bengio (Univ Montreal), Source: Link.
Peran utama Google cukup besar dengan menyediakan konsep tensorflow, serta menyediakan Google Colab untuk dipakai bersama. Hal ini tak luput dari perkembangan hardware yang kian cepat dan murah, terutama memori dan Graphic Processing Unit (GPU) yang bekerja paralel, ditambah lagi Tensor Processing Unit (TPU) yang bekerja hingga level matriks. Saat ini DL mampu memproses citra dengan memasukan unsur waktu/temporal dengan Recurrent Neural Network (RNN) dengan salah satu andalannya Long Short Term Memory (LSTM).
Bagaimana Riset DL Untuk Pemula?
Problem yang muncul adalah bagaimana memulai riset di bidang yang sangat cepat perkembangannya. Beberapa metode seperti VGG, AlexNet, dll bahkan memiliki akurasi yang mendekati 100% sehingga pemula akan kesulitan jika ingin mengalahkan metode-metode tersebut, bisa-bisa kelamaan kuliah doktoralnya.
Untuk mahasiswa master sepertinya tidak ada masalah, karena dengan membandingkan beberapa metode DL untuk kasus terapan di domain tertentu, kemudian membahas mana yang cocok. Nah, mahasiswa doktoral harus menemukan kebaruan/novelty dar metode-metode tersebut. Agak sulit memang tetapi pilihan ada dua, fokus ke metode atau ke domain dimana metode tersebut dipakai. Untuk metode, jika sulit mengalahkan akurasi, bisa mencoba improve di sisi efisiensi, ringan, dan bisa diterapkan di alat-alat kecil (embed). Atau hibrid/menggabungkan dengan metode lain baik di core-nya atau di parameter tertentu, silahkan searching riset-riset terkini.
Untuk fokus ke domain, kita harus belajar penerapan DL, misalnya jika untuk kedokteran, mau tidak mau harus mempelajari bidang spesifik kedokteran tersebut. Misalnya DL untuk mendeteksi COVID lewat hembusan nafas yang di kita dikenal dengan GeNose. Untuk optimasi lahan, misalnya, kita harus mempelajari data spasial serta konsep-konsep Sistem Informasi Geografis.
Bahasa Pemrograman
Saat ini Python masih menjadi andalan untuk menerapkan DL. Banyak contoh-contoh program yang dishare oleh peneliti-peneliti, misalnya via Github. Ketik saja di Google dengan kata kunci: “Colab <metode>”, maka kita segera menemukan Share program Python metode yang dicari tersebut. Tentu saja untuk yang ingin menerapkan ke piranti mobile atau embed terpaksa harus belajar bahasa lain seperti C++ atau Java dan Android.
Berikut video Youtube contoh mempelajari DL, sekaligus bagaimana mengelola data via Google Drive yang efisien dan murah-meriah. Sekian semoga tertarik.