Selamat Datang AI

Beberapa film menunjukan dampak positif dan negatif dari penggunaan AI di dunia. Dari film ‘AI’ dengan tokoh utamanya robot anak, robocop robot polisi, hingga yang membahayakan seperti David dalam film “Prometheus” (diberi kemampuan berkehendak, akhirnya merusak satu planet, hingga berambisi menjadi tuhan).


Banyak yang mengkhawatirkan masuknya AI tanpa adanya batasan. Mungkin karena bisa dimanfaatkan untuk kejahatan, atau bisa merugikan di kemudian hari walau saat ini mungkin belum terasa dampaknya. Salah satu AI yang cukup mengganggu misalnya engine pada catur (www.lichess.org atau www.chess.com), membuat wasit membutuhkan alat bantu apakah seseorang menggunakan engine atau tidak, hingga perlu AI juga untuk mendeteksi pemain menggunakan engine atau tidak.

Yang saat ini heboh adalah chatgpt (https://chat.openai.com/chat) dengan kemampuan seperti google tapi mampu berkomunikasi layaknya manusia. Beberapa waktu yang lalu saya memiliki masalah (vektorisasi data NLP dengan TF-IDF yang keluarannya tidak sesuai dengan jumlah record). Dengan google saya perlu mencari kasus-kasus yang mirip, dan mentok ke problem-problem yang sering terjadi saja.

Uniknya ketika masih mentok, belum ada jawaban yang fix, dia bertanya “bisa mengirim sample kode?”. Nah ketika saya paste potongan kode ke chatgpt, makhluk buatan ini langsung menjelaskan detil disertai revisi kodenya dimana [‘text_column’] harus ditambahkan, tidak hanya transform(db_df).

Bahkan Scopus sendiri memasukan ChatGPT sebagai Co-Author artikel ilmiah. Hal ini menyamakan level AI layaknya Co-Author saat ini (manusia). Kita tunggu saja apakah ChatGPT bisa sebagai First Author, dari merancang riset, menulis, submit dan lain-lain.

Aplikasi ini juga mengancam pengajar (guru dan dosen) dalam proses pembelajaran, terutama dalam tugas dan ujian. Mesin-mesin plagiasi perlu mencari cara apakah suatu tulisan dibuat manusia ataukah engine AI. Di Perancis, aplikasi ini dianggap ‘high risk’ dan diband (Link).

Bagaimana jika seorang teroris membuat ChatGPT palsu kemudian secara diam-diam chat dengan anak-anak muda dan melakukan doktrinasi ke remaja-remaja yang masih labil yang tanpa sadar si remaja itu chat dengan manusia yang menyamar sebagai engine dan mengajarkan hal-hal berbahaya.

Selama idola, fans, role model masih manusia, entah itu atlit, artis, guru dan dosen, keberadaan kita masih dibutuhkan. Guru dan dosen pun jadi sadar bahwa tidak hanya transfer ilmu dan skill saja yang diiperoleh dari institusi pendidikan melainkan akhlak, teladan yang baik, hingga bertambahnya network/jaringan/circle. Sekian, semoga bisa menginspirasi.

Menginstall Composer Untuk Aplikasi-Aplikasi Framework PHP

Postingan yang lalu membahas menjalankan aplikasi yang telah dibuat dengan framework Laravel. Diperlukan aplikasi Composer yaitu sebuah tool dependency manager untuk bahasa pemrograman PHP. Dengan menggunakan Composer, kita dapat mengelola dan mengatur dependensi (library atau package) yang diperlukan oleh sebuah proyek PHP.

Secara lebih spesifik, Composer memungkinkan kita untuk:

  • Menginstal dan mengupdate library atau package PHP dengan mudah.
  • Mengelola versi dari library atau package yang digunakan pada proyek kita.
  • Menyediakan autoload sehingga kita tidak perlu lagi melakukan require manual pada setiap file.

Silahkan buka situs resminya, lalu download Composer-Setup.exe. Setelah itu jalankan saja.

Pilih saja install for all users untuk mudahnya.

Di sini kita diminta mengarahkan letak file php.exe yang kita gunakan.

Untuk XAMPP biasanya terletak di folder XAMPP/php.exe. Atau jika ingin langsung ke arah file bisa menggunakan Config pada XAMPP Control Panel yang akan mengarahkan ke folder apache.

Atau bisa juga dengan searching langsung saja. Pilih saja file php.exe hasil pencarian.

Proses selanjutnya adalah instalasi. Jika tidak punya Proxy, lewatkan saja dengan menekan tombol Next.

Sebelumnya, jika kita ingin menambah Path bisa dengan men-ceklis pada pilihan path. Tampak seperti gambar di bawah informasi letak php, versinya, serta lokasi Path. Jika sudah yakin, tekan saja Install untuk melanjutkan proses instalasi.

Jika sudah, tunggu hingga selesai. Selamat, kita telah berhasil menginstall composer. Untuk penggunaannya silahkan lihat post yang lalu untuk menjalankan aplikasi Laravel.

Memasang Aplikasi Web Yang Dibuat dengan Framework LARAVEL

Terkadang kita diminta menginstal/memasang aplikasi dengan framework laravel yang telah dibuat programer. Ikuti langkah-langkah berikut ini:

1. Unduh aplikasi yang telah dibuat programmer, biasanya dari Github atau Google Drive.

2. Ekstrak jika masih berformat ZIP.

3. Pada lokasi folder, klik kanan dan masuk ke terminal

4. Ketik: composer update pada terminal, tunggu beberapa saat

5. Buka folder aplikasi laravel, disarankan menggunakan sublime text atau visual studio code untuk mempermudah beralih antar file. Jika sudah ada file .env pekerjaan lebih mudah, anggap saja kita belum memiliki. Lakukan rename pada file .env.example menjadi .env.

6. Berikutnya adalah mengisi APP KEY pada file .env. Ketik: php artisan key:generate pada terminal. Pastikan muncul pesan: Application key set successfully. Pastikan APP KEY sudah terisi.

7. Lihat kembali gambar di atas pada bagian DB_. Isi host, port, nama database dan root. Jika belum ingin dipassword, biarkan saja password kosong.

8. Masuk ke phpmyadmin pada browser untuk membuat database seperti pada file .env.

9. Selanjutnya adalah migrasi data dengan mengetik pada terminal: php artisan migrate. Tunggu hingga proses migrasi selesai.

10. Cek di phpmyadmin, pastikan muncul tabel-tabel yang terpasang.

11. Terakhir, jalankan server laravel dengan mengetik: php artisan serve. Pastikan server hidup dan buka browser dengan alamat: http://127.0.0.1:8000. Selamat, kita telah berhasil memasang sebuah aplikasi yang dibuat dengan framework LARAVEL.

Mudahnya Membandingkan Metode LVQ, Naïve Bayes, SVM, dan Random Forest

Saat ini metode-metode machine learning sepertinya sudah established sehingga pengguna tinggal memilih metode apa yang cocok. Beberapa jurnal juga sudah menyediakan laporan tentang kinerja metode-metode yang ada termasuk bagaimana meng-improve nya.

Kalau dulu kita harus membuat kode, menyiapkan data latih, validasi, dan testing, sekarang data sudah tersedia, misal daya IRIS pada Python. Bagaimana dengan metode? Seperti postingan yang lalu, kita bisa gunakan Chat GPT.

A. LVQ

Linear Vector Quantization (LVQ) adalah salah satu jenis jaringan saraf buatan yang digunakan untuk klasifikasi. LVQ digunakan untuk mengklasifikasikan suatu data ke dalam kategori yang telah ditentukan sebelumnya. Masukan kata kunci: “bagaimana membuat lvq dengan contoh data iris python?”.

Kopi kode dengan mengklik pojok kanan atas. Lalu paste di Visual Studio Code (saya sarankan menggunakan editor praktis dan gratis ini).

Jika ada pesan No Module … berarti harus instal library dengan PIP. Lihat google bagaimana menginstal library tersebut. Setelah selesai, run visual studio code Anda. Oiya, instal dulu Python di visual studio code, buka terminal dan lihat hasil runnya.

Akurasi LVQ untuk dataset IRIS ternyata 86.67%. Berikutnya kita coba Naïve Bayes.

B. Naïve Bayes

Masukan kata kunci: “bagaimana klasifikasi naive bayes data iris python?” seperti sebelumnya, dengan mengganti LVQ dengan Naïve Bayes.

Algoritma Naive Bayes bekerja dengan menghitung probabilitas kelas target dari suatu data berdasarkan probabilitas masing-masing fitur yang terdapat pada data tersebut. Algoritma ini memiliki tiga jenis dasar yaitu Naive Bayes Gaussian (untuk data yang berdistribusi normal), Naive Bayes Multinomial (untuk data yang terdiri dari frekuensi hitung), dan Naive Bayes Bernoulli (untuk data biner).

Dengan cara yang sama, copas kode masukan ke Visual Studio Code, jalankan dan ternyata diperoleh akurasi di atas LVQ, yakni 96.67%.

C. Support Vector Machine (SVM)

SVM sangat terkenal karena keampuhannya, namun kurang disukai karena proses yang lambat. Support Vector Machine (SVM) adalah salah satu algoritma pembelajaran mesin yang digunakan untuk klasifikasi dan regresi. SVM bekerja dengan membuat sebuah hyperplane (bidang pemisah) yang dapat membedakan antara kelas-kelas data pada sebuah ruang fitur (feature space).

SVM bertujuan untuk mencari hyperplane yang optimal, yaitu hyperplane yang memberikan margin terbesar (jarak terbesar antara hyperplane dan data dari setiap kelas) antara kelas-kelas data. Margin adalah jarak antara dua hyperplane yang sejajar dan melewati data terdekat dari masing-masing kelas. Dalam hal ini, SVM mengambil data yang berada di dekat hyperplane untuk membuat keputusan kelas.

Ternyata akurasinya cukup ampuh, 100%. Jauh di atas Naïve Bayes, apalagi LVQ.

D. Random Forest (RF)

Ada satu model machine learning klasik yaitu Random Forest (RF) yang cukup terkenal. Random Forest (hutan acak) adalah salah satu algoritma pembelajaran mesin yang populer untuk masalah klasifikasi dan regresi. Algoritma ini menggabungkan konsep dari dua teknik pembelajaran mesin, yaitu pohon keputusan (decision tree) dan teknik bootstrap aggregating atau bagging.

Dalam algoritma Random Forest, beberapa pohon keputusan dibangun secara acak dengan menggunakan subset acak dari fitur-fitur dataset. Hal ini dilakukan untuk menghindari overfitting, yang dapat terjadi ketika sebuah pohon keputusan dibangun pada semua fitur.

Metode ini ternyata cukup akurat, sama dengan SVM, 100% akurat.

Bagaimana untuk publikasi jurnal? Tentu saja saat ini jurnal membutuhkan novelty atau kontribusi. Jika tulisan ini akan dipublish di jurnal internasional, pasti ditolak karena tidak ada kebaruan baik dari metode, maupun dataset implementasi.

Improve Metode vs Domain Implementation

Bagi peneliti ilmu komputer biasanya menemukan metode yang lebih baik dari yang ada sekarang, baik dengan murni baru atau hybrid/penggabungan dengan metode yang ada agar dihasilkan metode baru yang lebih cepat dan akurat.

Terkadang bidang tertentu, seperti kedokteran, SIG, keuangan dan lain-lain dapat menerapkan metode yang telah ada. Hal ini terkadang dianggap kontribusi, terutama pada bidang-bidang yang memang jarang disentuh Machine Learning.

Ditolak atau tidaknya naskah terkadang dilihat dari hal tersebut, jika fokus ke perbaikan metode, maka jika tidak ada model usulan, pasti ditolak. Tapi jika fokus ke domain implementation, jika pada pembahasan hanya membahas akurasi model maka dipastikan naskah tidak tepat, karena seharusnya pembahasan fokus ke domain implementation (impak terhadap domain baik dari sisi sistem atau kebijakan). Sekian semoga bermanfaat.

Tata Ruang Online Indonesia

Dinas Tata Ruang adalah sebuah lembaga pemerintah di Indonesia yang bertanggung jawab dalam pengelolaan tata ruang sebuah kota atau daerah. Tugas dari dinas ini meliputi perencanaan, pengaturan, pengawasan, dan pengendalian tata ruang pada wilayah kerjanya.

Tugas dari Dinas Tata Ruang sangat penting dalam memastikan bahwa pengembangan wilayah kota atau daerah dapat berlangsung secara teratur, efektif, dan efisien, sehingga dapat memberikan manfaat yang optimal bagi masyarakat dan lingkungan sekitarnya.

Gistaru Indonesia

Gistaru Indonesia (https://www.tataruang.id/gistaru/) adalah sebuah situs web yang menyediakan berbagai informasi tentang perencanaan tata ruang dan wilayah di Indonesia. Situs ini dikelola oleh Direktorat Jenderal Tata Ruang Kementerian Pekerjaan Umum dan Perumahan Rakyat Republik Indonesia.

Pada situs Gistaru Indonesia, pengguna dapat menemukan berbagai informasi mengenai peraturan perencanaan tata ruang, regulasi tata ruang, perencanaan kota dan daerah, serta berbagai informasi terkait tata ruang dan wilayah di Indonesia. Situs ini juga menyediakan akses ke berbagai dokumen perencanaan tata ruang, seperti Rencana Tata Ruang Wilayah (RTRW) dan Rencana Detail Tata Ruang (RDTR) yang tersedia di berbagai kota dan daerah di Indonesia.

Mengakses Gistaru Indonesia

Setelah menceklis syarat dan ketentuan, arahkan saja ke lokasi wilayah yang ingin kita lihat peraturan tata ruangnya. Lakukan zoom beberapa kali hingga sesuai dengan resolusi yang diinginkan, misalnya untuk level kabupaten.

Tekan layer list di bilah kiri gistaru untuk membuka informasi layer yang akan ditampilkan. Tekan Add data+ untuk meminta gistaru menampilkan data tata ruang. Ada tiga pilihan:

  • Kategori RTR
  • Jenis RTR dan
  • Wilayah

Pilih saja misalnya kategori DAERAH, jenis RTR RTRW Kabupaten/Kota dan pilih wilayah Provinsi Jawa Barat. Lanjutkan dengan menekan Konfirmasi. Ada dua pilihan lagi yang muncul:

  • RTRW KAB/KOTA PROVINSI JAWA BARAT POLA RUANG, dan
  • RTRW KAB/KOTA PROVINSI JAWA BARAT STRUKTUR RUANG

Misal kita pilih yang pertama. Maka wilayah Jawa Barat akan muncul RTRW-nya, misal gambar berikut yang menunjukan wilayah Kabupaten Bekasi, Jawa Barat.

Arahkan mouse ke warna tertentu, nanti gistaru akan memberi informasi jenis penataan ruangnya. Sangat bermanfaat bagi investor di seluruh dunia yang ingin mengetahui tata ruang di Indonesia. Sekian, semoga bermanfaat.

Belajar dengan Mudah Lewat Chat GPT

Bagi para dosen dan guru pasti pernah merasakan adanya perubahan dalam proses belajar mengajar. Kalau dulu pengajar menjadi pusat/central dari ilmu pengetahuan, saat ini sudah tidak lagi. Banyak media yang menjadi rujukan, bahkan dengan kualitas yang lebih baik. Tinggal searching di Google, jawaban tersedia. Apakah peran guru dan dosen tergantikan? Ternyata peran sebagai role model, sumber inspirasi, motivator, dan aspek lain yang tidak dapat digantikan dengan mesin masih dibutuhkan.

Chat GPT merupakan salah satu sumber belajar besutan Microsoft yang siap bertarung dengan Google yang merajai mesin pencarian. Chat GPT berfungsi layaknya guru, teman belajar, atau sejenisnya sehingga terkesan mirip berkomunikasi dengan manusia. Caranya mudah, akses saja situs resminya: https://chat.openai.com/. Lakukan sign up dengan dua pilihan, daftar atau sign up with email, pilihan favorit saya adalah with Google Email. Setelah diminta mengisi nama dan memasukan nomor telepon untuk dikirimi kode (lewat Whatsapp jika punya atau SMS) kita tinggal try saja.

Misal kita akan belajar bagaimana mengkoneksikan python dengan database mysql kita. Ketik saja di kolom chating dengan kalimat manusiawi, “Bagaimana menghubungkan python dengan database mysql?”. Jawaban langsung mengalir.

Ternyata kode program juga ditampilkan sehingga kita bisa langsung copas. Chat GPT juga bisa jadi rekan virtual kita untuk memilih metode apa yang kita gunakan, misalnya berkaitan dengan kasus contoh di atas, yaitu mengakses Mysql dengan python.

Nah, jelas kan? Di sini yang saya gunakan adalah SQL Alchemy karena berkonsep Object Relational Mapping (ORM), khususnya yang menggunakan PHP yang terintegrasi dengan Python, berbeda dengan Django yang memang basisnya murni Python.

Oiya, untuk anak-anak kita bisa juga kok menanyakan apapun, yang berkaitan dengan pelajaran ke Chat GPT, selamat belajar ya.

Transfer Learning

Salah satu tugas machine learning adalah proses training. Proses ini memerlukan sumber daya yang besar. Selain itu diperlukan pula data yang banyak dari ribuan hingga jutaan. Nah, untuk menghemat biasanya digunakan proses transfer learning.

Di sini transfer yang dimaksud adalah menggunakan model deep learning yang telah dilatih oleh pihak lain untuk kita latih dengan pengetahuan yang baru sesuai dengan bidang khusus tertentu. Model yang dilatih oleh pihak lain dikenal dengan istilah pretrained model. Banyak vendor yang menyediakan pretrained, salah satunya adalah tensorflow.

Prinsip kerjanya adalah model pretrained dengan kemampuan mengklasifikasi 1000 kelas misalnya, jika kita akan menambahkan 10 kelas baru, maka cukup mengganti beberapa layer bagian luar dari 1000 kelas menjadi 10 kelas selanjutnya dilatih dengan data 10 kelas tersebut. Sebelumnya layer yang sudah dilatih oleh pretrained dibekukan (freeze).

Misal ada model pretrained yang bisa membedakan benda-benda tertentu seperti meja, kursi, piring, dan gelas. Jika kita diminta membedakan gelas tertentu seperti cangkir, gelas anggur, gelas antik, dan lain-lain, kita tinggal melatih ulang model pretrained dengan kelas gelas yang baru dan model bisa membedakan meja, kursi, pring, dan gelas-gelas tertentu. Berikut video bagaimana menggunakan transfer learning dengan MATLAB dan Python.

Run Python di Apache

Postingan yang lalu membahas bagaimana menjalankan python di web dengan framework terkenal python, yaitu flask. Ada kemungkinan python akan menggeser php di masa yang akan datang mengingat tren python yang terus meningkat mengalahkan php. Saat ini apache masih menjadi andalan untuk web server php. Oleh karena itu perlu mengintegrasikan python dengan server favorit tersebut.

XAMPP sebagai software yang banyak dipakai untuk menjalankan php dengan databasenya (mysql atau mariadb) dapat diintegrasikan dengan python. Berikut ini tekniknya untuk yang berbasis windows.

Pada dasarnya ada dua hal yang harus dilakukan:

  • Set httpd.conf
  • Menambah header di file python (*.py)

Untuk yang linux agak sedikit rumit mengingat adanya hak akses khusus ke folder-folder linux, misal ubuntu. Silahkan dicoba.

Beragam Cara Mengakses Application Programming Interface

Application Programming Interface (API) merupakan teknologi dasar pengusung Microservices. Teknologi ini membuat pengguna dan pengembang mudah dalam mengakses data yang lintas platform. Tiap API yang telah dibuat dapat diakses oleh platform tertentu baik system operasi, software, jenis database, dan lain-lain. Sehingga service yang diberikan jadi lebih baik lagi kepada pengguna.

Banyak cara dapat dilakukan untuk mengakses API, antara lain lewat web maupun mobile. Untuk web dapat dilakukan dengan php maupun JavaScript. Data yang disediakan API saat ini berjenis eXtended Markup Language (XML) dan JavaScript Object Notation (JSON), tapi kebanyakan JSON karena lebih mudah.

A. HTML

Pada dasarnya API dapat diakses langsung lewat browser, kecuali untuk yang butuh token (seperti password). Video berikut memperlihatkan cara mengakses API via HTML, tentu saja dengan bantuan JavaScript.

B. PHP

PHP merupakan Server-Based Language sehingga membutuhkan server, misalnya Apache. Dibutuhkan fungsi membuat table dengan php, seperti video berikut ini.

C. Android

Salah satu keunggulan API adalah mirip tombol yang Ketika ditekan langsung dapat diakses oleh beragam platform, salah satunya Android. Berikut salah satu contoh akses mobile dengan MIT app inventor yang menghasilkan program apk yang dapat diinstal di handphone, lihat ilustrasi singkatnya pada video berikut. Sekian, semoga bermanfaat.

Insert Scopus Searching Result to Mendeley

Not everyone has Scopus access to search for scientific papers. However, most students, especially doctoral students, are given access to Scopus, either in the form of accounts or access via campus Wi-Fi.

There are many options after searching on Scopus, e.g., print, save to excel, and what is practical is saving in Bibtex form because it can be directly exported to Mendeley. However, there is a limit of 200 papers for one download, so we will make several downloads if there are more than 200. Even 200 papers is quite a lot for researchers, because they must be read.

Of course, Scopus can only access the DOI, and other parameters of the paper. To download it depends on whether the campus subscribes to the journals indexed in Scopus. If not, there are many ways to find the manuscript on the internet, from ResearchGate to Sci-Hub. The following video illustrates how to quickly save searching results to Mendeley for the purposes of writing scientific papers (thesis, dissertation, or scientific publication).

Clipping and Dissolving – ArcMap

even though ArcMap requires a license, several universities make it free for students to use ArcMap, for example IPB university. So, ArcMap is still the mainstay of students in working on their thesis projects.

One of the basic techniques in managing maps is clipping and dissolving. Because it is widely used for making study area maps. For example, we are conducting a study at the district level, because the data has the extent of a province, it is necessary to cut it down to the district level. or when dividing a region into sub-regions, it is also necessary to do clipping.

the short video attached shows how to do clipping and then dissolve. Dissolve is useful when you want to show the largest/global region.

Big Data dengan Matlab

Dulu saya pernah menggunakan Matlab dengan paralel prosesing (pos yang lalu). Caranya dengan menjalankan serempak aplikasi Matlab beberapa kali. Tetapi saat ini, Matlab terbaru menyediakan fasilitas Big Data.

Salah satu fasilitasnya adalah dengan menyediakan ‘workers’, yaitu proses terpisah, istilah lain dari processor. Selain itu disediakan pula sejenis matriks tetapi hanya sebagian yang ditampilkan, dikenal dengan nama ‘Tall Array’. Fasilitas ini memungkinkan pemodel merakit model tanpa khawatir berat akibat menguji dengan seluruh data. Dengan Tall array tidak seluruh data dirunning, hanya beberapa saja, yang penting jalan. Jika model yang dirakit sudah ok dijalankan dengan Tall Array, maka untuk menjalankan total data dengan instruksi ‘gather’. Silahkan baca lagi postingan tersebut untuk detilnya.

Untuk mengeksekusi Big Data dan Deep Learning, ada baiknya anda menggunakan laptop/komputer dengan GPU dengan compute ability di atas 5. Khusus Windows, silahkan diset GPU agar idle time diperpanjang, mengingat Windows ketika melihat GPU ‘nganggur’/idle, akan direset, padahal tidak idle, melainkan sedang mengeksekusi program. Silahkan lihat cara mengeset di sini.

Untuk mengetahui bagaimana menggunakan Matlab untuk aplikasi Big Data, silahkan lihat video berikut ini. Sekian selamat mencoba.

REF: https://www.mathworks.com/matlabcentral/answers/22047-cuda_error_launch_timeout

To keep running when the data is empty in Python

Machine learning is a method that involves methods with datasets. Sometimes when the dataset to be processed is empty an error will appear as below.

Several ways can be taken, but the easiest way is to check the size of the csv file. If the file size is zero Kb then it is confirmed that there is no content. Then just use the ‘if not’ instruction as sample below.


Here, the ‘os’ library is required. Don’t forget to indent the ‘if’, including the ‘else:’ side.

Contoh Deployment Python dengan PHP

Lanjutan dari pos sebelumnya, kali ini membahas praktik sederhana menjalankan hasil pemodelan Machine Learning (ML) dengan Python pada PHP. Sebenarnya Python memiliki framework Web sendiri, misalnya Flask dan Django. Namun, kebanyakan server menggunakan Apache yang berbasis PHP. Oleh karena itu perlu mengintegrasikan Python dengan Apache. Silahkan lihat tatacara untuk XAMPP di windows pada video berikut.

Untuk Linux, misal Ubuntu agak sedikit rumit karena hak akses pada file, serta environment yang agak rumit, seperti video berikut.

Video berikut menjelaskan sample deployment sentiment analysis dengan bahasa Python pada PHP-MySQL di windows.

CRISP-DM & CRISP-ML

So far, we are familiar with both waterfall-based and iteration-based development cycles. The rapid development of Artificial Intelligence (AI) and Machine Learning (ML) makes it quite difficult for vendors to follow the development methods used because AI, DM, and ML involve datasets. So the data and methods in ML cannot be separated.

One of the development processes currently used is the Cross Industry Standard Process for Data Mining (CRISP-DM). This process integrates DM modeling into the development process. Especially in the data understanding to evaluation section.

After CRISP-DM was used to create Data Mining-based applications, some developers needed a new process standard specifically for ML, especially due to the rapid development of Deep Learning. So that raises CRISP-ML where ML is slightly different from DM. An integration with quality assurance (QA) results in the CRISP-ML(Q) development model.

In accordance with its meaning, ML requires a learning process before inference, which is usually unsupervised. For more details, please see the following video.