Transformasi digital dalam pelayanan publik sering dipahami sebagai solusi atas masalah ketidaktepatan sasaran bantuan sosial. Sistem desil, machine learning, dan integrasi data nasional diharapkan mampu mengurangi manipulasi serta meningkatkan akurasi distribusi bantuan.
Namun realitas di lapangan menunjukkan satu hal yang fundamental: AI tidak pernah berdiri sendiri. Ia bergantung sepenuhnya pada data yang dimasukkan oleh manusia. Dan di sinilah human error menjadi titik paling rentan dalam ekosistem AI publik.
Dalam kerangka System of Trust, pertanyaan kuncinya bukan hanya apakah modelnya akurat, tetapi apakah rantai input datanya dapat dipercaya dan tentu saja perlu memperhatikan etika algoritma dalam menentukan sebuah keputusan.
📚 Baca Juga
Ketika Desil Salah Masuk Sistem
Dalam praktik pendataan kesejahteraan, banyak kasus menunjukkan ketidaksesuaian klasifikasi. Individu yang secara faktual berada pada kelompok desil 1–5 (kelompok miskin dan rentan) justru tercatat dalam sistem sebagai desil 6–10. Sebaliknya, sebagian kelompok yang relatif mampu tetap tercatat sebagai penerima bantuan.
Beberapa laporan nasional menunjukkan:
- Puluhan juta penduduk yang seharusnya termasuk kelompok prioritas belum menerima skema bantuan tertentu.
- Jutaan warga pada kelompok desil atas masih tercatat sebagai penerima manfaat.
Kondisi ini bukan semata kegagalan algoritma prediktif. Sering kali akar masalahnya adalah kesalahan pada tahap input data.
Sumber Human Error dalam Sistem AI Publik
Dalam ekosistem pelayanan publik berbasis AI, terdapat beberapa titik rawan kesalahan:
1. Kesalahan Entry Data Dasar
Kesalahan penulisan NIK, nama, alamat, atau kode wilayah dapat menyebabkan:
- Data tidak terhubung dengan sistem kependudukan.
- Duplikasi identitas.
- Klasifikasi tidak sesuai.
Model machine learning tidak mampu membedakan apakah angka yang masuk adalah typo atau fakta. Sistem hanya memproses apa yang tersedia.

2. Instrumen Survei yang Tidak Konsisten
Jika enumerator menggunakan instrumen dengan interpretasi berbeda, variabel seperti:
- Luas bangunan,
- Jenis lantai,
- Status pekerjaan,
- Jumlah tanggungan,
dapat diinput secara tidak seragam. Dalam model matematis:Y=β0+β1X1+β2X2+…+βnXn
Perubahan kecil pada X (variabel input) akan memengaruhi nilai Y (skor kesejahteraan). Ketika bobot β cukup besar, satu kesalahan variabel bisa menggeser posisi desil secara signifikan.
3. Data Tidak Dimutakhirkan
Kondisi ekonomi keluarga dapat berubah cepat akibat:
- PHK,
- Sakit,
- Bencana,
- Perubahan jumlah tanggungan.
Jika pembaruan data terlambat, model tetap “membaca” kondisi lama dan menghasilkan prediksi yang tidak lagi relevan.
4. Kesalahan Sinkronisasi Sistem
Integrasi antara sistem kependudukan, basis data sosial, dan sistem bantuan sering kali tidak real-time. Ketidaksinkronan ini menciptakan gap antara realitas sosial dan realitas digital.
AI Tidak Memperbaiki Data yang Salah
Machine learning bekerja dengan prinsip garbage in, garbage out. Jika data input mengandung bias atau kesalahan, maka model akan belajar dari bias tersebut.
Dalam literatur internasional, Cathy O’Neil menyebut model seperti ini sebagai bentuk “senjata matematika” ketika digunakan tanpa transparansi dan audit. Sementara Virginia Eubanks menunjukkan bagaimana otomatisasi bantuan sosial di beberapa negara memperparah eksklusi warga miskin akibat desain sistem yang tidak sensitif terhadap konteks sosial.

Masalahnya bukan pada rumus statistik atau algoritma decision tree yang digunakan. Masalahnya adalah asumsi bahwa sistem otomatis selalu lebih objektif daripada manusia.
Padahal, sistem otomatis hanyalah refleksi dari proses manusia sebelumnya.
Human-in-the-Loop sebagai Solusi
Dalam desain AI modern, terdapat konsep human-in-the-loop, yaitu keterlibatan manusia dalam proses validasi sebelum keputusan final diterapkan.
Dalam konteks pelayanan publik, ini berarti:
- Validasi ulang data oleh pemerintah desa.
- Mekanisme sanggah terbuka bagi warga.
- Audit berkala terhadap distribusi desil.
- Evaluasi fairness menggunakan indikator seperti equal opportunity dan demographic parity.
Tanpa mekanisme ini, AI berisiko menjadi sistem yang efisien tetapi tidak dipercaya.
Trust Dimulai dari Instrumen
Dalam kerangka System of Trust, kepercayaan dibangun dari hulu ke hilir:
- Instrumen survei yang jelas dan seragam.
- Pelatihan enumerator yang konsisten.
- Standarisasi entry data.
- Audit kualitas data sebelum pemodelan.
- Transparansi metodologi perhitungan desil.
Teknologi bukan pengganti tata kelola yang baik. Ia hanya mempercepat proses yang sudah ada — baik proses itu akurat maupun keliru.
Dampak Sosial Kesalahan Sistemik
Kesalahan klasifikasi desil bukan sekadar kekeliruan administratif yang bisa diperbaiki dengan pembaruan database berikutnya. Ia menyentuh langsung dimensi kehidupan warga. Ketika keluarga yang secara faktual berada pada desil 1–3 justru tercatat di desil 7 atau 8, dampaknya bukan hanya angka yang bergeser di layar sistem, tetapi akses terhadap pangan, kesehatan, dan pendidikan yang tertutup.
Bagi warga miskin, kehilangan akses bantuan sosial berarti meningkatnya kerentanan. Bantuan tunai, subsidi pangan, atau jaminan kesehatan sering kali menjadi bantalan terakhir ketika pendapatan tidak mencukupi. Ketika sistem salah membaca kondisi mereka, negara secara tidak langsung gagal menjalankan fungsi perlindungan sosialnya. Dalam konteks ini, kesalahan data berubah menjadi risiko kesejahteraan.
Di sisi lain, ketika kelompok yang relatif mampu tetap tercatat sebagai penerima bantuan akibat kesalahan input atau pembaruan data yang lambat, terjadi distorsi alokasi anggaran. Anggaran negara yang seharusnya difokuskan pada kelompok paling rentan justru tersebar tidak proporsional. Dalam skala nasional, deviasi kecil pada tingkat individu dapat berakumulasi menjadi pemborosan fiskal yang signifikan.
Dampak berikutnya adalah penurunan kepercayaan publik. Warga yang merasa diperlakukan tidak adil akan mempertanyakan kredibilitas sistem. Transparansi yang minim memperkuat persepsi bahwa algoritma adalah “kotak hitam” yang menentukan nasib tanpa ruang klarifikasi. Ketika kepercayaan melemah, legitimasi kebijakan ikut tergerus.
Lebih jauh lagi, kesalahan sistemik berpotensi memicu ketegangan sosial. Dalam komunitas lokal, perbedaan status penerima bantuan dapat menimbulkan kecemburuan atau konflik horizontal, terutama jika masyarakat melihat adanya ketidaksesuaian yang jelas antara kondisi ekonomi dan status bantuan. Dalam situasi seperti ini, persoalannya bukan lagi soal error rate model atau akurasi prediksi statistik, melainkan soal keadilan yang dirasakan.
Pada titik tersebut, isu teknis berubah menjadi isu legitimasi. Pelayanan publik berbasis AI tidak lagi dinilai dari kecanggihan algoritmanya, tetapi dari kemampuannya menjaga rasa keadilan sosial.
Menuju Ekosistem AI yang Dapat Dipercaya
Membangun AI publik yang dapat dipercaya memerlukan pendekatan ethics by design — etika yang tertanam sejak tahap perancangan, bukan ditambahkan setelah sistem bermasalah.
Pertama, model harus dapat dijelaskan. Explainable AI bukan sekadar kebutuhan teknis, melainkan kebutuhan demokratis. Warga berhak memahami dasar keputusan yang memengaruhi hak sosial mereka. Penjelasan yang rasional dan terbuka menjadi fondasi akuntabilitas.
Kedua, data harus inklusif dan dinamis. Sistem kesejahteraan tidak boleh bergantung pada potret statis kondisi ekonomi. Pembaruan data secara berkala, integrasi lintas sistem, serta validasi lapangan menjadi syarat agar model tetap relevan dengan realitas sosial.
Ketiga, mekanisme koreksi harus mudah diakses. Setiap warga yang merasa dirugikan perlu memiliki jalur pengaduan dan pembaruan data yang jelas, cepat, dan transparan. Dalam ekosistem yang sehat, kesalahan bukan disembunyikan, tetapi diperbaiki secara terbuka.
Keempat, tanggung jawab tetap berada pada institusi publik. Algoritma tidak memiliki tanggung jawab moral. Ia tidak dapat dimintai pertanggungjawaban secara etis. Oleh karena itu, keputusan akhir tetap harus berada dalam kerangka akuntabilitas manusia dan kelembagaan.
Ekosistem AI publik pada akhirnya bukan soal siapa memiliki model paling kompleks atau teknologi paling mutakhir. Ia tentang integritas rantai data — dari instrumen survei, proses entry, validasi, pemodelan, hingga distribusi kebijakan.
Karena algoritma tidak pernah salah sendirian. Ia hanya menghitung apa yang dimasukkan dan mengoptimalkan apa yang ditentukan sebagai tujuan. Jika inputnya bias atau keliru, hasilnya akan mengikuti pola yang sama.
Dalam pelayanan publik, kepercayaan tidak dibangun dari kompleksitas rumus atau kedalaman arsitektur machine learning. Kepercayaan lahir dari data yang benar, proses yang transparan, dan tanggung jawab manusia yang konsisten menjaganya. Di situlah fondasi System of Trust benar-benar diuji.