Transformasi digital mendorong pemerintah mengadopsi machine learning dan artificial intelligence (AI) dalam pengambilan keputusan publik, termasuk dalam sistem desil untuk menentukan penerima bantuan sosial. Secara teknis, pendekatan ini meningkatkan efisiensi, konsistensi, dan skalabilitas. Namun secara normatif, ia menuntut satu hal yang lebih mendasar: kepercayaan publik.
Di sinilah relevansi gagasan System of Trust menjadi penting. Teknologi bukan sekadar sistem komputasi, melainkan sistem kepercayaan yang memengaruhi kehidupan warga negara.
Dari Statistik ke Machine Learning
Sistem desil pada awalnya berbasis statistik distribusi pendapatan. Secara matematis, populasi diurutkan berdasarkan skor kesejahteraan, lalu dibagi menjadi sepuluh kelompok sama besar:Desil=Total PopulasiRanking Individu×10
📚 Baca Juga
Namun dalam praktik modern, perhitungan skor kesejahteraan sering menggunakan model prediktif berbasis machine learning, seperti:
- Regresi linear / logistik
- Decision tree dan random forest
- Gradient boosting
- Model klasifikasi berbasis probabilitas
Secara sederhana, model prediktif bekerja dengan fungsi seperti:
Di mana:
- Y = skor kesejahteraan
- X1,X2,…Xn = variabel seperti pendapatan, luas rumah, jumlah tanggungan
- β = bobot yang dipelajari dari data
Dalam model yang lebih kompleks seperti random forest, keputusan tidak lagi linear, melainkan hasil agregasi banyak pohon keputusan yang mempelajari pola dari data historis.

Masalahnya bukan pada rumusnya. Masalahnya adalah: siapa yang memastikan model tersebut adil?
AI dalam Penentuan Bantuan Sosial
Lembaga statistik seperti Badan Pusat Statistik dan kementerian teknis seperti Kementerian Sosial Republik Indonesia mengelola basis data besar yang memungkinkan penggunaan AI untuk:
- Memprediksi risiko kemiskinan
- Mengidentifikasi anomali data
- Mengurangi duplikasi penerima
- Mengoptimalkan distribusi anggaran
Dalam konteks global, diskursus etika AI banyak dipengaruhi oleh pemikiran tokoh seperti Cathy O’Neil melalui bukunya Weapons of Math Destruction, yang mengkritik model algoritmik yang tidak transparan dan memperkuat ketimpangan sosial.

Demikian pula, Virginia Eubanks dalam Automating Inequality menunjukkan bagaimana sistem otomatisasi bantuan sosial di beberapa negara justru memperburuk eksklusi kelompok rentan.
Pesan mereka jelas: algoritma yang tidak diaudit berpotensi menjadi mesin ketidakadilan.
Dimensi Etika dalam Machine Learning
Ada empat isu etika utama dalam penerapan AI pelayanan publik:
1. Bias Data
Machine learning belajar dari data historis. Jika data masa lalu mencerminkan ketimpangan struktural, model akan mereplikasi ketimpangan tersebut.
Contohnya, jika pekerja informal kurang terdokumentasi, model bisa menilai mereka “tidak miskin” karena kurangnya variabel pendukung.
2. Opasitas Model (Black Box)
Model kompleks seperti gradient boosting atau neural network sulit dijelaskan kepada publik. Ketika warga bertanya mengapa mereka tidak menerima bantuan, jawaban “karena model memutuskan demikian” tidak cukup secara etis.
3. Fairness Metrics
Dalam literatur AI, terdapat konsep fairness seperti:
- Demographic parity
- Equal opportunity
- Equalized odds
Namun penerapan konsep ini dalam kebijakan publik membutuhkan keputusan normatif: keadilan seperti apa yang ingin dicapai?
4. Akuntabilitas
Algoritma tidak memiliki tanggung jawab moral. Manusia dan institusi yang menggunakannya yang bertanggung jawab.
Trust sebagai Fondasi Sistem
Konsep System of Trust menempatkan tiga elemen sebagai fondasi:
- Transparansi Metodologis
Pemerintah perlu membuka indikator, variabel, serta prinsip model yang digunakan. - Audit dan Evaluasi Independen
Model perlu diuji terhadap potensi bias dan error secara berkala. - Human-in-the-Loop
Keputusan akhir tidak boleh sepenuhnya otomatis. Verifikasi sosial tetap diperlukan, terutama di tingkat desa.
Tanpa tiga elemen ini, AI berisiko menjadi sistem yang efisien tetapi tidak dipercaya.
Algoritma Bukan Otoritas Moral
Machine learning dirancang untuk mengoptimalkan prediksi, bukan untuk memahami keadilan. Model akan meminimalkan error statistik, bukan memastikan martabat manusia terjaga.
Dalam pelayanan publik, tujuan akhirnya bukan hanya akurasi prediksi kemiskinan, melainkan keadilan distribusi bantuan. Perbedaan ini bersifat fundamental.
Menuju Pelayanan Publik Berbasis Kepercayaan
AI dapat memperkuat tata kelola publik jika dirancang dengan prinsip etika sejak awal (ethics by design).
Artinya:
- Dataset harus inklusif dan diperbarui
- Model harus dapat dijelaskan (explainable AI)
- Mekanisme sanggah harus tersedia
- Dampak sosial harus dievaluasi, bukan hanya performa teknis
Pelayanan publik bukan sekadar persoalan teknologi. Ia adalah kontrak sosial antara negara dan warga.
Dan dalam kontrak sosial digital, algoritma bukan hanya baris kode. Ia adalah representasi nilai. Jika dirancang dengan benar, ia menjadi bagian dari sistem yang membangun kepercayaan. Jika tidak, ia dapat merusaknya secara sistemik.
Di era AI, keadilan bukan hanya soal kebijakan. Ia juga soal desain algoritma.