Nor Hasanah, S.Ag, M.I.Kom.
Pustakawati UIN Antasari Banjarmasin
BANJARMASINPOST.CO.ID - SETIAP kali Hari Kartini diperingati, kita kembali mengingat perjuangan Raden Ajeng Kartini dalam menuntut kesetaraan, terutama dalam akses pendidikan dan kebebasan berpikir. Namun, lebih dari satu abad kemudian, bentuk ketidaksetaraan tidak lagi selalu tampak secara kasat mata. Ia hadir dalam wujud yang lebih halus, tersembunyi di balik sistem teknologi yang kita gunakan sehari-hari. Salah satu tantangan baru itu adalah bias algoritma.
Di era kecerdasan buatan (Artificial Intelligence/AI), algoritma menjadi aktor penting dalam kehidupan manusia. Ia menentukan apa yang kita lihat di media sosial, hasil pencarian yang muncul di internet, hingga keputusan dalam berbagai sektor seperti rekrutmen kerja, layanan keuangan, dan bahkan penegakan hukum. Algoritma sering dianggap netral dan objektif, padahal kenyataannya tidak selalu demikian.
Bias algoritma terjadi ketika sistem kecerdasan buatan menghasilkan keputusan atau rekomendasi yang tidak adil karena dipengaruhi oleh data atau asumsi yang tidak seimbang. Sederhananya, jika data yang digunakan untuk melatih sistem mengandung bias, maka hasil yang dihasilkan pun berpotensi bias. Dalam konteks gender, ini bisa berarti perempuan mendapatkan perlakuan yang kurang menguntungkan dibandingkan laki-laki, meskipun dilakukan oleh sistem yang tampak “netral”.
Di sinilah relevansi pemikiran Kartini kembali mengemuka. Kartini hidup dalam masyarakat yang membatasi peran perempuan berdasarkan norma dan tradisi. Ia menolak ketidakadilan tersebut melalui pemikiran kritis dan pendidikan. Jika Kartini hidup di era sekarang, bisa jadi ia tidak hanya memperjuangkan akses pendidikan, tetapi juga mempertanyakan bagaimana teknologi memperlakukan perempuan.
Bias algoritma bukan sekadar isu teknis, melainkan persoalan sosial yang berdampak nyata. Misalnya, dalam sistem rekrutmen berbasis AI, terdapat kasus di mana algoritma lebih cenderung merekomendasikan kandidat laki-laki karena data historis yang digunakan didominasi oleh pekerja laki-laki. Hal serupa juga terjadi dalam sistem pengenalan wajah yang memiliki tingkat akurasi lebih rendah untuk perempuan, terutama yang berkulit gelap. Fenomena ini menunjukkan bahwa teknologi dapat mereproduksi ketimpangan yang sudah ada di masyarakat.
Masalahnya, banyak pengguna teknologi tidak menyadari keberadaan bias ini. Kita cenderung percaya bahwa mesin lebih objektif daripada manusia. Padahal, algoritma dibuat oleh manusia dan dilatih menggunakan data yang dikumpulkan dari realitas sosial yang tidak selalu adil. Tanpa kesadaran kritis, masyarakat dapat dengan mudah menerima hasil teknologi tanpa mempertanyakan keadilannya.
Oleh karena itu, literasi digital menjadi sangat penting. Literasi digital tidak hanya berarti kemampuan menggunakan perangkat teknologi, tetapi juga memahami bagaimana teknologi bekerja, termasuk potensi bias di dalamnya. Dalam konteks ini, semangat Kartini untuk berpikir kritis dan mempertanyakan ketidakadilan menjadi sangat relevan.
Perempuan memiliki peran penting dalam menghadapi tantangan ini. Bukan hanya sebagai pengguna teknologi, tetapi juga sebagai bagian dari ekosistem yang menciptakan teknologi. Keterlibatan perempuan dalam bidang sains, teknologi, teknik, dan matematika (STEM) perlu terus didorong. Semakin beragam perspektif yang terlibat dalam pengembangan teknologi, semakin besar peluang untuk menciptakan sistem yang lebih adil dan inklusif.
Selain itu, institusi pendidikan dan lembaga informasi seperti perpustakaan juga memiliki tanggung jawab besar. Mereka dapat menjadi ruang untuk membangun kesadaran kritis masyarakat terhadap teknologi. Program literasi informasi dapat diperluas untuk mencakup pemahaman tentang kecerdasan buatan dan etika teknologi. Dengan demikian, masyarakat tidak hanya menjadi konsumen, tetapi juga pengguna yang sadar dan kritis.
Di tingkat kebijakan, pemerintah dan pemangku kepentingan perlu memastikan bahwa pengembangan dan penggunaan AI dilakukan secara bertanggung jawab. Regulasi yang mengatur transparansi algoritma, perlindungan data, dan keadilan dalam sistem otomatis menjadi semakin penting. Tanpa kerangka kebijakan yang jelas, teknologi berisiko memperkuat ketimpangan yang sudah ada.
Namun, upaya mengatasi bias algoritma tidak bisa hanya bergantung pada satu pihak. Ini adalah tanggung jawab bersama antara pengembang teknologi, pemerintah, akademisi, dan masyarakat. Kesadaran kolektif menjadi kunci untuk memastikan bahwa teknologi benar-benar digunakan untuk kemaslahatan bersama, bukan sebaliknya.
Momentum Hari Kartini seharusnya menjadi titik refleksi untuk melihat bagaimana bentuk perjuangan kesetaraan telah berubah. Jika dahulu ketidakadilan tampak dalam aturan sosial yang membatasi perempuan, kini ia bisa tersembunyi dalam kode dan data. Perjuangan pun perlu beradaptasi, dari melawan norma yang diskriminatif menjadi mengkritisi sistem yang tidak transparan.
“Kartini dan bias algoritma” adalah pengingat bahwa emansipasi belum selesai. Ia hanya berganti medan. Dari ruang-ruang domestik ke ruang digital, dari tradisi ke teknologi. Tantangannya mungkin berbeda, tetapi esensinya tetap sama: memperjuangkan keadilan dan kesetaraan.
Pada akhirnya, teknologi adalah cerminan dari manusia yang menciptakannya. Jika kita ingin sistem yang adil, maka nilai keadilan harus tertanam sejak awal dalam proses pembuatannya. Di sinilah warisan Kartini menemukan maknanya yang baru—sebagai inspirasi untuk terus berpikir kritis, berani bersuara, dan tidak menerima ketidakadilan dalam bentuk apa pun.
Kartini telah membuka jalan bagi kesetaraan di masanya. Kini, tugas kita adalah melanjutkan perjuangan itu di medan yang berbeda. Di tengah derasnya arus perkembangan AI, kita perlu memastikan bahwa teknologi tidak menjadi alat yang mempersempit ruang keadilan, melainkan justru memperluasnya.
Dengan kesadaran, literasi, dan kolaborasi, tantangan bias algoritma dapat dihadapi. Dan dengan semangat Kartini, kita diingatkan bahwa setiap zaman memiliki perjuangannya sendiri dan setiap generasi memiliki tanggung jawab untuk menjawabnya. (*)