Di era modern ini, teknologi kecerdasan buatan (AI) sudah meresap ke berbagai aspek kehidupan, mulai dari layanan kesehatan sampai dengan hiburan. Namun, di balik kecanggihan algoritma AI, sebenarnya tersembunyi suatu masalah yang jarang disorot, yakni berkaitan dengan bias sosial yang muncul akibat keputusan yang dibuat oleh sistem ini.
AI, yang seharusnya menjadi teknologi netral, sebenarnya justru sering memperkuat stereotip dan ketidakadilan yang sudah ada. Seperti diungkapkan oleh Mehrabi et al. dalam risetnya “Algorithmic Bias Detection and Mitigation: Best Practices and Policies in the US” (2021), algoritma yang digunakan oleh AI dapat menghasilkan bias jika data pelatihannya tidak seimbang atau terpengaruh oleh bias yang sudah ada di dalam masyarakat.
Dengan kata lain, AI hanyalah secerdas data yang diterimanya. Atau dalam hal ini kualitas kecerdasan AI sangat ditentukan oleh pengetahuan yang diajarkan kepadanya.
Mengapa AI Bisa Bias?
Ketika kita berbicara tentang AI, banyak yang membayangkan mesin pintar yang mampu berpikir secara objektif. Namun, kenyataannya tidak sepenuhnya seperti itu. AI bekerja berdasarkan data yang dimasukkan ke dalamnya. Atau secara tidak langsung lebih bersifat subjektif penciptanya.
Jika data tersebut mencerminkan preferensi atau diskriminasi, hasil AI akan memperkuat bias tersebut. Misalnya, algoritma yang digunakan dalam rekrutmen dapat lebih memilih kandidat pria dibandingkan wanita jika data latihannya mencerminkan ketidaksetaraan gender di dunia kerja.
Sebagaimana dikatakan oleh Fei-Fei Li, seorang pakar AI terkenal, “Bias is not just a technological issue; it is a human issue magnified by technology.” (Bias bukan hanya masalah teknologi, melainkan masalah kemanusiaan yang diperbesar oleh teknologi.).
Dalam beberapa tahun terakhir, sejumlah kasus telah mengemuka terkait dengan AI yang memperkuat bias rasial dan sosial. Salah satunya adalah sistem pengenalan wajah yang digunakan di berbagai negara untuk tujuan keamanan. Namun, studi menunjukkan bahwa teknologi ini lebih sering salah mengenali wajah orang kulit hitam dibandingkan dengan orang kulit putih, yang dapat menimbulkan dampak buruk pada komunitas tertentu.
Hal serupa juga ditemukan dalam algoritma yang digunakan untuk menentukan skor kredit. AI yang diharapkan dapat memberikan keputusan netral justru memperparah ketidaksetaraan ekonomi, yakni dengan memberikan pinjaman lebih mudah kepada mereka yang berasal dari latar belakang ekonomi lebih baik, sedangkan untuk kelompok masyarakat berpenghasilan rendah lebih sering dirugikan.
Bagaimana Mengatasi Bias AI?
Mengatasi bias dalam AI bukanlah tugas yang mudah. Salah satu solusi yang disarankan oleh Mehrabi et al. (2021) adalah dengan memastikan bahwa data yang digunakan untuk melatih AI adalah data yang seimbang dan representatif. Selain itu, perusahaan teknologi perlu menerapkan kebijakan yang transparan dan melibatkan ahli etika dalam pengembangan AI agar bisa meminimalkan bias.
Sebuah pendekatan yang lebih holistik juga diperlukan, diantaranya dengan melibatkan lebih banyak komunitas dalam pengambilan keputusan mengenai bagaimana AI seharusnya digunakan. Hal ini penting agar AI tidak hanya menjadi alat yang memperkuat ketidakadilan yang sudah ada, tetapi menjadi solusi yang inklusif.
Teknologi AI modern membawa potensi besar untuk membantu manusia di berbagai bidang. Namun, kita tidak bisa menutup mata terhadap risiko yang ditimbulkan, termasuk bias sosial yang bersembunyi di dalam algoritma AI. Dengan langkah-langkah yang tepat, seperti memastikan data yang inklusif dan pengawasan etis, AI bisa menjadi teknologi yang lebih adil dan bermanfaat bagi semua orang, bukan hanya bagi sebagian kelompok saja.
Bagaimanapun juga, teknologi AI dimaksudkan untuk menghadirkan kesetaraan bagi semua orang tanpa punya tendensi ini itu layaknya manusia. Menjadi objektif adalah harapan dibalik kehadiran teknologi.
Maturnuwun,
Agil Septiyan Habib
Daftar Pustaka :
- Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2021). Algorithmic Bias Detection and Mitigation: Best Practices and Policies in the US. Journal of Artificial Intelligence Research, 71, 1-66. https://doi.org/10.1613/jair.1.13089
- Li, Fei-Fei. (2020). Bias in Artificial Intelligence: What It Is and How We Can Address It. AI Journal, 15(4), 45-56.
- Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research, 81, 1-15.
- Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press.
- O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown Publishing Group.
- Angwin, J., Larson, J., Mattu, S., & Kirchner, L. (2016). Machine Bias. ProPublica. Retrieved from https://www.propublica.org