Ternyata, Teknologi Kecerdasan Buatan juga Bisa Seksis

 Ternyata, Teknologi Kecerdasan Buatan juga Bisa Seksis

Naviri.Org - Artificial intelligence (AI) atau kecerdasan buatan adalah teknologi baru yang saat ini menjadi hal penting dalam kehidupan manusia. Ada banyak hal yang semula dilakukan manusia, kini dilakukan oleh kecerdasan buatan. Tujuan manusia menciptakan kecerdasan buatan memang untuk memudahkan urusan hidup dan pekerjaan manusia, sehingga posisi kecerdasan buatan saat ini pun sudah tepat. Hal-hal yang bisa dilakukan mesin, kini dilakukan oleh mesin.

Tetapi, rupanya, kecerdasan buatan menimbulkan masalah yang mungkin tidak diduga oleh banyak orang, yaitu “kemampuan” menjadi seksis atau bahkan rasis, persis seperti manusia yang menciptakannya.

Pada Mei tahun lalu, Pro Republica menerbitkan laporan tentang program komputer milik pengadilan Amerika Serikat yang bias pada orang kulit hitam.

Program bernama Compas itu mencap orang kulit hitam secara keliru, lebih dua kali lipat dari rata-rata orang kulit putih. Padahal program semacam Compas digunakan ratusan pengadilan di sana, dan berpotensi memengaruhi keputusan hakim dan badan resmi lainnya. Compas sendiri adalah piranti yang dibikin dengan teknologi kecerdasan buatan dan kecanggihan algoritma.

Pada tahun yang sama, Chatbot kecerdasan buatan milik Microsoft akhirnya juga dihapus karena bias gender dan rasis. Dalam 24 jam pertama hidupnya, Tay si Chatbot mengatakan “Fuck her” pada pengikutnya di Twitter, memanggil mereka “Daddy” dan menyebut “I fucking hate feminist”.

Kabar terbaru, pada ujung November kemarin, Alex Shams, antropolog dari Universitas Chicago mengeluhkan Google Translate yang bias gender. Ia memasukkan sejumlah kata dalam bahasa Turki, dan mencoba menerjemahkannya ke dalam bahasa Inggris.

“Bahasa Turki adalah bahasa yang netral gender. Tak ada “he” [kata ganti orang ketiga pria] atau “she” [kata ganti orang ketiga perempuan]—semuanya disebut “o”. Tapi lihat apa yang terjadi ketika Google menerjemahkannya ke bahasa Inggris,” cuit Alex dalam akun Twitternya.

Ia melampirkan potongan gambar dari Google. Tukang masak, perawat, dan guru, diterjemahkan berkelamin perempuan. Sementara mekanik, dokter, tentara, dan tukang bersih-bersih, diterjemahkan berkelamin laki-laki. Tak hanya itu, kata ‘lajang’ dan ‘bahagia’ diasosiasikan dengan laki-laki. Sedangkan, ‘sudah menikah’ dan ‘tidak bahagia’ diasosiasikan dengan perempuan.

“Tak cuma diberi gender—Google Translate juga mengubah bahasa Turki yang tak bergender menjadi kalimat-kalimat seksis dalam bahasa Inggris,” sambung Alex.

Maksudnya, upaya mengaitkan kata tertentu dengan suatu gender adalah perilaku seksisme yang tak percaya kalau manusia adalah makhluk setara. Taika Dahlbom, jurnalis dari Finlandia, juga mencoba demonstrasi Alex.

Bahasa negaranya juga tak mengenal kata ganti orang ketiga dengan gender. Dan ketika diterjemahkan oleh Google, kata-kata itu juga berubah memiliki gender dan seksis. Polisi, mekanik, dan petani diasosiasikan dengan laki-laki. Sementara perawat, pengasuh, dan sekretaris diasosiasikan dengan perempuan.

Bahasa Indonesia, yang juga tak mengenal kata ganti bergender, mengalami hal yang sama. Polisi, pengrajin, dan wirausaha diasosiasikan dengan laki-laki. Sementara perawat, suster, dan pengasuh diasosiasikan dengan perempuan. Kata ‘pencemburu’, dan ‘menikah’ juga diasosiasikan dengan laki-laki, sementara ‘menangis’, dan ‘sudah cerai’ diasosiasikan dengan perempuan.

Lalu mengapa Google Translate berlaku demikian? Kata Alex, karena Google Translate mengadopsi algoritma yang berbasis pada penerjemahaan yang telah terekam. Jadi, bila pada database terdapat 1.000 penggunaan kata “mekanik” dan kebanyakan dipakai pada laki-laki, maka kecerdasaan buatan itu akan menerjemahkan mekanik sebagai laki-laki.

“Begitu juga yang terjadi pada ‘perawat’ untuk perempuan,” tambah Alex.

Artinya, mesin-mesin kecerdasan buatan itu menjadi bias gender dengan mempelajari sejarah dan perilaku manusia.

Studi oleh Science Magz mengonfirmasi hal tersebut. Para ilmuwan menemukan bahwa “mesin-mesin itu bisa melakukan bias semantik seperti manusia.”

Alison Kay, Global Vice-Chair Ernst & Young, mengkhawatirkan bahaya seksisme dalam kecerdasan buatan. Menurutnya, penggunaan teknologi tersebut tengah kencang-kencangnya dan bahkan mendisrupsi gaya hidup manusia. Perkembangannya tak terhindari. Namun, bukan berarti temuan tentang seksisme ini bisa didiamkan saja.

“Bias yang tak disadari itu sudah terbukti jadi penghalang besar untuk keberagaman di tempat kerja. Terutama bagi perempuan yang ingin menembus posisi kepemimpinan,” tulis Kay di World Economic Forum.

Mendiamkan atau bahkan memelihara masalah ini akan jadi masalah besar di masa depan, ungkapnya. Teknologi, menurut Kay, sebaiknya tidak jadi penghalang gerakan kesetaraan yang sudah lama diperjuangkan.

Hal ini harus segera ditangani para pimpinan di tingkat CEO. Tabitha Goldstaub, co-founder direktori dan komunitas AI di Cognition X, menyadari potensi bias gender oleh kecerdasan buatan ini.

“Ketika Anda melihat apa yang terjadi dengan AI dalam topik feminis, menjadi sangat jelas bahwa bias-bias yang ada di masyarakat akan semakin diperburuk atau diperkuat. Begitu saya menyadari ini, antena saya naik, dan mikir ‘seseorang harus segera mengatasi masalah ini’,” ungkapnya pada The Guardian.

Menurutnya, dengan memasukkan perempuan lebih banyak ke industri kecerdasan buatan dan teknologi, akan membantu menuntaskan masalah ini. Untuk itu, Goldstaub tengah gencar mengampanyekan ajakan agar lebih banyak perempuan bergabung di sektor teknologi.

“AI adalah lapangan baru, di mana isu ini (seksisme) belum terlalu banyak dibahas. Ada banyak sekali pertanyaan etis yang mengambang, namun jika kita menarik lebih banyak perempuan ke dalam industri, dan bikin mereka cukup berani untuk mempertanyakannya, orang-orang akan mulai mendengarkan,” tambah Goldstaub.

Google rupanya juga mulai memperhatikan masalah ini. Silvia Chiappa, peneliti senior di DeepMind, perusahaan AI milik Google, juga mengakui kekurangan wanita di sektor itu.

“Sejak PhD-ku, dengan beberapa pengecualian, aku selalu bekerja di tempat yang perempuannya sangat sedikit dibandingkan prianya,” katanya menggambarkan pengalaman bekerja di area teknologi. “Aku juga sadar kalau jumlah perempuan yang ada bahkan makin berkurang karena sudah masuk usia kerja senior.”

Oleh karena itu, Chiappa membuat sejumlah projek untuk menarik minat perempuan-perempuan muda untuk bergabung mengikuti jejaknya di sektor industri teknologi. Bahkan mereka mendatangi sejumlah sekolah non-teknologi untuk menyebar kemungkinan pilihan karier.

“Tujuan kami adalah mendorong perempuan-perempuan muda untuk berkarier di sains, dan memberi mereka pijakan untuk bersuara,” ungkap Chiappa pada The Guardian.

Ketidaknetralan teknologi ini juga jadi hal yang mengganggu Alex. Keterikatan hidup manusia zaman ini dengan teknologi memang sudah tak bisa dielakkan. Sehingga perkara bias gender tidak bisa dianggap kecil.

“Ingat, teknologi dibentuk oleh pembuatnya, dengan bias-bias mereka,” ungkap Alex. “Dan industri teknologi tingkat tinggi berisi banyak sekali orang kulit putih muda, para pria kaya raya, yang mendefinisikan seksisme merajalela, rasisme, kelas, dan banyak bentuk ketidaksetaraan sosial lainnya. Inilah orang-orang yang kita biarkan (kini) mengatur hidup kita.”

Mengisi ruang kerja dengan lebih banyak perspektif tampaknya jadi solusi yang tepat. Kehadiran pandangan yang beragam akan membantu kita sadar, bahwa manusia bukan cuma terdiri dari satu gender, satu ras, dan satu kepentingan belaka. Patut diingat, apa yang dihasilkan teknologi cerminan dari pembuatnya.

Baca juga: Mengenal dan Memahami AI (Artificial Intelligence)

Related

Technology 8485467813941444299

Recent

Hot in week

Ebook

Koleksi Ribuan Ebook Indonesia Terbaik dan Terlengkap

Dapatkan koleksi ribuan e-book Indonesia terbaik dan terlengkap. Penting dimiliki Anda yang gemar membaca, menuntut ilmu,  dan senang menamb...

item