Sebuah konsep atau objek menjadi bias ketika menerima sejumlah besar dukungan (Support)atau oposisi,(opposition) seringkali dengan cara yang tidak adil, berprasangka, atau berpikiran tertutup. Bias terhadap seseorang, suatu kelompok, atau suatu keyakinan dapat muncul dalam semua golongan manusia. Bias adalah jenis ketidakakuratan sistematis dalam penelitian dan rekayasa. Sampel populasi yang tidak adil atau prosedur perkiraan yang tidak menghasilkan hasil yang umumnya benar adalah penyebab bias statistik.
Sistem computer vision yang bias menghasilkan banyak kesalahan. Karena tidak adanya keseimbangan etnis dalam model identifikasi wajah, Google Foto, contohnya, melabeli wajah manusia sebagai "gorila" atau Flickr melabelinya sebagai "kera". Contoh lain yang terkenal adalah teknik deteksi saliency Twitter, yang lebih menyukai pemotongan foto dengan wajah putih daripada foto dengan wajah hitam. Zoom juga menerima kritik karena fitur latar belakang virtualnya, yang menghapus kepala seorang profesor kulit hitam tanpa mengenalinya.
Model dan algoritma AI hanya dapat mengidentifikasi dan mengenali hal-hal (atau orang) yang telah dilatih untuk dideteksi dan dikenali. Hampir semua model dan algoritma AI gambar yang saat ini digunakan telah ditraining dan dievaluasi menggunakan data dalam jumlah besar. Membuat database seperti itu membutuhkan banyak usaha dan biaya. Jika model atau algoritma sedang dirancang untuk melayani publik, mereka membutuhkan gambar headshot berkualitas tinggi dari banyak individu yang berbeda dalam hal jenis kelamin dan warna kulit. Sebagian besar engineer lebih suka hanya menggunakan himpunan data dari sumber terbuka atau tertutup di mana sebagian besar pengumpulan data telah dilakukan untuk mereka karena tekanan yang terlibat dalam pembuatan datasets yang begitu besar.
Apa yang mereka abaikan adalah persyaratan untuk data yang memadai pada orang-orang dari hampir setiap jenis kelamin dan warna kulit, meskipun model dan algoritma mereka akan bekerja dengan akurasi yang sangat tinggi. Jika Anda secara eksklusif menggunakan data dari individu kulit putih untuk melatih model dan algoritma, mereka tidak akan efektif saat diterapkan pada orang kulit hitam. Sama halnya dengan jenis kelamin. Memastikan bahwa semua kelompok ras dan gender potensial yang mungkin menggunakan layanan atau produk terwakili dalam training dan pengujian sepenuhnya merupakan tanggung jawab organisasi. Kita akhirnya dapat memiliki sistem, model, atau algoritma objektif dalam AI kognitif setelah masalah ini diselesaikan.
Banyak individu telah menyadari bias kognitif yang ditunjukkan oleh sebagian besar sistem AI dalam beberapa tahun terakhir dan telah mengambil langkah-langkah untuk mendeklarasikannya secara terbuka untuk membuat publik menyadarinya. Sebagai akibatnya, mereka menekan perusahaan yang bertanggung jawab untuk memperbaiki sistem AI mereka.
Ketika latar belakang virtual digunakan, Zoom tidak dapat mengenali wajah orang berkulit hitam dan menghapusnya. Ketika beralih ke latar belakang virtual, pengguna Twitter Colin Madland menemukan bahwa wajah seorang pria kulit hitam telah dihapus menggunakan perangkat lunak pengenalan wajah Zoom.
Twitter menggunakan algoritma pengenalan wajah yang mengedit foto yang diunggah untuk menyorot wajah subjek. Banyak pengguna baru-baru ini mengamati bahwa ketika ada banyak wajah dalam satu foto dengan orang-orang dari ras yang berbeda, algoritma yang memotong gambar memprioritaskan wajah orang berkulit putih.
Sebelumnya pada tahun 2019, VentureBeat menerbitkan tweet tentang prediksi Yann LeCun, Hilary Mason, Andrew Ng, dan Rumman Chowdhury untuk AI pada tahun 2019. Para wanita yang berpartisipasi dalam posting tersebut menemukan bahwa wajah mereka diedit dalam pratinjau gambar. Ini adalah ilustrasi bias gender algoritma Twitter yang terjadi saat ini.
Bias gender dan ras dalam AI memiliki dampak negatif pada kehidupan banyak orang kulit berwarna dan gender yang kurang terwakili selama bertahun-tahun yang saat ini secara aktif ada ke dalam kehidupan sehari-hari. Sistem ini telah membuat banyak perkiraan yang tidak akurat, yang telah menyebabkan banyak orang menghabiskan hidup mereka di penjara, ditolak aksesnya ke layanan tertentu, atau bahkan meninggal dunia.
Prevalensi stock photography, yang terkenal karena mempromosikan prasangka terhadap minoritas dan perempuan, dalam repositori gambar dan hasil pencarian, memperkuat bias ini. Hal ini terjadi secara masif atau seksualitas representasi mereka dalam kategori tertentu atau dengan kurang mewakili mereka dalam kategori umum (seperti pekerjaan, misalnya).
Selain itu, ketidakhadiran mungkin merupakan karakteristik yang menentukan dari beberapa kelas. Menurut temuan penelitian ini, model yang dilatih untuk mengidentifikasi foto sebagai "bola basket" berdasarkan keberadaan orang kulit hitam, meskipun orang kulit putih dan kulit hitam muncul dalam gambar "bola basket" dengan frekuensi yang sebanding dalam satu satset. Terlepas dari kenyataan bahwa data untuk kelas "bola basket" seimbang, beberapa kelas lain memiliki dominasi siswa kulit putih sementara siswa kulit hitam kurang terwakili.
Mengoreksi kumpulan data yang digunakan untuk melatih dan menguji sistem, model, dan algoritme adalah langkah pertama dan paling penting dalam memerangi bias gender dan ras dalam AI kognitif. Prosedur pengumpulan dan penyimpanan data perlu ditinjau kembali, dan tim teknik perlu didiversifikasi. Hal ini dilakukan untuk memastikan bahwa sistemnya kuat dan bahwa mereka menghormati setiap jenis kelamin dan ras orang yang cenderung menggunakan sistem atau model. Anda harus hati-hati memeriksa apakah sistem, model, dan algoritma yang kita terapkan ke produksi telah lulus semua tes yang dapat dilakukan.
Mengingat bahwa ras dan gender adalah konstruksi sosial, semua contoh ini menunjukkan bagaimana kedua penggunaan computer vision ini pada dasarnya bermasalah. Komunitas AI baru-baru ini sampai pada kesimpulan bahwa kedua klasifikasi ini bersifat reduksionis dan dapat secara signifikan mengganggu individu yang dinilai karena mereka bukan kualitas visual yang objektif. Mengadopsi perspektif interseksional dan dekolonial untuk memusatkan komunitas rentan yang terus menderita efek negatif dari kemajuan ilmiah adalah salah satu kunci untuk mengelola masalah bias gender dan rasial dalam AI.