Lebih banyak data memungkinkan analisis yang lebih canggih dan komprehensif. Keragaman meningkatkan kekuatan ini dengan memungkinkan kesimpulan dan prediksi baru dan tak terduga. Selain itu, kecepatan memungkinkan analisis dan berbagi waktu nyata. Aliran data dari ponsel dan perangkat online lainnya meningkatkan volume, keragaman, dan kecepatan data tentang setiap aspek kehidupan kita, membuat privasi menjadi perhatian kebijakan publik global. Tren ini kemungkinan besar akan dipercepat oleh kecerdasan buatan. Pembelajaran mesin dan keputusan algoritma mendorong sebagian besar analisis data sensitif privasi saat ini, seperti algoritma penelusuran, mesin rekomendasi, dan jaringan adtech. Seiring kemajuan kecerdasan buatan,
Teknologi pengenalan wajah memberikan gambaran tentang masalah privasi yang mungkin timbul. Pengenalan wajah telah berkembang pesat dari gambar kucing yang kabur menjadi pengenalan manusia secara cepat (meskipun masih tidak sempurna), berkat database kaya foto digital yang tersedia melalui media sosial, situs web, registrasi SIM, kamera pengintai, dan sumber lainnya. Teknologi pengenalan wajah sedang digunakan di kota-kota dan bandara di seluruh dunia.
Kebijakan AI dan perdebatan privasi saat ini dieksplorasi dalam ringkasan kebijakan ini. Ketika pemerintah menetapkan undang-undang privasi yang komprehensif untuk menutup celah dalam tambal sulam undang-undang privasi federal dan negara bagian saat ini, pemerintah harus memutuskan apakah akan mengatur penggunaan data pribadi dalam sistem kecerdasan buatan atau tidak. Masalah bagi pemerintah adalah untuk menetapkan undang-undang privasi yang melindungi individu dari konsekuensi negatif apa pun dari penggunaan data pribadi AI tanpa menghalangi penelitian AI atau melibatkan undang-undang privasi dalam rawa sosial dan politik yang rumit.
Keterbatasan dan kegagalan sistem AI, seperti kebijakan prediktif yang dapat mempengaruhi minoritas secara tidak proporsional atau eksperimen gagal Amazon dengan algoritma perekrutan yang mereplikasi tenaga kerja laki-laki perusahaan yang ada secara tidak proporsional, sering diangkat dalam konteks perdebatan privasi. Kedua masalah ini serius, tetapi pengaturan privasi cukup sulit tanpa memasukkan semua masalah sosial dan politik yang dapat berkembang dari penggunaan data. Untuk menilai dampak AI pada privasi, penting untuk membedakan antara masalah data yang umum untuk semua AI, seperti terjadinya positif palsu dan negatif atau overfitting pada pola, dan yang unik untuk penggunaan data pribadi.
Keputusan Algoritma mengalihkan perhatian orang dari penggunaan data pribadi di AI. Metode ini berfokus pada bias algoritmik dan kemungkinan algoritma menyebabkan diskriminasi yang melanggar hukum atau tidak disengaja dalam penilaian yang mereka pengaruhi. Ini adalah keprihatinan utama bagi hak-hak sipil dan kelompok advokasi konsumen yang mewakili orang-orang yang didiskriminasi secara tidak adil.
Mengatasi diskriminasi algoritmik menimbulkan kekhawatiran mendasar tentang sejauh mana undang-undang privasi. Untuk memulai, sejauh mana undang-undang dapat atau harus menangani masalah bias algoritmik? Diskriminasi tidak selalu merupakan masalah privasi karena menimbulkan masalah sosial yang luas yang ada bahkan tanpa pengumpulan dan penggunaan data pribadi dan berada di bawah lingkup berbagai undang-undang hak-hak sipil. Selain itu, karena topik politik sensitif yang mereka tangani dan beberapa komite kongres dengan yurisdiksi atas berbagai masalah seperti itu, membawa undang-undang ini tersedia untuk diperdebatkan mungkin secara efektif membuka Kotak Pandora. Meskipun demikian, prasangka masih dipraktikkan berdasarkan karakteristik pribadi seperti warna kulit, orientasi seksual, dan asal negara.
Pendekatan pengumpulan dan pemrosesan data dapat memiliki sejumlah implikasi untuk AI dan diskriminasi algoritmik:
Sejumlah proposal secara khusus membahas subjek, di samping ukuran tertentu dari penerapan umum yang secara tidak langsung dapat mempengaruhi penilaian algoritmik.
Ada dua jenis respons utama terhadap AI yang saat ini diperdebatkan dalam regulasi privasi. Yang pertama adalah serangan langsung terhadap diskriminasi. Orang kulit berwarna, perempuan, agama minoritas, anggota komunitas LGBTQ+, penyandang disabilitas, masyarakat berpenghasilan rendah, imigran, dan populasi rentan lainnya termasuk di antara mereka yang menandatangani surat bersama yang mendesak pemerintah untuk melarang atau memantau penggunaan pribadi informasi dengan efek diskriminatif pada "orang kulit berwarna, perempuan, agama minoritas, anggota komunitas LGBTQ+, penyandang disabilitas, orang yang hidup dengan pendapatan rendah, imigran, dan populasi rentan lainnya. Politik, wilayah, dan undang-undang hak sipil setempat mengizinkan orang untuk mengajukan klaim diskriminasi untuk banyak jenis diskriminasi yang dijelaskan dalam proposal diskriminasi algoritmik. Undang-undang ini tidak boleh dirugikan oleh pencegahan federal atau pembatasan apa pun atas hak pribadi untuk bertindak dalam undang-undang privasi federal.
Strategi kedua mengambil pendekatan risiko yang lebih tidak langsung, dengan langkah-langkah akuntabilitas yang ditujukan untuk mendeteksi diskriminasi dalam penanganan data pribadi. Beberapa kalangan dan dunia usaha, serta sejumlah legislator, telah mengajukan pertanggungjawaban tersebut. Proposal mereka datang dalam berbagai format:
Algoritma pembelajaran mesin rekayasa balik bisa jadi sulit, jika bukan tidak mungkin, dan kesulitan ini bertambah seiring pembelajaran mesin menjadi lebih kuat.
Karena tidak mungkin untuk memprediksi hasil pembelajaran mesin dan penilaian algoritme rekayasa balik, tidak ada ukuran yang dapat menjamin bahwa efek buruk tidak akan terjadi. Akibatnya, masuk akal untuk mengintegrasikan pengukuran untuk bekerja bersama di mana keputusan algoritmik penting. Langkah-langkah lanjutan seperti keterbukaan dan penilaian risiko, yang dikombinasikan dengan pemeriksaan retrospektif audit dan peninjauan keputusan oleh manusia, dapat membantu dalam mengidentifikasi dan mengoreksi hasil yang tidak adil. Ukuran-ukuran ini dapat digunakan untuk membentuk keseluruhan yang lebih besar daripada jumlah bagian-bagiannya. Dengan memberikan bukti dokumenter yang dapat digunakan dalam litigasi, penilaian risiko, transparansi, kemampuan menjelaskan, dan audit akan meningkatkan pemulihan yang ada untuk diskriminasi yang dapat ditindaklanjuti. Namun, karena tidak semua pengambilan keputusan algoritmik bersifat konsekuensial,
Diadaptasi dari: Brookings.Edu