Cara Melindungi Privasi di Dunia yang Digerakkan oleh AI

Isu privasi dan perlindungan data merupakan hal yang saat ini sedang dipersoalkan oleh banyak orang. Perkembangan kecerdasan buatan dan meluasnya penggunaan akses data membuat batas-batas privasi data menjadi kabur. Menyikapi hal tersebut diperlukan strategi dalam menyikapi pengelolaan privasi yang baik di tengah perkembangan teknologi AI yang semakin tak terbatas.
April 28, 2022

Lebih banyak data memungkinkan analisis yang lebih canggih dan komprehensif. Keragaman meningkatkan kekuatan ini dengan memungkinkan kesimpulan dan prediksi baru dan tak terduga. Selain itu, kecepatan memungkinkan analisis dan berbagi waktu nyata. Aliran data dari ponsel dan perangkat online lainnya meningkatkan volume, keragaman, dan kecepatan data tentang setiap aspek kehidupan kita, membuat privasi menjadi perhatian kebijakan publik global. Tren ini kemungkinan besar akan dipercepat oleh kecerdasan buatan. Pembelajaran mesin dan keputusan algoritma mendorong sebagian besar analisis data sensitif privasi saat ini, seperti algoritma penelusuran, mesin rekomendasi, dan jaringan adtech. Seiring kemajuan kecerdasan buatan,

Masalah Privasi di Dunia AI

Teknologi pengenalan wajah memberikan gambaran tentang masalah privasi yang mungkin timbul. Pengenalan wajah telah berkembang pesat dari gambar kucing yang kabur menjadi pengenalan manusia secara cepat (meskipun masih tidak sempurna), berkat database kaya foto digital yang tersedia melalui media sosial, situs web, registrasi SIM, kamera pengintai, dan sumber lainnya. Teknologi pengenalan wajah sedang digunakan di kota-kota dan bandara di seluruh dunia.

Kebijakan AI dan perdebatan privasi saat ini dieksplorasi dalam ringkasan kebijakan ini. Ketika pemerintah menetapkan undang-undang privasi yang komprehensif untuk menutup celah dalam tambal sulam undang-undang privasi federal dan negara bagian saat ini, pemerintah harus memutuskan apakah akan mengatur penggunaan data pribadi dalam sistem kecerdasan buatan atau tidak. Masalah bagi pemerintah adalah untuk menetapkan undang-undang privasi yang melindungi individu dari konsekuensi negatif apa pun dari penggunaan data pribadi AI tanpa menghalangi penelitian AI atau melibatkan undang-undang privasi dalam rawa sosial dan politik yang rumit. 

Keterbatasan dan kegagalan sistem AI, seperti kebijakan prediktif yang dapat mempengaruhi minoritas secara tidak proporsional atau eksperimen gagal Amazon dengan algoritma perekrutan yang mereplikasi tenaga kerja laki-laki perusahaan yang ada secara tidak proporsional, sering diangkat dalam konteks perdebatan privasi. Kedua masalah ini serius, tetapi pengaturan privasi cukup sulit tanpa memasukkan semua masalah sosial dan politik yang dapat berkembang dari penggunaan data. Untuk menilai dampak AI pada privasi, penting untuk membedakan antara masalah data yang umum untuk semua AI, seperti terjadinya positif palsu dan negatif atau overfitting pada pola, dan yang unik untuk penggunaan data pribadi.

Masalah Keputusan Algoritma

Keputusan Algoritma mengalihkan perhatian orang dari penggunaan data pribadi di AI. Metode ini berfokus pada bias algoritmik dan kemungkinan algoritma menyebabkan diskriminasi yang melanggar hukum atau tidak disengaja dalam penilaian yang mereka pengaruhi. Ini adalah keprihatinan utama bagi hak-hak sipil dan kelompok advokasi konsumen yang mewakili orang-orang yang didiskriminasi secara tidak adil.

Mengatasi diskriminasi algoritmik menimbulkan kekhawatiran mendasar tentang sejauh mana undang-undang privasi. Untuk memulai, sejauh mana undang-undang dapat atau harus menangani masalah bias algoritmik? Diskriminasi tidak selalu merupakan masalah privasi karena menimbulkan masalah sosial yang luas yang ada bahkan tanpa pengumpulan dan penggunaan data pribadi dan berada di bawah lingkup berbagai undang-undang hak-hak sipil. Selain itu, karena topik politik sensitif yang mereka tangani dan beberapa komite kongres dengan yurisdiksi atas berbagai masalah seperti itu, membawa undang-undang ini tersedia untuk diperdebatkan mungkin secara efektif membuka Kotak Pandora. Meskipun demikian, prasangka masih dipraktikkan berdasarkan karakteristik pribadi seperti warna kulit, orientasi seksual, dan asal negara.

Pendekatan pengumpulan dan pemrosesan data dapat memiliki sejumlah implikasi untuk AI dan diskriminasi algoritmik:

  • Penggunaan pengambilan keputusan algoritmik dapat diterangi oleh keterbukaan data atau persyaratan pengungkapan, serta hak individu untuk mengakses informasi tentang diri mereka sendiri.
  • Kewajiban penatagunaan data, seperti kewajiban keadilan dan loyalitas, dapat menghalangi penggunaan informasi pribadi dengan cara yang berbahaya atau tidak adil bagi orang-orang yang memiliki data tersebut.
  • Kebijakan tata kelola data yang mengamanatkan penunjukan petugas privasi, penyelesaian studi dampak privasi, atau pembuatan produk menggunakan "privacy by design" dapat menimbulkan kekhawatiran tentang penggunaan algoritma.
  • Aturan pengumpulan dan pembagian data dapat membatasi agregasi data yang memungkinkan inferensi dan prediksi, tetapi aturan tersebut dapat mengorbankan manfaat kumpulan data yang besar dan beragam.

Sejumlah proposal secara khusus membahas subjek, di samping ukuran tertentu dari penerapan umum yang secara tidak langsung dapat mempengaruhi penilaian algoritmik.

Perlindungan Privasi

Ada dua jenis respons utama terhadap AI yang saat ini diperdebatkan dalam regulasi privasi. Yang pertama adalah serangan langsung terhadap diskriminasi. Orang kulit berwarna, perempuan, agama minoritas, anggota komunitas LGBTQ+, penyandang disabilitas, masyarakat berpenghasilan rendah, imigran, dan populasi rentan lainnya termasuk di antara mereka yang menandatangani surat bersama yang mendesak pemerintah untuk melarang atau memantau penggunaan pribadi informasi dengan efek diskriminatif pada "orang kulit berwarna, perempuan, agama minoritas, anggota komunitas LGBTQ+, penyandang disabilitas, orang yang hidup dengan pendapatan rendah, imigran, dan populasi rentan lainnya. Politik, wilayah, dan undang-undang hak sipil setempat mengizinkan orang untuk mengajukan klaim diskriminasi untuk banyak jenis diskriminasi yang dijelaskan dalam proposal diskriminasi algoritmik. Undang-undang ini tidak boleh dirugikan oleh pencegahan federal atau pembatasan apa pun atas hak pribadi untuk bertindak dalam undang-undang privasi federal.

Strategi kedua mengambil pendekatan risiko yang lebih tidak langsung, dengan langkah-langkah akuntabilitas yang ditujukan untuk mendeteksi diskriminasi dalam penanganan data pribadi. Beberapa kalangan dan dunia usaha, serta sejumlah legislator, telah mengajukan pertanggungjawaban tersebut. Proposal mereka datang dalam berbagai format:

  • Transparansi: mengacu pada publikasi informasi tentang penggunaan pengambilan keputusan algoritmik. Sementara sebagian besar konsumen tidak tertarik pada kebijakan privasi yang panjang dan terperinci, mereka memberikan tolok ukur kepada regulator dan pengawas privasi lainnya untuk mengevaluasi manajemen data perusahaan dan meminta pertanggungjawabannya. Fungsi tolok ukur ini dapat ditingkatkan dengan mengganti kebijakan privasi saat ini dengan "pengungkapan privasi", yang menuntut penjelasan rinci tentang apa dan bagaimana data dikumpulkan, digunakan, dan dilindungi. Akibatnya, memastikan bahwa pengungkapan ini mengungkapkan penggunaan utama data pribadi untuk pilihan algoritmik akan membantu pengawas dan konsumen dalam mengidentifikasi potensi masalah.
  • Penjelasan: Transparansi memberikan peringatan awal tentang pengambilan keputusan algoritmik, sedangkan kemampuan menjelaskan memberikan informasi tentang penggunaan algoritma dalam keputusan tertentu setelah fakta. Ini termasuk komponen "manusia dalam lingkaran" serta elemen proses yang semestinya untuk mencegah hasil yang tidak wajar atau tidak adil. Rasa keadilan menentukan bahwa katup pengaman semacam itu tersedia untuk penilaian algoritmik yang memiliki pengaruh signifikan pada kehidupan masyarakat. Perlu penjelasan. 
  • (1) identifikasi penilaian algoritmik, 
  • (2) dekonstruksi keputusan tertentu, dan 
  • (3) pembentukan saluran melalui mana seseorang dapat mencari penjelasan.

Algoritma pembelajaran mesin rekayasa balik bisa jadi sulit, jika bukan tidak mungkin, dan kesulitan ini bertambah seiring pembelajaran mesin menjadi lebih kuat.

  • Audit: Audit digunakan untuk meninjau praktik privasi setelah terjadi. Sebagian besar proposal undang-undang menyertakan langkah-langkah akuntabilitas dasar, seperti audit mandiri atau audit pihak ketiga, untuk memastikan bahwa perusahaan mematuhi prosedur privasi mereka. Mengaudit konsekuensi dari pengambilan keputusan algoritmik, bila dikombinasikan dengan penilaian risiko proaktif, dapat membantu mencocokkan tinjauan ke masa depan dengan tinjauan ke belakang; namun, mengaudit rutinitas pembelajaran mesin, seperti kemampuan untuk dijelaskan, adalah kompleks dan terus berkembang.
  • Penilaian risiko: Penilaian risiko pertama kali dikembangkan sebagai "penilaian dampak privasi" di dalam pemerintah federal di bawah Undang-Undang Privasi 1974. Evaluasi risiko untuk pengambilan keputusan algoritmik memungkinkan deteksi potensi desain dan bias data, serta dampaknya pada orang. Tingkat penilaian risiko harus sesuai dengan relevansi pengambilan keputusan yang bersangkutan, yang ditentukan oleh implikasi dari keputusan, jumlah individu dan volume data yang berpotensi terpengaruh, dan kebaruan dan kompleksitas pemrosesan algoritmik.

Kesimpulan

Karena tidak mungkin untuk memprediksi hasil pembelajaran mesin dan penilaian algoritme rekayasa balik, tidak ada ukuran yang dapat menjamin bahwa efek buruk tidak akan terjadi. Akibatnya, masuk akal untuk mengintegrasikan pengukuran untuk bekerja bersama di mana keputusan algoritmik penting. Langkah-langkah lanjutan seperti keterbukaan dan penilaian risiko, yang dikombinasikan dengan pemeriksaan retrospektif audit dan peninjauan keputusan oleh manusia, dapat membantu dalam mengidentifikasi dan mengoreksi hasil yang tidak adil. Ukuran-ukuran ini dapat digunakan untuk membentuk keseluruhan yang lebih besar daripada jumlah bagian-bagiannya. Dengan memberikan bukti dokumenter yang dapat digunakan dalam litigasi, penilaian risiko, transparansi, kemampuan menjelaskan, dan audit akan meningkatkan pemulihan yang ada untuk diskriminasi yang dapat ditindaklanjuti. Namun, karena tidak semua pengambilan keputusan algoritmik bersifat konsekuensial,

Diadaptasi dari: Brookings.Edu

Diterjemahkan oleh Denny Fardian
contact us

Siap mempercepat transformasi digital pada bisnis Anda?

Kirim email Anda dan kami akan menjawab seluruh pertanyaan Anda tentang produk dan layanan kami.
HUBUNGI KAMI