Mengapa Perangkat Lunak Profil Baru Menimbulkan Masalah Privasi

Daftar Isi:

Mengapa Perangkat Lunak Profil Baru Menimbulkan Masalah Privasi
Mengapa Perangkat Lunak Profil Baru Menimbulkan Masalah Privasi
Anonim

Key Takeaways

  • Perangkat lunak yang menggunakan kecerdasan buatan untuk membuat profil orang menimbulkan masalah privasi.
  • Cryfe menggabungkan teknik analisis perilaku dengan kecerdasan buatan.
  • Perusahaan China Alibaba baru-baru ini menghadapi kritik setelah dilaporkan mengatakan bahwa perangkat lunaknya dapat mendeteksi Uighur dan etnis minoritas lainnya.
Image
Image

Perangkat lunak baru yang didukung oleh kecerdasan buatan yang ditujukan bagi pemberi kerja untuk membuat profil karyawan mereka menimbulkan masalah privasi.

Satu platform perangkat lunak baru, yang disebut Cryfe, menggabungkan teknik analisis perilaku dengan kecerdasan buatan. Pengembang mengklaim bahwa dengan menganalisis petunjuk kecil, perangkat lunak dapat mengungkapkan niat orang selama wawancara. Tetapi beberapa pengamat mengatakan bahwa Cryfe dan jenis perangkat lunak lain yang menganalisis perilaku dapat mengganggu privasi.

"Perusahaan semakin mengandalkan AI untuk pembuatan profil," kata pakar AI Vaclav Vincale dalam sebuah wawancara email. "Tetapi bahkan orang yang mengkodekan algoritme ini, apalagi orang dukungan pelanggan yang Anda hubungi di telepon, tidak dapat memberi tahu Anda mengapa mereka membuat rekomendasi yang diberikan."

Lebih dari Kata

Cryfe dikembangkan oleh perusahaan Swiss yang karyawannya dilatih oleh FBI dalam teknik pembuatan profil. "Cryfe, dalam semua komunikasi interpersonal, tidak hanya mendengarkan kata-kata, tetapi mengidentifikasi sinyal lain yang dipancarkan oleh manusia seperti emosi, ekspresi mikro, dan semua gerakan," kata Caroline Matteucci, pendiri Cryfe, dalam sebuah wawancara email.

"Selama perekrutan, misalnya, ini memungkinkan kita untuk pergi dan mencari kepribadian sebenarnya dari lawan bicara kita."

Matteucci mengatakan privasi pengguna dilindungi karena perusahaan transparan tentang cara kerja perangkat lunaknya. "Pengguna, sebelum dapat menggunakan platform, harus menerima persyaratan umum," katanya.

"Ditentukan di sana bahwa pengguna tidak boleh mengirimkan wawancara untuk analisis tanpa menerima persetujuan tertulis dari lawan bicaranya."

Cryfe bukan satu-satunya perangkat lunak bertenaga AI yang dimaksudkan untuk menganalisis perilaku manusia. Ada juga Humantic, yang mengklaim dapat menganalisis perilaku konsumen. "Teknologi pemecah jalur Humantic memprediksi perilaku setiap orang tanpa mereka perlu mengikuti tes kepribadian," menurut situs web perusahaan.

Image
Image

Perusahaan mengklaim menggunakan AI untuk membuat profil psikologis pelamar berdasarkan kata-kata yang mereka gunakan dalam resume, surat lamaran, profil LinkedIn, dan teks lainnya yang mereka kirimkan.

Perangkat lunak perilaku telah menghadapi tantangan hukum di masa lalu. Pada tahun 2019, Bloomberg Law melaporkan bahwa Equal Employment Opportunity Commission (EEOC) menyelidiki kasus dugaan diskriminasi yang melanggar hukum karena keputusan terkait SDM yang dibantu algoritme.

"Ini semua harus diselesaikan karena masa depan perekrutan adalah AI," kata pengacara Bradford Newman kepada Bloomberg.

Beberapa pengamat mempermasalahkan perusahaan yang menggunakan perangkat lunak pelacakan perilaku karena tidak cukup akurat. Dalam sebuah wawancara, Nigel Duffy, pemimpin kecerdasan buatan global di perusahaan layanan profesional EY, mengatakan kepada InformationWeek bahwa dia terganggu oleh perangkat lunak yang menggunakan kuis media sosial dan memengaruhi deteksi.

"Saya pikir ada beberapa literatur yang sangat menarik tentang potensi deteksi pengaruh, tetapi pemahaman saya adalah bahwa cara yang diterapkan seringkali agak naif," katanya.

"Orang-orang menarik kesimpulan bahwa sains tidak benar-benar mendukung [seperti] memutuskan seseorang berpotensi menjadi karyawan yang baik karena mereka banyak tersenyum atau memutuskan bahwa seseorang menyukai produk Anda karena mereka banyak tersenyum."

Perusahaan China Dilaporkan Profil Minoritas

Pelacakan perilaku juga bisa memiliki tujuan yang lebih jahat, kata beberapa kelompok hak asasi manusia. Di Cina, raksasa pasar online Alibaba baru-baru ini membuat kehebohan setelah dilaporkan mengklaim bahwa perangkat lunaknya dapat mendeteksi Uighur dan etnis minoritas lainnya.

The New York Times melaporkan bahwa bisnis komputasi awan perusahaan memiliki perangkat lunak yang akan memindai gambar dan video.

Tetapi bahkan manusia yang mengkodekan algoritme ini…tidak dapat memberi tahu Anda mengapa mereka membuat rekomendasi tertentu.

The Washington Post juga baru-baru ini melaporkan bahwa Huawei, perusahaan teknologi China lainnya, telah menguji perangkat lunak yang dapat memperingatkan penegak hukum ketika kamera pengintainya mendeteksi wajah-wajah Uighur.

Sebuah aplikasi paten 2018 oleh Huawei dilaporkan mengklaim bahwa "identifikasi atribut pejalan kaki sangat penting" dalam teknologi pengenalan wajah."Atribut objek target bisa jenis kelamin (laki-laki, perempuan), umur (seperti remaja, setengah baya, tua) [atau] ras (Han, Uyghur)," kata aplikasi.

Seorang juru bicara Huawei mengatakan kepada CNN Business bahwa fitur identifikasi etnis seharusnya "tidak pernah menjadi bagian dari aplikasi."

Penggunaan kecerdasan buatan yang berkembang untuk memilah-milah sejumlah besar data pasti akan meningkatkan masalah privasi. Anda mungkin tidak akan pernah tahu siapa atau apa yang menganalisis Anda saat Anda mengikuti wawancara kerja.

Direkomendasikan: