Mengapa Perangkat Lunak Pembaca Emosi Dapat Melanggar Privasi Anda

Daftar Isi:

Mengapa Perangkat Lunak Pembaca Emosi Dapat Melanggar Privasi Anda
Mengapa Perangkat Lunak Pembaca Emosi Dapat Melanggar Privasi Anda
Anonim

Key Takeaways

  • Zoom dilaporkan mengatakan akan menggunakan AI untuk mengevaluasi sentimen atau tingkat keterlibatan pengguna.
  • Kelompok hak asasi manusia meminta Zoom untuk memikirkan kembali rencananya karena masalah privasi dan keamanan data.
  • Beberapa perusahaan juga menggunakan perangkat lunak pendeteksi emosi selama wawancara untuk menilai apakah pengguna memperhatikan.
Image
Image

Meningkatnya penggunaan kecerdasan buatan (AI) untuk memantau emosi manusia menimbulkan masalah privasi.

Organisasi hak asasi manusia meminta Zoom untuk memperlambat rencananya untuk memperkenalkan AI penganalisis emosi ke dalam perangkat lunak konferensi videonya. Perusahaan dilaporkan mengatakan akan menggunakan AI untuk mengevaluasi sentimen atau tingkat keterlibatan pengguna.

"Para ahli mengakui bahwa analisis emosi tidak berhasil," tulis konsorsium kelompok hak asasi manusia, termasuk ACLU, dalam sebuah surat kepada Zoom. "Ekspresi wajah sering kali terputus dari emosi di bawahnya, dan penelitian telah menemukan bahwa bahkan manusia tidak dapat secara akurat membaca atau mengukur emosi orang lain dalam beberapa waktu. Mengembangkan alat ini menambah kepercayaan pada pseudosains dan mempertaruhkan reputasi Anda."

Zoom tidak segera menanggapi permintaan komentar dari Lifewire.

Menjaga Emosi Anda

Menurut artikel Protokol, sistem pemantauan Zoom yang disebut Q for Sales akan memeriksa rasio waktu bicara pengguna, jeda waktu respons, dan perubahan speaker yang sering dilakukan untuk melacak seberapa aktif orang tersebut. Zoom akan menggunakan data ini untuk menetapkan skor antara nol dan 100, dengan skor yang lebih tinggi menunjukkan keterlibatan atau sentimen yang lebih tinggi.

Kelompok hak asasi manusia mengklaim perangkat lunak tersebut dapat mendiskriminasi penyandang disabilitas atau etnis tertentu dengan mengasumsikan bahwa setiap orang menggunakan ekspresi wajah, pola suara, dan bahasa tubuh yang sama untuk berkomunikasi. Grup juga menyarankan perangkat lunak dapat menjadi risiko keamanan data.

Image
Image

"Memanen data pribadi yang mendalam dapat membuat entitas apa pun yang menyebarkan teknologi ini menjadi target untuk mengintai otoritas pemerintah dan peretas jahat," menurut surat itu.

Julia Stoyanovich, seorang profesor ilmu komputer dan teknik di Universitas New York, mengatakan kepada Lifewire dalam sebuah wawancara email bahwa dia skeptis tentang klaim di balik deteksi emosi.

"Saya tidak melihat bagaimana teknologi seperti itu dapat bekerja-ekspresi emosional orang sangat individual, sangat bergantung pada budaya, dan sangat spesifik pada konteks," kata Stoyanovich."Tapi, mungkin yang lebih penting, saya tidak mengerti mengapa kita ingin alat ini bekerja. Dengan kata lain, kita akan berada dalam lebih banyak masalah jika mereka bekerja dengan baik. Tapi mungkin bahkan sebelum memikirkan risikonya, kita harus tanya-apa manfaat potensial dari teknologi seperti itu?"

Zoom bukan satu-satunya perusahaan yang menggunakan perangkat lunak pendeteksi emosi. Theo Wills, direktur senior privasi di Kuma LLC, sebuah perusahaan konsultan privasi dan keamanan, mengatakan kepada Lifewire melalui email bahwa perangkat lunak untuk mendeteksi emosi digunakan selama wawancara untuk menilai apakah pengguna memperhatikan. Ini juga sedang diujicobakan di industri transportasi untuk memantau apakah pengemudi terlihat mengantuk, di platform video untuk mengukur minat dan menyesuaikan rekomendasi, dan dalam tutorial pendidikan untuk menentukan apakah metode pengajaran tertentu menarik.

Wills berpendapat bahwa kontroversi seputar perangkat lunak pemantau emosi lebih merupakan masalah etika data daripada privasi. Dia mengatakan ini tentang sistem yang membuat keputusan dunia nyata berdasarkan firasat.

"Dengan teknologi ini, Anda sekarang mengasumsikan alasan saya memiliki ekspresi tertentu di wajah saya, tetapi dorongan di balik ekspresi sangat bervariasi karena hal-hal seperti pendidikan sosial atau budaya, perilaku keluarga, pengalaman masa lalu, atau kegugupan saat ini," tambah Wills. "Mendasarkan algoritme pada asumsi secara inheren cacat dan berpotensi diskriminatif. Banyak populasi tidak terwakili dalam populasi yang menjadi dasar algoritme, dan representasi yang tepat perlu diprioritaskan sebelum ini digunakan."

Pertimbangan Praktis

Masalah yang diangkat oleh perangkat lunak pelacakan emosi mungkin bersifat praktis dan juga teoretis. Matt Heisie, salah satu pendiri Ferret.ai, aplikasi berbasis AI yang menyediakan kecerdasan hubungan, mengatakan kepada Lifewire dalam email bahwa pengguna perlu bertanya di mana analisis wajah dilakukan dan data apa yang disimpan. Apakah studi dilakukan pada rekaman panggilan, diproses di cloud, atau di perangkat lokal?

Juga, Heisie bertanya, saat algoritme mempelajari, data apa yang dikumpulkannya tentang wajah atau gerakan seseorang yang berpotensi dapat dipisahkan dari algoritme dan digunakan untuk membuat ulang biometrik seseorang? Apakah perusahaan menyimpan snapshot untuk memverifikasi atau memvalidasi pembelajaran algoritme, dan apakah pengguna diberi tahu tentang data turunan baru ini atau gambar tersimpan yang berpotensi dikumpulkan dari panggilan mereka?

"Ini semua adalah masalah yang diselesaikan banyak perusahaan, tetapi ada juga perusahaan yang diguncang skandal ketika ternyata mereka tidak melakukannya dengan benar," kata Heisie. "Facebook adalah kasus paling signifikan dari sebuah perusahaan yang menghentikan platform pengenalan wajahnya karena kekhawatiran tentang privasi pengguna. Perusahaan induk Meta sekarang menarik fitur AR dari Instagram di beberapa yurisdiksi seperti Illinois dan Texas karena undang-undang privasi seputar data biometrik."

Direkomendasikan: