Pembatasan Usia Baru YouTube, AI Mengkhawatirkan Komunitas LGBTQ+

Daftar Isi:

Pembatasan Usia Baru YouTube, AI Mengkhawatirkan Komunitas LGBTQ+
Pembatasan Usia Baru YouTube, AI Mengkhawatirkan Komunitas LGBTQ+
Anonim

Key Takeaways

  • Perangkat lunak pembatasan usia otomatis YouTube menimbulkan kekhawatiran terkait konten LGBTQ+ di platform.
  • Perusahaan telah dirusak oleh kontroversi mengenai pembuat konten LGBTQ+ yang memperkuat keraguan.
  • Bias dalam pembelajaran mesin mendukung gagasan bahwa penerapan filter yang tidak sempurna kemungkinan akan membatasi akses secara tidak adil.
Image
Image

Dengan sejarah penargetan yang tidak adil kepada pembuat konten LGBTQ+ dalam proses moderasinya, teknologi baru berbasis AI YouTube dipandang sebagai langkah berikutnya yang meresahkan bagi raksasa teknologi tersebut.

Di blog resmi YouTube minggu lalu, platform berbagi video tersebut mengungkapkan rencana untuk merilis perangkat lunak otomatis baru untuk "menerapkan batasan usia secara lebih konsisten" pada video yang dianggap tidak pantas untuk pemirsa yang lebih muda.

Termotivasi oleh kekhawatiran baru-baru ini tentang anak-anak di aplikasi, sistem baru ini didasarkan pada perangkat lunak kecerdasan buatan pembelajaran mesin dengan kemampuan untuk mengabaikan moderator manusia untuk proses yang lebih otomatis. Masalah? Sistem otomatis YouTube telah dituduh memilih konten dan pembuat konten LGBTQ+ hanya untuk yang sudah ada.

Bahkan jika itu tidak berbahaya, yang menurut saya tidak berbahaya, itu adalah kurangnya masukan dari beragam suara-atau setidaknya kurangnya rasa hormat.

"Pembelajaran mesin diinformasikan oleh dan dibuat oleh manusia, dan ada kemungkinan untuk memiliki bias yang melekat di dalamnya atau dipelajari oleh mesin itu sendiri," kata YouTuber Rowan Ellis dalam wawancara telepon dengan Lifewire. "Biasnya terkait konten [LGBTQ+] telah terbukti dalam pengalaman YouTuber [LGBTQ+] sebelumnya, dan saya belum melihat bukti bahwa apa pun telah dilakukan untuk menghentikannya."

Sayang, Sekarang Darah Kita Buruk

Ellis adalah seorang YouTuber yang membuat konten pendidikan dengan kecenderungan feminis dan queer, dan pada tahun 2017 ia memublikasikan video tentang mode terbatas perusahaan. Sebagai langkah awal ke moderasi konten otomatis, mode ini memungkinkan pengguna untuk secara opsional menyaring "konten yang berpotensi dewasa" dari saran dan rekomendasi pencarian.

Mengumpulkan lebih dari 100.000 penayangan, dia yakin ada upaya sadar untuk mencegah salurannya dari pembatasan karena penentangannya yang vokal terhadap ekses langkah baru YouTube menuju moderasi. Pengguna lain di platform tidak seberuntung itu, dan mereka membuat YouTube mengetahuinya.

Gugatan class action terhadap YouTube diajukan pada Agustus 2019 oleh sekelompok delapan pembuat konten LGBTQ+ yang menuduh perusahaan Lembah Silikon itu membatasi pembuat dan konten video queer dan trans. Gugatan tersebut menuduh situs tersebut menggunakan "peraturan konten yang melanggar hukum, distribusi, dan praktik monetisasi yang menstigmatisasi, membatasi, memblokir, mendemonstrasikan, dan secara finansial merugikan Penggugat LGBT dan Komunitas LGBT yang lebih besar." Ini masih berjalan melalui pengadilan California.

Pembelajaran mesin diinformasikan oleh dan dibuat oleh manusia, dan bias tersebut mungkin ada di dalamnya atau dipelajari oleh mesin itu sendiri.

Pada bulan Juni di tahun yang sama, platform tersebut menerima banyak perhatian media setelah menolak dengan cepat menegur komentator konservatif populer Steven Crowder selama berbulan-bulan, kampanye pelecehan homofobia terhadap jurnalis Vox dan pembawa acara Carlos Maza. Ini memperkuat apa yang dikatakan Ellis sebagai pola dengan platform online yang mengabaikan tantangan unik yang dihadapi pembuat queer. Kurangnya kepercayaan kreator LGBTQ+ terhadap kemampuan YouTube untuk muncul bukan tanpa alasan.

"Saya rasa mereka belum memahami perlunya transparansi terkait isu-isu sosial dan memastikan kesetaraan," katanya. "Masih ada anak-anak di seluruh dunia yang tumbuh dengan gagasan bahwa menjadi gay itu salah, dan ketika mereka mulai mempertanyakan kepercayaan itu, tetapi menemukan itu ditutup oleh pencarian atau pembatasan yang aman, itu akan memperkuat gagasan bahwa itu salah, tidak pantas, dewasa, sesat, dan kotor."

Gagal Belajar Otomatis

Dengan sejarah buruknya tentang pembuat konten LGBTQ+ di platformnya, kekhawatiran tentang penerapan kemampuan perangkat lunak pembelajaran mesin untuk membedakan norma yang lebih besar masih membayangi. Don Heider, Direktur Eksekutif di Markkula Center for Applied Ethics, menyarankan potensi kebodohan adalah risiko yang terlalu besar untuk dipertaruhkan.

"Sulit dipercaya bahwa AI dapat secara efektif mengatur konten dari berbagai negara dengan norma dan standar budaya yang berbeda," tulisnya dalam wawancara email. "AI terlalu sering dilihat sebagai jawaban atas pertanyaan kompleks. Pada titik ini, AI dan cara pembuatannya berjuang untuk menangani tugas-tugas sederhana sekalipun, apalagi moderasi konten apa pun dengan tingkat kerumitan apa pun."

YouTube memutuskan penggunaan teknologi AI karena kurangnya moderasi yang konsisten oleh moderator manusia, menurut blognya. Meningkatkan penggunaan filter terkomputerisasi untuk menghapus video yang dianggap tidak sesuai menjadi norma, dan menerapkan prosedur yang sama untuk kebijakan pembatasan usia dipandang sebagai langkah logis berikutnya.

Sebagai perusahaan yang berusaha meningkatkan prosesnya secara bertahap setelah dikritik lama terkait hubungannya dengan konsumen anak, keputusan ini tidak mengejutkan.

Saya rasa mereka tidak memahami perlunya transparansi terkait masalah sosial dan memastikan kesetaraan.

Anak-anak telah menjadi demografi utama situs berbagi video. Pada bulan Agustus, perusahaan analitik video digital Tubular menemukan bahwa, selain video musik, konten yang ditujukan untuk anak-anak menduduki puncak daftar akhir bulan untuk video yang paling banyak ditonton di YouTube.

Ketertarikan perusahaan dalam melindungi pembangkit tenaga listrik yang menguntungkan dan muncul di platform ini masuk akal. Namun, alat yang digunakan untuk menegakkan perlindungan ini tetap tidak nyaman bagi mereka yang telah berada di bawah prosedur moderasi perusahaan.

"Kekhawatiran saya adalah bahwa hal itu akan banyak merugikan dan tidak melindungi pemuda [LGBTQ+] yang membutuhkan konten informatif, jujur, dan jujur yang mungkin disediakan oleh banyak YouTuber [LGBTQ+], tetapi ditandai di sistemnya sebagai tidak pantas, "kata Ellis."Bahkan jika itu tidak berbahaya, yang menurut saya tidak, itu adalah kurangnya masukan dari beragam suara-atau setidaknya kurangnya rasa hormat.

"Kami melihat itu sepanjang waktu di bidang teknologi. Ketika Anda melihat pengenalan wajah yang gagal membedakan wajah Hitam yang berbeda, atau ketika kami melihat obat-obatan dan melihat bahwa obat-obatan hanya diuji pada jenis kelamin tertentu. Ini adalah percakapan yang lebih besar, dan YouTube tidak terkecuali dari itu."