Mengapa Facebook Membutuhkan Aturan Misinformasi yang Lebih Jelas

Daftar Isi:

Mengapa Facebook Membutuhkan Aturan Misinformasi yang Lebih Jelas
Mengapa Facebook Membutuhkan Aturan Misinformasi yang Lebih Jelas
Anonim

Key Takeaways

  • Dewan Pengawas Facebook telah meminta aturan misinformasi yang lebih jelas di situs media sosial.
  • Dewan saat ini telah membatalkan beberapa keputusan yang dibuat oleh Facebook untuk menghapus postingan yang dianggap sebagai informasi yang salah atau ujaran kebencian tetapi sebenarnya tidak demikian.
  • Perlu definisi yang lebih jelas tentang apa yang bisa dan tidak informasi yang salah atau ujaran kebencian diperlukan, terutama dengan jangkauan internasional Facebook.
Image
Image

Dewan pengawasan Facebook, yang dibentuk untuk mengawasi lebih lanjut penghapusan dan moderasi postingan di situs web, telah membatalkan beberapa keputusan sebelumnya yang dibuat terkait postingan yang dihapus, menjelaskan kebutuhan akan definisi dan aturan yang lebih jelas.

Dewan pengawas menangani lima kasus pertamanya pada Desember 2020. Sementara salah satu pos yang termasuk dalam tinjauan berasal dari AS, semuanya berasal dari empat benua yang berbeda, yang semuanya dapat melihat pernyataan yang dibuat di cara yang sama sekali berbeda. Karena itu, kebijakan yang diterapkan Facebook harus ringkas dan perlu bekerja dengan komunitas apa pun yang mungkin menjadi fokus alat moderasi.

"Aktivitas 'peninjauan independen' Facebook harus konsisten lintas batas internasional," Jim Isaak, mantan ketua Institute of Electrical and Electronics Engineers, dan veteran industri teknologi selama 30 tahun, menulis kepada kami melalui surel. "Tapi apa yang dimaksud dengan 'hate speech' di AS mungkin didefinisikan sebagai patriotik di masyarakat otokratis lainnya-meningkatkan kompleksitas dari apa yang dilakukan."

Garis di Pasir

Kebutuhan akan konsistensi dan aturan yang lebih ringkas ini sudah mulai berlaku. Dari lima kasus yang diambil oleh dewan pengawas Facebook pada bulan Desember, kelompok tersebut memutuskan untuk membatalkan empat kasus, dengan dua di antaranya jelas menunjukkan perlunya moderasi yang lebih baik.

Dalam salah satu kasus yang dibatalkan, dewan memutuskan mendukung seorang wanita yang postingan Instagramnya tentang kanker payudara dihapus dari situs web secara otomatis karena melanggar kebijakan ketelanjangan dewasa dan aktivitas seksualnya.

Sementara Facebook telah memulihkan foto tersebut, dewan direksi menunjukkan keberatan atas penghapusan foto tersebut. Dewan bahkan merekomendasikan agar Facebook menerapkan sistem banding yang memungkinkan pengguna untuk melihat kapan sebuah postingan dihapus, mengapa dihapus, dan bahkan menyarankan cara untuk berbicara dengan manusia untuk mencari solusi.

Image
Image

Papan menemukan bahwa, meskipun wanita tersebut telah membagikan postingan yang menampilkan puting wanita yang terbuka dan terlihat, foto tersebut tidak melanggar Pedoman Komunitas Instagram. Standar Ketelanjangan Dewasa dan Aktivitas Seksual yang dijunjung Facebook dalam standar komunitasnya memungkinkan ketelanjangan saat pengguna berusaha meningkatkan kesadaran karena alasan medis atau penyebab lainnya.

Postingan lain, yang dibagikan dari Myanmar, termasuk bahasa tentang Muslim yang menurut dewan dapat dianggap ofensif, tetapi tidak mencapai tingkat ujaran kebencian untuk membenarkannya dihapus atau dianggap melanggar aturan.

Di sinilah segalanya mulai menjadi sangat rumit.

Jalan Mana Yang Naik?

"Facebook beroperasi secara internasional," kata Isaak kepada Lifewire melalui email. "Setiap yurisdiksi memiliki aturannya sendiri, dan Facebook dapat dimintai pertanggungjawaban di bawah aturan di negara lain."

Facebook harus mengingat semua aturan wilayah tempat ia beroperasi saat menyiapkan kebijakan baru. Dengan membuat kebijakan tidak jelas, Facebook meninggalkan ruang untuk kesalahan yang dapat menyebabkan dewan pengawas perlu membatalkan lebih banyak kasus di masa mendatang.

Dengan penyebaran ujaran kebencian dan informasi yang salah menjadi begitu umum-terutama di media sosial seperti Facebook dan Twitter-penting bagi perusahaan-perusahaan ini untuk menawarkan pedoman yang jelas yang kemudian dapat digunakan untuk memoderasi komunitas.

Apa yang dimaksud dengan 'hate speech' di AS mungkin didefinisikan sebagai patriotik di masyarakat otokratis lainnya…

Tentu saja, selalu ada opsi lain untuk membantu mengurangi masalah seperti ini. Faktanya, salah satu kasus yang awalnya dimaksudkan untuk diawasi oleh dewan pada bulan Desember telah dihapus dari map setelah penghapusan pos oleh pengguna.

Moderasi buatan pengguna adalah sesuatu yang telah kami lihat berhasil di situs web seperti Wikipedia, dan baru-baru ini Twitter, sendiri, meningkatkan dengan merilis Birdwatch, sistem moderasi yang didukung komunitas untuk membantu menghentikan penyebaran informasi yang salah.

Metode ini memiliki masalah lain, itulah sebabnya mendapatkan dasar standar untuk harapan komunitas akan menjadi kunci agar Facebook menawarkan moderasi yang lebih baik untuk aplikasi dan situs webnya di masa mendatang.

Direkomendasikan: