AI Akhirnya Dapat Membantu Menindak Ujaran Kebencian

Daftar Isi:

AI Akhirnya Dapat Membantu Menindak Ujaran Kebencian
AI Akhirnya Dapat Membantu Menindak Ujaran Kebencian
Anonim

Key Takeaways

  • Alat perangkat lunak baru memungkinkan AI memantau komentar internet untuk ujaran kebencian.
  • AI diperlukan untuk memoderasi konten internet karena volume materi yang sangat besar yang melampaui kemampuan manusia.
  • Tetapi beberapa ahli mengatakan bahwa pemantauan ucapan AI menimbulkan masalah privasi.
Image
Image

Seiring meningkatnya ujaran kebencian online, satu perusahaan mengatakan mungkin memiliki solusi yang tidak bergantung pada moderator manusia.

Sebuah startup bernama Spectrum Labs menyediakan teknologi kecerdasan buatan kepada penyedia platform untuk mendeteksi dan mematikan pertukaran beracun secara real-time. Tetapi para ahli mengatakan bahwa pemantauan AI juga menimbulkan masalah privasi.

"Pemantauan AI sering kali mengharuskan melihat pola dari waktu ke waktu, yang mengharuskan penyimpanan data," David Moody, rekan senior di Schellman, perusahaan penilaian kepatuhan keamanan dan privasi, mengatakan kepada Lifewire dalam sebuah wawancara email. "Data ini mungkin termasuk data yang telah ditandai oleh undang-undang sebagai data privasi (informasi pengenal pribadi atau PII)."

Lebih Banyak Ujaran Kebencian

Spectrum Labs menjanjikan solusi berteknologi tinggi untuk masalah kuno ujaran kebencian.

"Rata-rata, kami membantu platform mengurangi upaya moderasi konten hingga 50% dan meningkatkan deteksi perilaku beracun hingga 10x," klaim perusahaan di situs webnya.

Spectrum mengatakan bekerja dengan lembaga penelitian dengan keahlian dalam perilaku berbahaya tertentu untuk membangun lebih dari 40 model identifikasi perilaku. Platform moderasi konten Guardian perusahaan dibangun oleh tim ilmuwan data dan moderator untuk "mendukung menjaga komunitas dari toksisitas."

Ada kebutuhan yang meningkat akan cara untuk memerangi ujaran kebencian karena tidak mungkin bagi manusia untuk memantau setiap lalu lintas online, Dylan Fox, CEO AssemblyAI, sebuah startup yang menyediakan pengenalan ucapan dan melibatkan pelanggan dalam pemantauan kebencian pidatonya, kepada Lifewire dalam wawancara email.

"Ada sekitar 500 juta tweet sehari di Twitter saja," tambahnya. "Bahkan jika satu orang dapat memeriksa tweet setiap 10 detik, twitter perlu mempekerjakan 60 ribu orang untuk melakukan ini. Sebagai gantinya, kami menggunakan alat pintar seperti AI untuk mengotomatiskan prosesnya."

Tidak seperti manusia, AI dapat beroperasi 24/7 dan berpotensi lebih adil karena dirancang untuk menerapkan aturannya secara seragam kepada semua pengguna tanpa mengganggu kepercayaan pribadi, kata Fox. Ada juga biaya bagi orang-orang yang harus memantau dan memoderasi konten.

"Mereka dapat terkena kekerasan, kebencian, dan tindakan mesum, yang dapat merusak kesehatan mental seseorang," katanya.

Spectrum bukan satu-satunya perusahaan yang berusaha mendeteksi ujaran kebencian online secara otomatis. Misalnya, Center Malaysia baru-baru ini meluncurkan pelacak online yang dirancang untuk menemukan ujaran kebencian di kalangan netizen Malaysia. Perangkat lunak yang mereka kembangkan bernama Tracker Benci-menggunakan pembelajaran mesin untuk mendeteksi ujaran kebencian online, khususnya di Twitter.

Tantangannya adalah bagaimana menciptakan ruang di mana orang dapat benar-benar terlibat satu sama lain secara konstruktif.

Kekhawatiran Privasi

Sementara solusi teknologi seperti Spectrum mungkin melawan ujaran kebencian online, mereka juga mengajukan pertanyaan tentang seberapa banyak yang harus dilakukan komputer kepolisian.

Ada implikasi kebebasan berbicara, tetapi tidak hanya untuk pembicara yang postingannya akan dihapus sebagai ujaran kebencian, Irina Raicu, direktur etika internet di Markkula Center for Applied Ethics di Universitas Santa Clara, mengatakan kepada Lifewire melalui email wawancara.

"Membiarkan pelecehan atas nama 'kebebasan berbicara' telah mendorong target pidato tersebut (terutama ketika ditujukan pada individu tertentu) untuk berhenti berbicara-untuk meninggalkan berbagai percakapan dan platform sepenuhnya," kata Raicu."Tantangannya adalah bagaimana menciptakan ruang di mana orang dapat benar-benar terlibat satu sama lain secara konstruktif."

Pemantauan ucapan AI seharusnya tidak menimbulkan masalah privasi jika perusahaan menggunakan informasi yang tersedia untuk umum selama pemantauan, kata Fox. Namun, jika perusahaan membeli detail tentang bagaimana pengguna berinteraksi di platform lain untuk mengidentifikasi pengguna yang bermasalah, hal ini dapat menimbulkan masalah privasi.

"Pasti bisa sedikit abu-abu, tergantung aplikasinya," tambahnya.

Image
Image

Justin Davis, CEO Spectrum Labs mengatakan kepada Lifewire dalam email bahwa teknologi perusahaan dapat meninjau 2 hingga 5 ribu baris data dalam sepersekian detik. “Yang paling penting, teknologi dapat mengurangi jumlah konten beracun yang terpapar oleh moderator manusia,” katanya.

Kita mungkin berada di puncak revolusi dalam AI yang memantau ucapan dan teks manusia secara online. Kemajuan di masa depan mencakup kemampuan pemantauan independen dan otonom yang lebih baik untuk mengidentifikasi bentuk ujaran kebencian yang sebelumnya tidak diketahui atau pola sensor lainnya yang akan berkembang, kata Moody.

AI juga akan segera dapat mengenali pola dalam pola bicara tertentu dan menghubungkan sumber dan aktivitas lainnya melalui analisis berita, pengajuan publik, analisis pola lalu lintas, pemantauan fisik, dan banyak opsi lainnya, tambahnya.

Tetapi beberapa ahli mengatakan bahwa manusia akan selalu perlu bekerja dengan komputer untuk memantau ujaran kebencian.

"AI saja tidak akan bekerja," kata Raicu. "Itu harus diakui sebagai satu alat yang tidak sempurna yang harus digunakan bersama dengan tanggapan lain."

Koreksi 2022-01-25: Menambahkan kutipan dari Justin Davis di paragraf ke-5 dari akhir untuk mencerminkan email pasca-publikasi.

Direkomendasikan: