Key Takeaways
- ToxMod, oleh perusahaan Modulate yang berbasis di Boston, mengklaim dapat mendeteksi dan bertindak terhadap ucapan yang mengganggu secara otomatis, dalam waktu nyata.
- Alih-alih dibatasi oleh bahasa yang sederhana, ToxMod menggunakan pembelajaran mesin untuk mengetahui hal-hal yang tidak berwujud seperti emosi, volume, dan ritme.
- ToxMod saat ini dirancang untuk digunakan dengan ruang obrolan dalam game, tetapi tidak ada alasan mengapa itu tidak dapat masuk ke saluran Twitch Anda.
Sebuah perusahaan yang berbasis di Boston menggunakan pembelajaran mesin untuk menciptakan apa yang disebutnya sebagai layanan moderasi suara-asli pertama di dunia, yang dapat membedakan antara apa yang dikatakan dan apa artinya.
ToxMod adalah upaya untuk memecahkan paradoks memoderasi ruang terbuka apa pun di Internet; tidak ada cukup manusia untuk memenuhi permintaan, tetapi algoritme, filter, dan sistem laporan tidak memahami nuansa.
Dengan basis data ToxMod, ia dapat melacak faktor-faktor dalam ucapan pemain seperti emosi dan volume, yang membantunya membedakan antara jeda sesaat dan pola perilaku. Baru-baru ini diumumkan sebagai tambahan untuk permainan sepak bola Amerika 7v7 Gridiron, saat ini di Steam Early Access.
"Semua orang tahu bahwa pelecehan, ujaran kebencian, dan toksisitas dalam obrolan suara dan permainan adalah masalah besar. Itu sudah umum dipahami," kata Carter Huffman, chief technology officer dan salah satu pendiri Modulate, dalam Rapat Google dengan Lifewire. "Kami dapat mengambil fitur yang kami ekstrak melalui berbagai sistem pembelajaran mesin ini dan menggabungkannya ke dalam sistem yang memperhitungkan semua pengetahuan ahli yang kami pelajari dari komunitas."
Salam Moderator Robot Baru Kami
Modulate telah mengerjakan ToxMod sejak musim gugur yang lalu, dan telah memasukkannya sebagai salah satu dari tiga layanan inti perusahaan. Ini juga menawarkan VoiceWear, penyamaran suara yang didukung oleh pembelajaran mesin, dan VoiceVibe, layanan agregator yang memungkinkan pengguna mengetahui apa yang sedang didiskusikan orang-orang di komunitas mereka.
Saat ToxMod berjalan dalam obrolan, ToxMod dapat diprogram melalui panel admin Modulate untuk melakukan berbagai tindakan otomatis, seperti mengeluarkan peringatan, mematikan suara pemain, atau menyesuaikan volume satu per satu.
Ini menggunakan sistem triase di mana instance lokalnya adalah yang pertama mengambil tindakan, sebelum memeriksa dengan server Modulate untuk konfirmasi. Kemudian akhirnya meningkat ke titik di mana ia mungkin memerlukan intervensi manusia. Dengan menjalankan setiap pemeriksaan secara bergantian, yang disebut Modulate sebagai "gerbang triase", idenya adalah bahwa ToxMod memberi tim moderator kecil alat yang dapat digunakan untuk memoderasi komunitas yang jauh lebih besar secara efektif.
"Kebenaran yang menyedihkan adalah bahwa setiap orang memiliki pengalaman itu, mencoba menggunakan obrolan suara di platform apa pun yang Anda gunakan, dan menemukan bahwa, Nak, itu adalah ide yang buruk, " kata CEO Modulate Mike Pappas dalam sebuah panggilan video dengan Lifewire. "Mampu masuk dan berkata, 'Ini bukan Wild West. Ada aturannya.' Saya pikir itu sangat penting."
Merusak Sistem
Biasanya, pertanyaan kedua atau ketiga untuk ditanyakan tentang ToxMod adalah bagaimana cara memecahkannya.
Dengan banyak sistem moderasi otomatis, seperti algoritme yang mengatur Twitter, mudah untuk mempermainkannya melawan orang yang tidak Anda sukai. Cukup laporkan target Anda secara massal dengan beberapa akun sock-puppet dan mereka akan dengan andal memakan larangan.
"Pada tingkat dasar, ToxMod tidak perlu bergantung pada laporan pemain tambahan itu," kata Pappas. "Itu masih bisa menghasilkan perkiraan yang solid tentang pelanggaran apa yang perlu kita perhatikan. Anda tidak perlu khawatir tentang pemain yang mencoba memainkan sistem, karena sebenarnya tidak ada apa pun untuk dimainkan.
Semua orang tahu bahwa pelecehan, ujaran kebencian, dan keracunan dalam obrolan suara dan game adalah masalah besar.
"Yang Anda kendalikan sebagai pemain adalah audio Anda sendiri," lanjut Pappas. "Hal terburuk yang dapat Anda lakukan adalah menjadi orang yang tidak terlalu buruk sehingga kami tidak menandai Anda sebagai aktor yang buruk, yang menurut saya mendekati kesuksesan misi."
Secara umum, ide di balik ToxMod adalah upaya reklamasi aktif. Banyak pemain pada saat ini telah mengalami beberapa bentuk pelecehan dari orang asing acak di saluran suara terbuka, mulai dari penghinaan acak hingga ancaman aktif. Akibatnya, para gamer cenderung menghindari obrolan suara secara umum, lebih memilih untuk melepaskan kenyamanannya demi ketenangan pikiran mereka sendiri.
"Apa yang kami harapkan [adalah aktor jahat menghabiskan] lebih sedikit waktu dalam obrolan suara sebelum ditemukan dan dihapus, " kata Pappas."Itu lebih dari sekadar dampak linier. Ketika semua orang melihat obrolan suara sebagai tempat yang lebih aman, lebih banyak aktor yang baik bersedia untuk kembali ke obrolan suara dan mencobanya. Saya pikir semuanya bisa berputar ke arah yang positif."