Bias Rasial Algoritma Twitter Menunjukkan Masalah Teknologi yang Lebih Besar

Daftar Isi:

Bias Rasial Algoritma Twitter Menunjukkan Masalah Teknologi yang Lebih Besar
Bias Rasial Algoritma Twitter Menunjukkan Masalah Teknologi yang Lebih Besar
Anonim

Key Takeaways

  • Twitter berharap dapat memperbaiki apa yang disebut pengguna sebagai bias rasial dalam perangkat lunak pratinjau gambar mereka.
  • Panggilan raksasa teknologi ini mungkin merupakan pertimbangan budaya yang dibutuhkan industri untuk mengatasi masalah keragaman.
  • Kurangnya keragaman teknologi menghambat keberhasilan kemajuan teknologinya.
Image
Image

Twitter akan meluncurkan investigasi terhadap algoritme pemangkasan gambarnya setelah menjadi topik trending yang mendorong percakapan yang lebih luas tentang masalah keragaman di industri teknologi.

Raksasa media sosial menjadi berita utama setelah pengguna menemukan bias rasial yang jelas dalam algoritme pratinjau gambarnya. Penemuan itu terjadi setelah pengguna Twitter Colin Madland menggunakan platform tersebut untuk menyebut kegagalan Zoom untuk mengenali rekan-rekan kulit hitamnya yang menggunakan teknologi layar hijau, tetapi dalam sebuah ironi besar, ia menemukan algoritma pemotongan gambar Twitter berperilaku serupa dan tidak memprioritaskan wajah Hitam.

Tentu saja, ini adalah masalah besar bagi minoritas mana pun, tetapi saya pikir ada masalah yang jauh lebih luas juga.

Pengguna lain mengikuti tren yang memicu serangkaian tweet viral yang menunjukkan algoritme secara konsisten memprioritaskan wajah putih dan berkulit lebih terang, mulai dari orang hingga karakter kartun dan bahkan anjing. Kegagalan ini merupakan indikasi dari gerakan budaya yang lebih besar di industri teknologi yang secara konsisten gagal memperhitungkan kelompok minoritas, yang merambah ke sisi teknis.

"Itu membuat minoritas merasa tidak enak, seolah-olah mereka tidak penting, dan itu dapat digunakan untuk hal-hal lain yang dapat menyebabkan kerusakan yang lebih serius di masa depan, " Erik Learned-Miller, profesor ilmu komputer di Universitas Massachusetts, mengatakan dalam sebuah wawancara telepon."Setelah Anda memutuskan untuk apa perangkat lunak dapat digunakan dan semua bahaya yang dapat terjadi, maka kita mulai berbicara tentang cara untuk meminimalkan kemungkinan hal itu terjadi."

Canary di Timeline

Twitter menggunakan jaringan saraf untuk secara otomatis memotong gambar yang disematkan dalam tweet. Algoritme seharusnya mendeteksi wajah untuk dipratinjau, tetapi tampaknya memiliki bias putih yang mencolok. Juru bicara perusahaan Liz Kelley mentweet tanggapan atas semua kekhawatiran.

Kelley tweeted, "terima kasih kepada semua orang yang mengangkat ini. Kami menguji bias sebelum mengirimkan model dan tidak menemukan bukti bias rasial atau gender dalam pengujian kami, tetapi jelas bahwa kami memiliki lebih banyak analisis untuk lakukan. kami akan membuka sumber pekerjaan kami sehingga orang lain dapat meninjau dan meniru."

Rekan penulis buku putih "Teknologi Pengenalan Wajah di Alam Liar: Panggilan untuk Kantor Federal," Learned-Miller adalah peneliti terkemuka tentang kelebihan perangkat lunak pembelajaran AI berbasis wajah. Dia telah membahas potensi dampak negatif dari perangkat lunak pembelajaran gambar selama bertahun-tahun, dan telah berbicara tentang pentingnya menciptakan kenyataan di mana bias ini dikurangi dengan kemampuan terbaik mereka.

Banyak algoritme untuk teknologi pengenalan wajah menggunakan kumpulan referensi untuk data, yang sering dikenal sebagai kumpulan pelatihan, yang merupakan kumpulan gambar yang digunakan untuk menyempurnakan perilaku perangkat lunak pembelajaran gambar. Ini pada akhirnya memungkinkan AI untuk dengan mudah mengenali beragam wajah. Namun, kumpulan referensi ini dapat kekurangan kumpulan yang beragam, yang mengarah ke masalah seperti yang dialami oleh tim Twitter.

"Tentu saja, ini adalah masalah besar bagi minoritas mana pun, tetapi saya pikir ada masalah yang jauh lebih luas juga," kata Learned-Miller. "Ini berkaitan dengan kurangnya keragaman di sektor teknologi dan kebutuhan akan kekuatan regulasi yang terpusat untuk menunjukkan penggunaan yang tepat dari perangkat lunak canggih semacam ini yang rentan terhadap penyalahgunaan dan penyalahgunaan."

Teknologi Kurang Keragaman

Twitter mungkin merupakan perusahaan teknologi terbaru di blok pemotongan, tapi ini jauh dari masalah baru. Bidang teknologi tetap didominasi kulit putih, bidang yang selalu didominasi laki-laki dan para peneliti telah menemukan bahwa kurangnya keragaman menyebabkan replikasi ketidakseimbangan historis dan sistemik dalam perangkat lunak yang dikembangkan.

Dalam laporan tahun 2019 oleh AI Now Institute Universitas New York, para peneliti menemukan bahwa orang kulit hitam membentuk kurang dari 6 persen tenaga kerja di perusahaan teknologi teratas di negara tersebut. Demikian pula, perempuan hanya menyumbang 26 persen pekerja di lapangan-statistik lebih rendah dari bagian mereka pada tahun 1960.

Itu membuat minoritas merasa tidak enak, seolah-olah mereka tidak penting, dan itu dapat digunakan untuk hal-hal lain yang dapat menyebabkan kerugian yang lebih serius.

Di permukaan, masalah representasi ini mungkin tampak biasa, tetapi dalam praktiknya, kerugian yang ditimbulkan bisa sangat besar. Para peneliti dalam laporan AI Now Institute menunjukkan ini secara kausal terkait dengan masalah dengan perangkat lunak yang sering gagal menjelaskan populasi non-kulit putih dan non-laki-laki. Baik itu dispenser sabun inframerah yang gagal mendeteksi kulit yang lebih gelap atau perangkat lunak AI Amazon yang gagal membedakan wajah wanita dari wajah pria, kegagalan untuk mengatasi keragaman dalam industri teknologi menyebabkan kegagalan teknologi untuk menghadapi dunia yang beragam.

"Ada banyak orang yang belum memikirkan masalah ini dan tidak benar-benar menyadari bagaimana hal-hal ini dapat menyebabkan kerusakan dan seberapa signifikan bahaya ini," saran Learned-Miller tentang pembelajaran gambar AI. "Mudah-mudahan, jumlah orang itu menyusut!"

Direkomendasikan: