Prediksi Kejahatan AI Bisa Salah Tuduh Orang

Daftar Isi:

Prediksi Kejahatan AI Bisa Salah Tuduh Orang
Prediksi Kejahatan AI Bisa Salah Tuduh Orang
Anonim

Key Takeaways

  • Sebuah perusahaan perangkat lunak dilaporkan mengumpulkan informasi media sosial untuk membuat profil yang dapat digunakan untuk mengidentifikasi orang-orang yang menimbulkan risiko keamanan.
  • Voyager Labs telah menandatangani kesepakatan signifikan dengan lembaga pemerintah Jepang.
  • Tetapi para ahli memperingatkan bahwa perangkat lunak prediksi AI dapat ditipu.
Image
Image

Informasi online Anda dapat digunakan untuk memprediksi apakah Anda mungkin melakukan kejahatan.

Voyager Labs dilaporkan mengumpulkan informasi media sosial untuk membuat profil yang dapat digunakan untuk mengidentifikasi orang-orang yang menimbulkan risiko keamanan. Ini adalah bagian dari upaya yang berkembang untuk menggunakan kecerdasan buatan (AI) untuk menyelidiki penjahat potensial. Tetapi beberapa ahli mengatakan bahwa gerakan ini penuh dengan potensi masalah.

"Sangat sulit untuk memprediksi perilaku manusia," Matthew Carr, seorang peneliti keamanan di Atumcell Group, mengatakan kepada Lifewire dalam sebuah wawancara email. “Kami bahkan tidak dapat memprediksi perilaku kami sendiri, apalagi perilaku orang lain. Saya pikir mungkin saja AI dapat digunakan di masa depan untuk tujuan ini, tetapi kami masih jauh dari mampu melakukannya saat ini."

Membuat Profil

Seperti yang dilaporkan The Guardian baru-baru ini, departemen kepolisian Los Angeles menyelidiki penggunaan perangkat lunak prediksi kejahatan Voyager Lab. Perusahaan juga mengumumkan bahwa mereka telah mencapai kesepakatan signifikan dengan agen pemerintah Jepang.

Perjanjian Jepang memberi lembaga pemerintah platform investigasi berbasis AI yang menganalisis sejumlah besar informasi dari sumber mana pun, termasuk data terbuka dan dalam.

"Saya senang kita berkolaborasi dalam memerangi teror dan kejahatan," kata Divya Khangarot, Managing Director APAC di Voyager Labs, dalam rilis berita. "Dengan menggunakan solusi intelijen mutakhir Voyager Lab, klien kami memperoleh kemampuan unik untuk secara proaktif mengidentifikasi dan mengganggu potensi ancaman. Kami menghadirkan lapisan tambahan wawasan investigasi mendalam menggunakan kombinasi AI, Machine Learning, dan OSINT untuk mengungkap jejak tersembunyi, informasi yang dilanggar, dan aktor jahat."

Tidak Begitu Pintar?

Namun dalam wawancara email, Matt Heisie, salah satu pendiri Ferret.ai, yang juga menggunakan AI untuk memprediksi pelanggar, meragukan beberapa klaim Voyager Labs.

"Apakah ada hubungan yang jelas antara, katakanlah, catatan penangkapan dan perilaku kriminal di masa depan, karena ada titik hitam pada tes dan perkembangan tumor?" dia berkata. "Pikirkan semua potensi kekacauan yang terjadi pada penangkapan itu-lingkungan tempat tinggal orang itu, kuantitas dan kualitas, bahkan bias, polisi di daerah itu. Usia seseorang, jenis kelaminnya, penampilan fisiknya, semuanya memiliki dampak yang saling bersilangan pada kemungkinan orang tersebut memiliki catatan penangkapan, sepenuhnya terpisah dari kecenderungan mereka yang sebenarnya untuk melakukan kejahatan yang kita coba prediksi."

Terdakwa dengan pengacara yang lebih baik lebih mungkin untuk dapat menekan catatan agar tidak tersedia untuk umum, kata Heisie. Beberapa yurisdiksi membatasi pelepasan foto atau catatan penangkapan untuk melindungi terdakwa.

"Komputer akan belajar berdasarkan data yang Anda berikan dan menggabungkan semua bias yang masuk ke dalam pengumpulan data tersebut…"

"Semua ini menambah bias pada algoritma," tambahnya. "Komputer akan belajar berdasarkan data yang Anda berikan dan menggabungkan semua bias yang masuk ke dalam pengumpulan data itu ke dalam pembelajaran dan interpretasi."

Ada beberapa upaya untuk menciptakan kejahatan yang memprediksi AI, dan dengan hasil yang sering memalukan, kata Heisie.

COMPAS, algoritma yang digunakan penegak hukum untuk memprediksi pelanggaran kembali, sering digunakan dalam menentukan hukuman dan jaminan. Ini telah menghadapi skandal kembali ke 2016 untuk bias rasial, memprediksi terdakwa kulit hitam menimbulkan risiko residivisme yang lebih tinggi daripada yang sebenarnya mereka lakukan, dan sebaliknya untuk terdakwa kulit putih.

Lebih dari 1.000 teknolog dan cendekiawan, termasuk akademisi dan pakar AI dari Harvard, MIT, Google, dan Microsoft, berbicara pada tahun 2020 menentang makalah yang mengklaim bahwa para peneliti telah mengembangkan algoritme yang dapat memprediksi kriminalitas hanya berdasarkan wajah seseorang, mengatakan bahwa menerbitkan studi semacam itu memperkuat bias rasial yang sudah ada sebelumnya dalam sistem peradilan pidana, kata Heisie.

Image
Image

China adalah pasar terbesar dan dengan pertumbuhan tercepat untuk jenis teknologi ini, terutama karena akses luas ke data pribadi, dengan lebih dari 200 juta kamera pengintai dan penelitian AI canggih yang berfokus pada masalah ini selama bertahun-tahun, kata Heisie. Sistem seperti Cloud Polisi CloudWalk sekarang digunakan untuk memprediksi dan melacak penjahat dan menentukan penegakan hukum.

"Namun, bias substansial juga dilaporkan di sana," kata Heisie.

Heisie menambahkan bahwa perusahaannya dengan hati-hati mengkurasi data yang masuk dan tidak menggunakan foto-foto atau rekaman penangkapan, "berfokus pada kriteria yang lebih objektif."

"AI kami belajar dari data yang dikurasi, tetapi yang lebih penting, itu juga belajar dari orang-orang, yang menganalisis, mengkurasi, dan mengevaluasi catatan, dan memberi tahu kami tentang interaksi mereka dengan orang lain," tambahnya. "Kami juga menjaga transparansi penuh dan akses gratis dan publik ke aplikasi kami (secepat yang kami dapat membiarkannya menjadi beta), dan menyambut wawasan tentang proses dan prosedur kami."

Direkomendasikan: