Bagaimana AI Dapat Memantau Keturunannya yang Berbahaya

Daftar Isi:

Bagaimana AI Dapat Memantau Keturunannya yang Berbahaya
Bagaimana AI Dapat Memantau Keturunannya yang Berbahaya
Anonim

Key Takeaways

  • Sebuah makalah baru mengklaim bahwa kecerdasan buatan dapat menentukan proyek penelitian mana yang mungkin memerlukan lebih banyak regulasi daripada yang lain.
  • Ini adalah bagian dari upaya yang berkembang untuk menemukan jenis AI apa yang bisa berbahaya.
  • Salah satu pakar mengatakan bahaya AI yang sebenarnya adalah dapat membuat manusia menjadi bodoh.

Image
Image

Kecerdasan buatan (AI) menawarkan banyak manfaat, tetapi juga beberapa potensi bahaya. Dan sekarang, para peneliti telah mengusulkan sebuah metode untuk mengawasi kreasi mereka yang terkomputerisasi.

Sebuah tim internasional mengatakan dalam sebuah makalah baru bahwa AI dapat menentukan jenis proyek penelitian mana yang mungkin memerlukan lebih banyak regulasi daripada yang lain. Para ilmuwan menggunakan model yang memadukan konsep dari biologi dan matematika dan merupakan bagian dari upaya yang berkembang untuk menemukan jenis AI apa yang bisa berbahaya.

"Tentu saja, sementara penggunaan AI yang berbahaya 'sci-fi' mungkin muncul jika kita memutuskan demikian […], yang membuat AI berbahaya bukanlah AI itu sendiri, tetapi [bagaimana kita menggunakannya], " Thierry Rayna, ketua Technology for Change, di cole Polytechnique di Prancis, mengatakan kepada Lifewire dalam sebuah wawancara email. "Mengimplementasikan AI dapat berupa peningkatan kompetensi (misalnya, memperkuat relevansi keterampilan dan pengetahuan manusia/pekerja) atau penghancuran kompetensi, yaitu AI membuat keterampilan dan pengetahuan yang ada menjadi kurang berguna atau usang."

Menjaga Tab

Para penulis makalah baru-baru ini menulis dalam sebuah posting bahwa mereka membangun model untuk mensimulasikan kompetisi AI hipotetis. Mereka menjalankan simulasi ratusan kali untuk mencoba memprediksi bagaimana balapan AI di dunia nyata akan berhasil.

"Variabel yang kami temukan sangat penting adalah "panjang" balapan - waktu yang dibutuhkan balapan simulasi kami untuk mencapai tujuannya (produk AI fungsional)," tulis para ilmuwan. "Ketika balapan AI mencapai tujuannya dengan cepat, kami menemukan bahwa pesaing yang kami beri kode untuk selalu mengabaikan tindakan pencegahan keselamatan selalu menang."

Sebaliknya, para peneliti menemukan bahwa proyek AI jangka panjang tidak berbahaya karena pemenangnya tidak selalu mengabaikan keselamatan. “Mengingat temuan ini, penting bagi regulator untuk menetapkan berapa lama ras AI yang berbeda akan bertahan, menerapkan peraturan yang berbeda berdasarkan rentang waktu yang diharapkan,” tulis mereka. "Temuan kami menunjukkan bahwa satu aturan untuk semua balapan AI-dari sprint hingga maraton-akan menghasilkan beberapa hasil yang jauh dari ideal."

David Zhao, direktur pelaksana Coda Strategy, sebuah perusahaan yang berkonsultasi tentang AI, mengatakan dalam wawancara email dengan Lifewire bahwa mengidentifikasi AI yang berbahaya bisa jadi sulit. Tantangannya terletak pada kenyataan bahwa pendekatan modern untuk AI mengambil pendekatan pembelajaran yang mendalam.

"Kami tahu pembelajaran mendalam menghasilkan hasil yang lebih baik dalam banyak kasus penggunaan, seperti deteksi gambar atau pengenalan suara," kata Zhao. “Namun, manusia tidak mungkin memahami bagaimana algoritma deep learning bekerja dan bagaimana menghasilkan outputnya. Oleh karena itu, sulit untuk mengatakan apakah AI yang menghasilkan hasil yang baik itu berbahaya karena tidak mungkin bagi manusia untuk memahami apa yang sedang terjadi."

Perangkat lunak dapat "berbahaya" ketika digunakan dalam sistem kritis, yang memiliki kerentanan yang dapat dieksploitasi oleh aktor jahat atau menghasilkan hasil yang salah, Matt Shea, direktur strategi di perusahaan AI MixMode, mengatakan melalui email. Ia menambahkan bahwa AI yang tidak aman juga dapat mengakibatkan klasifikasi hasil yang tidak tepat, kehilangan data, dampak ekonomi, atau kerusakan fisik.

"Dengan perangkat lunak tradisional, pengembang membuat kode algoritme yang dapat diperiksa oleh seseorang untuk mengetahui cara menyambungkan kerentanan atau memperbaiki bug dengan melihat kode sumbernya," kata Shea."Namun, dengan AI, sebagian besar logika dibuat dari data itu sendiri, dikodekan ke dalam struktur data seperti jaringan saraf dan sejenisnya. Ini menghasilkan sistem yang merupakan "kotak hitam" yang tidak dapat diperiksa untuk menemukan dan memperbaiki kerentanan. seperti perangkat lunak biasa."

Bahaya di Depan?

Sementara AI telah digambarkan dalam film seperti The Terminator sebagai kekuatan jahat yang bermaksud menghancurkan umat manusia, bahaya sebenarnya mungkin lebih membosankan, kata para ahli. Rayna, misalnya, menyarankan bahwa AI bisa membuat kita lebih bodoh.

“Itu bisa membuat manusia tidak bisa melatih otaknya dan mengembangkan keahliannya,” katanya. “Bagaimana Anda bisa menjadi ahli dalam modal ventura jika Anda tidak menghabiskan sebagian besar waktu Anda untuk membaca aplikasi startup? Lebih buruk lagi, AI terkenal sebagai 'kotak hitam' dan sedikit bisa dijelaskan. Tidak mengetahui mengapa keputusan AI tertentu diambil berarti hanya ada sedikit yang bisa dipelajari darinya, sama seperti Anda tidak bisa menjadi pelari ahli dengan berkendara di sekitar stadion menggunakan Segway.”

Sulit untuk mengatakan apakah AI yang menghasilkan hasil yang baik itu berbahaya, karena manusia tidak mungkin memahami apa yang sedang terjadi.

Mungkin ancaman paling langsung dari AI adalah kemungkinan bahwa itu dapat memberikan hasil yang bias, Lyle Solomon, seorang pengacara yang menulis tentang implikasi hukum AI, mengatakan dalam sebuah wawancara email.

"AI dapat membantu memperdalam kesenjangan sosial. AI pada dasarnya dibangun dari data yang dikumpulkan dari manusia," tambah Solomon. "[Tapi] terlepas dari data yang luas, itu berisi subset minimal dan tidak akan mencakup apa yang dipikirkan semua orang. Jadi, data yang dikumpulkan dari komentar, pesan publik, ulasan, dll., dengan bias yang melekat akan membuat AI memperkuat diskriminasi dan kebencian."

Direkomendasikan: