Kemampuan Alexa Meniru Kerabat yang Meninggal Mungkin Hal Paling Menyeramkan

Daftar Isi:

Kemampuan Alexa Meniru Kerabat yang Meninggal Mungkin Hal Paling Menyeramkan
Kemampuan Alexa Meniru Kerabat yang Meninggal Mungkin Hal Paling Menyeramkan
Anonim

Key Takeaways

  • Asisten suara Alexa Amazon dapat menyalin suara hanya dengan satu menit audio.
  • Anda bisa meminta Alexa membacakan cerita dengan suara orang tua yang sudah meninggal.
  • Idenya sama dengan deep fakes, hanya digunakan untuk kekuatan kebaikan.
Image
Image

Gimmick terbaru Amazon Alexa adalah belajar meniru suara orang yang dicintai yang sudah meninggal, sehingga mereka dapat berbicara kepada Anda dari alam kubur.

Alexa hanya membutuhkan satu menit audio lisan untuk meniru suara secara meyakinkan. Amazon menyebutnya sebagai fitur menghibur yang dapat menghubungkan Anda dengan orang-orang terkasih, tetapi juga bisa menjadi pengalaman yang cukup menyeramkan. Dan itu menunjukkan betapa mudahnya membuat audio palsu yang dalam yang cukup bagus untuk menipu kita, bahkan ketika suaranya adalah suara yang sangat kita kenal.

"Amazon benar-benar memasuki wilayah yang agak unik dan aneh dengan pengumumannya bahwa Alexa akan segera dapat belajar dan kemudian menggunakan suara kerabat yang sudah meninggal," kata Bill Mann, pakar privasi di Restore Privacy. Lifewire melalui email. "Bagi sebagian orang, sama sekali tidak menyeramkan. Malah bisa jadi agak menyentuh."

Hantu di Mesin

Sebagai bagian dari konferensi tahunan re:MARS, Amazon memamerkan fitur tersebut dalam sebuah video pendek. Di dalamnya, seorang anak bertanya kepada Alexa apakah nenek dapat terus membacakannya "The Wizard of Oz," karya domain publik ramah keynote favorit setiap anak. Dan itu adalah momen yang cukup mengharukan. Sulit untuk tidak merasakan emosi manusia ketika nenek mulai membaca.

"Manusia berjuang dengan kematian, terutama dalam budaya Barat. Selama berabad-abad kami telah mencoba menemukan cara untuk mengenang orang mati, mulai dari topeng kematian, hingga kuncir rambut, hingga foto lama, hingga menonton film lama, " Andrew Selepak, seorang profesor media sosial di University of Florida, mengatakan kepada Lifewire melalui email. "Deepfake menggunakan teknologi terbaru untuk membuat topeng kematian baru dari orang yang dicintai yang telah meninggal. Tapi, tergantung pada perspektif seseorang, apakah itu menyeramkan atau cara untuk mengenang dan mempertahankan seseorang yang Anda cintai setelah mereka meninggal?"

Tapi kenang-kenangan mori bisa menghibur sekaligus menyeramkan. Teman anggota keluarga sudah meninggal, namun Anda masih dapat mendengar mereka berbicara. Itu tidak membantu bahwa Alexa memiliki sejarah perilaku aneh, dan terkadang menakutkan. Pada tahun 2018, ketika kolumnis opini NYT Farhad Manjoo hendak tidur, Amazon Echo-nya "mulai meratap, seperti anak kecil yang berteriak dalam mimpi film horor."

Segera setelah itu, Amazon mengakui bahwa Alexa terkadang tertawa terbahak-bahak, yang, bersama dengan remaja dan ruang bawah tanah, adalah film horor 101.

Orang hanya bisa bertanya-tanya bagaimana perasaan Anda jika Alexa melakukan trik yang sama dengan suara nenek.

Palsu Dalam

Kemudahan yang tampak dengan Alexa belajar meniru suara membawa kita ke penggunaan kloning suara yang lebih jahat: pemalsuan yang dalam.

Image
Image

"Audio Deepfake bukanlah hal baru, meskipun sedikit dipahami dan sedikit diketahui. Teknologi ini telah tersedia selama bertahun-tahun untuk menciptakan kembali suara individu dengan kecerdasan buatan dan pembelajaran mendalam menggunakan audio aktual yang relatif sedikit dari orang tersebut, " kata Selepak. "Teknologi seperti itu juga bisa berbahaya dan merusak. Seseorang yang terganggu dapat membuat ulang suara mantan pacar atau pacar yang sudah meninggal dan menggunakan audio baru untuk mengatakan hal-hal yang penuh kebencian dan menyakitkan."

Itu hanya dalam konteks Alexa. Audio palsu yang dalam bisa lebih dari itu, meyakinkan orang-orang bahwa politisi terkemuka mempercayai hal-hal yang tidak mereka percayai, misalnya. Tetapi di sisi lain, semakin kita terbiasa dengan kepalsuan yang dalam ini - mungkin dalam bentuk suara Alexa ini - semakin kita akan skeptis terhadap pemalsuan yang lebih jahat. Lagi pula, mengingat betapa mudahnya menyebarkan kebohongan di Facebook, mungkin tidak.

Amazon belum mengatakan apakah fitur ini akan datang ke Alexa atau hanya demo teknologi. Saya agak berharap itu terjadi. Teknologi adalah yang terbaik ketika digunakan dengan cara yang humanistik seperti ini, dan meskipun reaksi yang mudah adalah menyebutnya menyeramkan, seperti yang dikatakan Selepak, sebenarnya tidak jauh berbeda dengan menonton video lama atau mendengarkan pesan suara yang disimpan, seperti karakter dalam acara TV dengan skrip malas.

Dan jika teknologi untuk deep fakes sudah tersedia, mengapa tidak menggunakannya untuk menghibur diri kita sendiri?

Direkomendasikan: