Terjemahan Langsung Dapat Menunjukkan Masa Depan Kacamata Apple

Daftar Isi:

Terjemahan Langsung Dapat Menunjukkan Masa Depan Kacamata Apple
Terjemahan Langsung Dapat Menunjukkan Masa Depan Kacamata Apple
Anonim

Key Takeaways

  • Fitur aksesibilitas baru mencakup Teks Otomatis yang dibuat secara waktu nyata, untuk video atau percakapan apa pun.
  • Jika fitur ini tidak dibuat untuk kacamata AR Apple yang dikabarkan, kami akan memakan topi emoji virtual kami.
  • Apple memiliki riwayat uji coba fitur produk masa depan di dalam perangkat saat ini.
Image
Image

Live Captions baru Apple menambahkan sub title real-time ke apa pun, termasuk orang yang berdiri di depan Anda.

Sama seperti konsep Kacamata AR Google, yang diumumkan minggu ini. Live Caption Apple dapat mengambil audio yang masuk dan mentranskripsikannya secara instan. Perbedaannya adalah bahwa versi Apple akan dikirimkan "akhir tahun ini," yang mungkin berarti akan ada di rilis iOS 16 musim gugur ini. Tapi berita sebenarnya di sini adalah bahwa ini adalah tikaman Apple yang paling jelas dalam uji coba fitur Apple Glasses di masa depan di depan mata.

"Sebagai seseorang yang memiliki dua orang tua yang sama-sama mengalami kesulitan mendengar, ini akan sangat membantu," tulis jurnalis Apple-centric Dan Moren di blog pribadinya Six Colors. "Saya ingin tahu seberapa baik fitur tersebut bekerja dan bagaimana fitur ini menangani panggilan FaceTime yang besar dengan banyak peserta; Apple mengatakan akan menghubungkan dialog ke speaker tertentu."

Sulai Tangan

Live Captions, yang akan kita bahas sebentar lagi, jauh dari fitur kacamata AR pertama yang telah diuji coba oleh Apple. Yang paling jelas adalah penyertaan kamera LIDAR di iPhone dan iPad. Pemindai ini membantu membuat peta 3D dunia luar yang akurat dan memungkinkan iPhone untuk melapisi model 3D ke dunia nyata yang ditunjukkan melalui kamera.

Saya tidak yakin kami dapat mempercayai terjemahan langsung Apple lebih baik daripada kacamata AR baru Google, tetapi saya pikir kami dapat percaya bahwa kompetisi akan membantu menghasilkan hasil terbaik.

Sejauh ini, teknologi ini telah digunakan untuk memungkinkan Anda melihat pratinjau komputer Apple baru di meja Anda sendiri, memainkan game AR Lego, menguji furnitur IKEA di ruang tamu Anda, dan sebagainya. Perangkat keras LIDAR sangat berlebihan di iPhone sehingga hanya boleh ada di sana agar Apple dapat mengasah perangkat keras dan perangkat lunak untuk aplikasi AR nyata: Kacamata Apple.

Ini juga bukan hanya AR visual. AirPods telah menambahkan fitur AR yang rapi selama bertahun-tahun sekarang. Audio Spasial terbaru, menipu otak kita untuk berpikir bahwa suara datang dari sekitar kita dan merupakan cara yang bagus untuk menonton film atau mendengarkan lanskap suara yang menenangkan. Ini adalah fitur yang hebat, tetapi akan lebih baik lagi jika bekerja dengan produk kacamata masa depan yang diharapkan dari Apple. Mampu menempatkan suara dalam ruang 3D agar sesuai dengan objek AR akan benar-benar menjual ilusi.

Atau bagaimana dengan Live Text, teknologi iOS 15 yang mengenali dan membaca teks di foto, dan langsung, melalui kamera iPhone? Itulah fitur lain yang ideal untuk membaca tanda, menu, dan teks lainnya melalui kacamata AR.

Teks Langsung

Live Captions mengambil ucapan dari panggilan FaceTime, aplikasi konferensi video, streaming video, dan sebagainya. Ponsel Anda mengambil audio dan menyalinnya dengan cepat, memberikan sub title, seperti yang terlihat dalam video ini.

Itu bagus, tetapi yang lebih baik adalah tidak ada yang pernah meninggalkan iPhone Anda. Teks, kata Apple, dibuat di perangkat alih-alih dikirim ke server. Ini tidak hanya lebih pribadi, tetapi juga jauh lebih cepat.

"Saya tidak yakin kami dapat mempercayai terjemahan langsung Apple lebih baik daripada kacamata AR baru Google, tetapi saya pikir kami dapat percaya bahwa kompetisi akan membantu menghasilkan hasil terbaik," Kristen Bolig, pendiri SecurityNerd, mengatakan kepada Lifewire melalui email.“Sekarang persaingan sudah terbuka dan isu-isu dengan teknologi semacam ini (privasi, akurasi, dll.) sudah diketahui, kedua perusahaan tidak hanya akan berlomba untuk menciptakan produk terbaik terlebih dahulu tetapi juga untuk menciptakan produk yang terbaik. memecahkan masalah ini."

Kami juga mengharapkan semacam terjemahan otomatis bawaan seperti yang bisa Anda dapatkan sekarang menggunakan aplikasi pihak ketiga Navi untuk menerjemahkan percakapan FaceTime Anda secara otomatis, atau mungkin cara untuk menyimpan transkripsi ini selama wawancara untuk akses lebih mudah nanti.

Kami telah lama menikmati fitur aksesibilitas luar biasa dari Apple, memungkinkan kami menyesuaikan perangkat iOS hingga tingkat yang hampir tidak masuk akal. Mulai dari mengubah tampilan untuk membuat warna dan teks lebih mudah dilihat, hingga mengontrol seluruh antarmuka pengguna dengan perangkat eksternal, hingga membuat ponsel memberi tahu Anda saat seseorang membunyikan bel pintu, atau van pengiriman tiba di luar.

Sekarang, kita semua mendapatkan manfaat dari peningkatan penelitian Apple dalam teknologi augmented reality. Kita mungkin tidak peduli dengan IKEA atau LEGO, atau bahkan tidak ingin membeli sepasang perangkat kacamata AR buatan Apple, tapi bukan berarti kita tidak bisa menikmati hasil penelitian itu semua.

Direkomendasikan: