Bahaya Kloning Suara Pada AI yang Semakin Menghawatirkan

0

Apa itu kloning suara?
Munculnya AI telah menciptakan kemungkinan untuk pembuatan gambar, teks, suara, dan pembelajaran mesin. Walaupun AI menawarkan banyak manfaat, AI juga memberi penipu metode baru untuk mengeksploitasi individu demi uang.

Anda mungkin pernah mendengar tentang “ deepfake ,” di mana AI digunakan untuk membuat gambar, video, dan bahkan audio palsu, yang sering kali melibatkan selebriti atau politisi.Kloning suara , jenis teknologi deepfake, menciptakan replika digital suara seseorang dengan menangkap pola bicara, aksen, dan napas mereka dari sampel audio singkat.

Setelah pola ucapan ditangkap, generator suara AI dapat mengubah masukan teks menjadi ucapan yang sangat realistis menyerupai suara orang yang ditargetkan. Dengan kemajuan teknologi, kloning suara dapat dilakukan hanya dengan sampel audio tiga detik.

Meskipun kalimat sederhana seperti “halo, ada orang di sana?” dapat mengarah pada penipuan kloning suara, percakapan yang lebih panjang membantu penipu menangkap lebih banyak detail vokal. Oleh karena itu, sebaiknya lakukan panggilan singkat hingga Anda yakin dengan identitas penelepon.

Kloning suara memiliki aplikasi berharga dalam hiburan dan perawatan kesehatan – memungkinkan kerja suara jarak jauh bagi para seniman (bahkan setelah mereka meninggal ) dan membantu orang-orang dengan disabilitas bicara.

Namun, hal ini menimbulkan kekhawatiran serius mengenai privasi dan keamanan, sehingga menggarisbawahi perlunya perlindungan.

Bagaimana hal ini dieksploitasi oleh penjahat?

Penjahat dunia maya memanfaatkan teknologi kloning suara untuk menyamar sebagai selebriti, pejabat pemerintah, atau orang biasa demi penipuan. Mereka menciptakan urgensi, mendapatkan kepercayaan korban dan meminta uang melalui kartu hadiah, transfer kawat atau mata uang kripto.

Prosesnya dimulai dengan mengumpulkan sampel audio dari sumber-sumber seperti YouTube dan TikTok. Berikutnya, teknologi tersebut menganalisis audio untuk menghasilkan rekaman baru. Setelah suara dikloning, suara tersebut dapat digunakan dalam komunikasi yang menipu, sering kali disertai dengan pemalsuan ID Pemanggil agar tampak dapat dipercaya.

Seberapa luas penyebarannya?

Penelitian terkini menunjukkan 28% orang dewasa di Inggris menghadapi penipuan kloning suara tahun lalu, dengan 46% tidak menyadari adanya jenis penipuan ini. Hal ini menyoroti kesenjangan pengetahuan yang signifikan, yang menyebabkan jutaan orang berisiko mengalami penipuan.

Pada tahun 2022, hampir 240.000 warga Australia melaporkan menjadi korban penipuan kloning suara, yang menyebabkan kerugian finansial sebesar $A568 juta .

Bagaimana masyarakat dan organisasi dapat melindungi diri dari hal ini Risiko yang ditimbulkan oleh kloning suara memerlukan respons multidisiplin . Orang dan organisasi dapat menerapkan beberapa langkah untuk melindungi dari penyalahgunaan teknologi kloning suara.

Pertama, kampanye kesadaran publik dan pendidikan dapat membantu melindungi orang dan organisasi serta mengurangi jenis penipuan ini. Kolaborasi publik-swasta dapat memberikan informasi yang jelas dan pilihan persetujuan untuk kloning suara.

Kedua, orang dan organisasi harus berupaya menggunakan keamanan biometrik dengan deteksi keaktifan , yang merupakan teknologi baru yang dapat mengenali dan memverifikasi suara langsung, bukan suara palsu. Dan organisasi yang menggunakan pengenalan suara harus mempertimbangkan untuk mengadopsi autentikasi multifaktor.

Ketiga, peningkatan kemampuan investigasi terhadap kloning suara merupakan langkah penting lainnya bagi penegakan hukum.

Terakhir, regulasi yang akurat dan terkini bagi negara-negara dibutuhkan untuk mengelola risiko terkait. Artikel ini dikutip dari theconversation.com

Leave a Reply

Your email address will not be published. Required fields are marked *