Deepfake masa nyata adalah ancaman baharu yang berbahaya Bagaimana untuk
Deepfake masa nyata adalah ancaman baharu yang berbahaya Bagaimana untuk

Deepfake masa nyata adalah ancaman baharu yang berbahaya. Bagaimana untuk melindungi diri anda

Anda mungkin pernah melihat video palsu di Internet yang menyuntik faksimili orang terkenal ke dalam situasi ganjil atau lucu — contohnya, Tom Cruise palsu melakukan “pembersihan industri,” atau dalam usaha yang benar-benar meta, Morgan Freeman tiruan menggembar-gemburkan “era realiti sintetik.”

Sekarang bayangkan anda menerima panggilan telefon daripada seseorang yang bunyinya sama seperti anak anda, memohon bantuan kecemasan. Teknologi yang sama, tetapi tiada siapa yang ketawa.

Pakar keselamatan siber berkata teknologi deepfake telah maju ke tahap di mana ia boleh digunakan dalam masa nyata, membolehkan penipu meniru suara, imej dan pergerakan seseorang dalam panggilan atau mesyuarat maya. Teknologi ini juga tersedia secara meluas dan agak mudah digunakan, kata mereka. Dan ia semakin baik sepanjang masa.

“Terima kasih kepada alatan AI yang mencipta ‘media sintetik’ atau sebaliknya menjana kandungan, peratusan yang semakin meningkat daripada perkara yang kami lihat adalah tidak sahih, dan semakin sukar untuk membezakannya,” Suruhanjaya Perdagangan Persekutuan memberi amaran.

Penyelidik mengatakan teknologi untuk deepfakes masa nyata telah wujud selama lebih daripada satu dekad. Apa yang baharu ialah rangkaian alat yang tersedia untuk membuatnya.

“Kami tahu kami tidak bersedia sebagai masyarakat” untuk ancaman ini, kata Andrew Gardner, naib presiden penyelidikan, inovasi dan AI di Jen. Khususnya, beliau berkata, tiada tempat untuk pergi jika anda berhadapan dengan potensi deepfake penipuan dan anda memerlukan bantuan segera untuk mengesahkannya.

Deepfake masa nyata telah digunakan untuk menakutkan datuk dan nenek supaya menghantar wang kepada saudara yang disimulasikan, memenangi pekerjaan di syarikat teknologi dalam usaha untuk mendapatkan maklumat dalaman, mempengaruhi pengundi dan menyedut wang daripada lelaki dan wanita yang kesepian. Penipu boleh menyalin rakaman suara seseorang yang telah disiarkan dalam talian, kemudian menggunakan audio yang ditangkap untuk menyamar sebagai orang tersayang mangsa; seorang lelaki berusia 23 tahun didakwa menipu datuk dan nenek di Newfoundland daripada AS$200,000 (RM895,800) dalam masa tiga hari sahaja dengan menggunakan teknik ini.

Alat untuk menghapuskan deepfakes generasi terbaharu ini juga muncul, tetapi ia tidak sentiasa berkesan dan mungkin tidak boleh diakses oleh anda. Itulah sebabnya pakar menasihatkan untuk mengambil beberapa langkah mudah untuk melindungi diri anda dan orang yang anda sayangi daripada jenis penipuan baharu.

Istilah deepfake ialah singkatan untuk simulasi yang dikuasakan oleh teknologi pembelajaran mendalam — kecerdasan buatan yang menyerap lautan data untuk cuba meniru sesuatu manusia, seperti mengadakan perbualan (cth, ChatGPT) atau mencipta ilustrasi (cth, Dall-E). Gardner berkata ia masih merupakan cadangan yang mahal dan memakan masa untuk membangunkan alat ini, tetapi menggunakannya adalah agak cepat dan mudah.

Yisroel Mirsky, penyelidik AI dan pakar deepfake di Ben-Gurion University of the Negev, berkata teknologi itu telah maju ke tahap yang memungkinkan untuk melakukan video deepfake dari satu foto seseorang, dan klon “layak” suara daripada hanya tiga atau empat saat audio. Tetapi Gardner berkata alat yang tersedia secara meluas untuk membuat deepfakes ketinggalan di belakang keadaan seni; mereka memerlukan kira-kira lima minit audio dan satu hingga dua jam video.

Walau apa pun, terima kasih kepada tapak seperti Facebook, Instagram dan YouTube, terdapat banyak imej dan audio untuk dicari oleh penipu.

Mirsky berkata adalah mudah untuk membayangkan seorang penyerang melihat di Facebook untuk mengenal pasti anak-anak sasaran yang berpotensi, memanggil anak lelakinya untuk merakam audio yang mencukupi untuk mengklonkan suaranya, kemudian menggunakan palsu anak lelaki itu untuk meminta sasaran wang untuk keluar dari kesesakan. sejenis.

Teknologi ini menjadi begitu cekap, katanya, anda boleh mengklon wajah atau suara dengan komputer permainan asas. Dan perisian itu “benar-benar tunjuk dan klik,” katanya, mudah didapati dalam talian dan boleh dikonfigurasikan dengan beberapa pengaturcaraan asas.

Untuk menggambarkan betapa berkesannya deepfakes dalam masa nyata, Kumpulan Kerajaan Penyelesaian Risiko LexisNexis berkongsi video yang David Maimon, seorang profesor kriminologi di Georgia State University, telah merebut dari web gelap penipuan memancing keli yang jelas sedang berjalan. Ia menunjukkan sembang dalam talian antara seorang lelaki yang lebih tua dan seorang wanita muda yang meminta pinjaman supaya dia dapat bertemu lelaki itu di Kanada. Tetapi dalam tetingkap ketiga, anda dapat melihat seorang lelaki sebenarnya mengucapkan perkataan yang keluar dari mulut wanita itu dalam suara wanita — dia adalah palsu, dan dia adalah penipu.

Teknik ini dikenali sebagai pelakon semula, kata Mirsky dan Wenke Lee dari Institut Teknologi Georgia dalam makalah yang diterbitkan pada 2020. Ia juga boleh digunakan untuk “melakukan perbuatan fitnah, menyebabkan kebolehpercayaan, menyebarkan maklumat salah dan mengganggu bukti,” tulis mereka. . Pendekatan lain ialah penggantian, di mana muka atau badan sasaran diletakkan pada orang lain, seperti dalam video lucah balas dendam.

Tetapi bagaimana sebenarnya, penipu menggunakan alat itu masih menjadi misteri, kata Gardner. Itu kerana kita hanya tahu apa yang mereka telah ditangkap lakukan.

Haywood Talcove, ketua eksekutif Kumpulan Kerajaan LexisNexis Risk Solutions, berkata teknologi baharu itu boleh memintas beberapa teknik keselamatan yang telah digunakan oleh syarikat sebagai ganti kata laluan. Sebagai contoh, dia menunjuk kepada proses pengenalan dalam talian dua langkah California, yang membolehkan pengguna memuat naik dua perkara: gambar lesen memandu atau kad pengenalan mereka, kemudian selfie yang baru diambil. Penipu boleh membeli California ID palsu dalam talian dengan harga beberapa dolar, kemudian menggunakan perisian deepfake untuk menjana wajah padan untuk swafoto. “Ia adalah pisau panas melalui mentega, ” katanya.

Begitu juga, Talcove berkata bahawa syarikat kewangan perlu berhenti menggunakan alat pengenalan suara untuk membuka kunci akaun. “Saya akan gugup jika (di) bank saya, suara saya adalah kata laluan saya,” katanya. “Hanya menggunakan suara sahaja, ia tidak berfungsi lagi.” Begitu juga dengan pengecaman muka, katanya, sambil menambah bahawa teknologi itu berada di penghujung hayat bergunanya sebagai cara untuk mengawal akses.

Rangkaian Sokongan Jenayah Siber, sebuah organisasi bukan untung yang membantu individu dan perniagaan menjadi mangsa dalam talian, selalunya berfungsi dengan sasaran penipuan percintaan, dan ia menggesa orang ramai untuk melakukan sembang video dengan pelamar mereka untuk cuba menyingkirkan penipu. Ally Armeson, pengarah program rangkaian, berkata bahawa hanya dua atau tiga tahun lalu, mereka boleh memberitahu pelanggan untuk mencari gangguan yang mudah dikesan, seperti imej beku. Tetapi dalam beberapa minggu kebelakangan ini, dia berkata, rangkaian itu telah dihubungi oleh mangsa penipuan yang mengatakan mereka telah melakukan sembang video selama 10 atau 20 minit dengan calon meminang mereka, “dan ia sememangnya orang yang mereka hantar kepada saya dalam foto itu. “

Dia menambah, “Mangsa ada berkata, ‘Kepala itu kelihatan pelik pada badan, jadi ia kelihatan sedikit terkelupas.'” Tetapi ia bukan sesuatu yang luar biasa bagi orang ramai untuk mengabaikan bendera merah, katanya. “Mereka mahu mempercayai bahawa video itu adalah benar, jadi mereka akan terlepas pandang percanggahan kecil.”

(Mangsa penipuan percintaan di Amerika Syarikat melaporkan kerugian AS$1.3bil/RM5.82bil tahun lepas.)

Deepfakes masa nyata mewakili ancaman baharu yang berbahaya kepada perniagaan juga. Banyak syarikat sedang melatih pekerja untuk mengenali serangan pancingan data oleh orang yang tidak dikenali, kata Mirsky, tetapi tiada siapa yang benar-benar bersedia untuk panggilan daripada deepfakes dengan suara klon rakan sekerja atau bos.

“Orang ramai akan mengelirukan kebiasaan dengan keaslian,” katanya. “Dan akibatnya, orang ramai akan jatuh untuk serangan ini.”

Bagaimana untuk melindungi diri anda

Talcove menawarkan cara yang mudah dan sukar untuk dikalahkan untuk mengawal penipuan yang menyamar sebagai ahli keluarga: Mempunyai kata kod rahsia yang setiap ahli keluarga tahu, tetapi penjenayah tidak akan meneka. Jika seseorang yang mengaku sebagai anak perempuan, cucu atau anak saudara anda menelefon, Talcove berkata, meminta kata kod boleh memisahkan orang tersayang sebenar daripada orang palsu.

“Setiap keluarga kini memerlukan kata kod,” katanya.

Pilih sesuatu yang ringkas dan mudah diingati yang tidak perlu ditulis (dan tidak disiarkan di Facebook atau Instagram), katanya, kemudian masukkannya ke dalam ingatan keluarga anda. “Anda perlu memastikan mereka tahu dan berlatih, berlatih, berlatih, ” kata Talcove.

Gardner juga menyokong perkataan kod. “Saya rasa persediaan berjalan jauh” dalam mempertahankan diri daripada penipuan palsu, katanya.

Armeson berkata rangkaiannya masih memberitahu orang ramai untuk mencari petunjuk tertentu pada panggilan video, termasuk kekasih mereka yang sepatutnya berkelip terlalu banyak atau terlalu sedikit, mempunyai kening yang tidak sesuai dengan muka atau rambut di tempat yang salah dan kulit yang tidak sepadan. umur mereka. Jika orang itu memakai cermin mata, semak sama ada pantulan yang mereka berikan adalah realistik, rangkaian berkata — “deepfakes selalunya gagal untuk mewakili sepenuhnya fizik semula jadi pencahayaan.”

Dia juga menggesa orang ramai untuk memberikan ujian mudah ini: Minta orang lain dalam panggilan video untuk menoleh dan meletakkan tangan di hadapan muka mereka. Gerakan itu boleh mendedahkan, katanya, kerana deepfakes selalunya tidak dilatih untuk melakukannya secara realistik.

Namun, dia mengakui, “kami hanya bermain pertahanan.” Penipu itu “sentiasa akan mendahului kami,” menghapuskan gangguan yang mendedahkan penipuan itu, katanya. “Ia menjengkelkan.”

Akhirnya, katanya, cara yang paling boleh dipercayai untuk menghapuskan deepfake adalah dengan mendesak pertemuan secara peribadi. “Kita harus benar-benar analog mengenainya. Kita tidak boleh hanya bergantung pada teknologi.”

Terdapat alat perisian yang secara automatik mencari gangguan dan corak yang dijana AI dalam usaha untuk memisahkan audio dan video yang sah daripada palsu. Tetapi Mirsky berkata “ini berpotensi adalah permainan yang kalah” kerana apabila teknologi bertambah baik, tanda-tanda yang digunakan untuk mengkhianati yang palsu akan hilang.

Mirsky dan pasukannya di Universiti Ben-Gurion telah membangunkan pendekatan berbeza, dipanggil D-CAPTCHA, yang beroperasi pada prinsip yang sama yang digunakan beberapa tapak web untuk menghentikan bot daripada menyerahkan borang dalam talian. Sistem D-CAPTCHA mengemukakan ujian yang direka untuk membongkar palsu masa nyata semasa — contohnya, meminta pemanggil untuk bersenandung, ketawa, menyanyi atau sekadar berdehem.

Sistem itu, yang masih belum dikomersialkan, boleh berbentuk ruang menunggu untuk mengesahkan tetamu yang menghadiri mesyuarat maya sensitif atau aplikasi yang mengesahkan pemanggil yang disyaki. Malah, Mirsky berkata, “kami boleh membangunkan aplikasi yang boleh cuba menangkap panggilan yang mencurigakan ini dan memeriksanya sebelum ia disambungkan.”

Gardner menawarkan satu sama lain, nota penuh harapan. Pengalaman yang orang ramai alami sekarang dengan AI dan aplikasi seperti ChatGPT, katanya, telah membuatkan orang ramai lebih cepat mempersoalkan apa yang sebenar dan apa yang palsu, dan melihat dengan lebih kritis apa yang mereka lihat.

“Hakikat bahawa orang ramai melakukan perbualan AI ini secara bersendirian, saya fikir, membantu,” katanya. – Perkhidmatan Berita Los Angeles Times/Tribune

Sila Baca Juga

Want to help a friend find love Give a PowerPoint

Want to help a friend find love? Give a PowerPoint presentation

LOS ANGELES: As a woman prepares to pitch her friend to an audience of roughly …