Apakah 'Deep Fakes' Merupakan Perbatasan Baru Kejahatan Digital?

Teknologi efek khusus telah benar-benar berkembang pesat dalam beberapa dekade terakhir, dengan CGI bergerak dari yang kasar dan primitif menjadi hampir tidak dapat dibedakan dari kenyataan. Sekarang, ketika pembuatan citra verisimilitudinous menjadi semakin umum, pakar politik dan ahli peradilan pidana sama-sama mengantisipasi kepanikan di sekitar apa yang disebut teknologi 'palsu yang dalam', yang berpotensi memperumit diskusi internasional yang sedang berlangsung tentang 'berita palsu.' Namun, apa sebenarnya 'pemalsuan yang mendalam' itu dan seberapa besar ancaman yang akan ditimbulkan oleh teknologi ini di masa depan?





Teknologi palsu dalam (terkadang bergaya sebagai 'deepfake') mengacu pada gambar dan / atau video yang disintesis dan / atau ditumpangkan yang dibuat oleh kecerdasan buatan menggunakan gambar dan video yang ada. Dengan menggunakan pembelajaran mesin, teknologi ini secara teoritis dapat membuat rekaman yang meyakinkan tentang seseorang yang melakukan tindakan yang sebenarnya tidak pernah terjadi dalam kehidupan nyata.

Owen Williams, seorang insinyur perangkat lunak profesional dan seniman efek visual, memberikan penjelasan sederhana.



`` Ini adalah cara menggunakan sistem perangkat lunak otomatis untuk mengganti wajah seseorang dalam video dengan wajah lain yang jauh lebih otomatis dan meyakinkan daripada yang mungkin dilakukan dengan teknologi masa lalu, '' kata Williams. Oxygen.com .



Williams mencatat bahwa film arus utama dan populer seperti 'Jurassic Park' dan 'Blade Runner: The Final Cut' menggunakan perangkat lunak komputer untuk adegan tertentu dengan cara yang mungkin menjadi pendahulu dari pemalsuan yang mendalam: 'Dalam industri film, ini sangat umum. Katakanlah Anda memiliki karakter yang perlu melakukan pemeran pengganti dan Anda ingin wajahnya terlihat. Solusi klasiknya adalah Anda hanya akan melihat mereka dari belakang, atau rambut mereka akan menghadap ke wajah mereka sehingga Anda tidak tahu bahwa itu ganda. Tapi ada sejarah yang cukup melibatkan pembuat film yang menggunakan komputer untuk menempatkan wajah aktor di atas pemeran pengganti. '



'Dulu prosesnya sangat manual,' lanjut Williams. 'Sekarang, dengan teknologi palsu yang dalam, Anda memberi makan komputer dua hal: Pertama video yang akan Anda ganti, dan kemudian banyak masukan dari wajah yang akan Anda ganti. Anda harus mendapatkan gambar yang cukup dari seseorang yang membuat ekspresi wajah yang berbeda dan dari sudut yang berbeda. Anda membuat perpustakaan tentang tampilan wajah orang ini dalam berbagai situasi, lalu komputer memeriksa dan melihat video. Itu juga tidak membutuhkan pencocokan persis. Itu dapat memadatkan dan mengubah apa yang dimilikinya di perpustakaan agar sesuai dengan apa yang dibutuhkannya. Apa yang dulunya membutuhkan puluhan artis ratusan jam untuk mencoba dan mengeksekusi efek yang sangat rumit sekarang hanya dengan menekan tombol. '

Salah satu aspek dari teknologi ini yang membuat banyak orang khawatir adalah bahwa seseorang tidak perlu dengan sukarela menyerahkan wajahnya agar proses ini dapat dijalankan, mengingat berapa banyak gambar yang ada secara online dari kebanyakan orang - terutama selebriti dan tokoh politik.



'Ada cukup banyak gambar selebriti mana pun pada sudut yang cukup sehingga Anda dapat membuat perpustakaan itu [tanpa persetujuan],' kata Williams. 'Ada sejumlah pekerjaan yang diperlukan untuk melakukan itu, tetapi untuk tokoh yang sedikit populer hal itu akan ada. Saya rasa ini kecil kemungkinannya hal ini mungkin terjadi pada orang biasa. '

Video palsu mendalam pertama kali muncul di forum Reddit pada akhir 2017, menurut Variety . Seorang pengguna mengaku telah menggunakan komputernya untuk membuat video pornografi yang sangat realistis dari berbagai selebriti yang melakukan aktivitas seksual yang sebenarnya tidak pernah terjadi dalam kehidupan nyata. Pengguna tersebut mengklaim bahwa dia memberi komputernya ribuan foto bintang-bintang, yang darinya AI dapat mengambil sumber ekspresi wajah dan gerakan yang digambarkan. Sebuah aplikasi yang digunakan oleh pembuat palsu yang dalam dan dibagikan di Reddit akhirnya diunduh lebih dari 100.000 kali. (Reddit pada akhirnya akan melarang konten semacam ini, mengatakan bahwa itu melanggar kebijakan mereka tentang 'pornografi tidak disengaja,' menurut The Verge .)

Realisme yang dapat dicapai media ini saat ini diragukan oleh Williams.

'Jika Anda pernah benar-benar menonton salah satu pemalsuan yang dalam ini ... ada sejumlah keanehan di sana,' kata Williams. 'Mereka tidak dipoles. Mungkin akan menjadi lebih baik dan lebih baik, terutama karena Hollywood berkepentingan untuk membuat ini otomatis daripada membayar artis yang mahal. '

Demikian pula, Williams menebaknya kepanikan seputar pornografi palsu yang dalam , perubahan sikap budaya di sekitar sifat hal-hal seperti porno balas dendam atau gambar telanjang yang bocor berarti orang yang membuat media semacam ini kemungkinan besar akan dikutuk dan tidak dirayakan, bahkan dalam industri hiburan dewasa.

'Itu tidak akan pernah menjadi arus utama,' berteori Williams. 'Setelah' The Fappening 'Hal yang terjadi di Reddit, orang-orang dapat mengubah percakapan dan berkata,' Ini bukan skandal, ini kejahatan seks. ' Jadi saya hanya tidak melihat ini menjadi skandal sebanyak yang orang pikirkan. Orang-orang juga dapat dengan mudah menemukan pornografi asli tempat pembuatan deep fake, yang berarti cukup mudah untuk menyanggah. '

Tapi itu tidak hanya menimbulkan kekhawatiran karena bisa digunakan untuk membuat porno selebriti palsu. Orang-orang juga khawatir dengan konsekuensi politik.

Pakar politik mulai menulis tentang penyebaran pemalsuan mendalam pada tahun 2018. Artikel Guardian dari November tahun itu mencatat penyebaran viral dari video yang diduga menggambarkan Presiden Donald Trump mendorong negara Belgia untuk menarik diri dari Perjanjian Iklim Paris. Ini memicu diskusi yang lebih besar tentang potensi berbagai pemerintah untuk menggunakan teknologi ini dalam kampanye disinformasi massal, percakapan yang telah dimulai berkat investigasi yang sedang berlangsung atas keterlibatan Rusia dalam pemilihan presiden Amerika Serikat 2016.

Kepanikan seputar pemalsuan yang mendalam bahkan mengilhami dewan editorial Bloomberg Media Group untuk menulis opini dengan kata-kata yang kuat tentang masalah tersebut.

'Bukti video telah menjadi pilar sistem peradilan pidana ... justru karena film tampak seperti rekaman yang dapat diandalkan dari ucapan atau tindakan seseorang. Pemalsuan yang mendalam dapat membuat bukti seperti itu mencurigakan, ' mereka menulis pada Juni 2018. 'Tantangan utama, kemudian, akan mengidentifikasi dan menyerukan pemalsuan ini - jika itu mungkin.'

Williams sependapat bahwa sifat pemalsuan yang dalam mengancam gagasan kita tentang 'kenyataan' yang berkaitan dengan bukti video, tetapi mencatat bahwa rawa hukum ini tidak hanya terjadi pada lanskap digital kontemporer kita.

`` Itu bermuara pada gagasan ini bahwa orang-orang memiliki video itu sama dengan kebenaran, yang tidak pernah terjadi. Kami tahu ini dari Rodney King dan seterusnya. Atau, pikirkan Eric Garner : Orang-orang mengira [petugas yang membunuhnya] tidak bersalah, terlepas dari prediksi video insiden tersebut. Bagi saya [banyak ketakutan seputar deep fakes] tampaknya agak tidak berdasar. '

Williams membuat daftar beberapa insiden lain yang tidak melibatkan teknologi palsu mendalam yang menunjukkan cara video telah dimanipulasi dengan berani untuk membelokkan opini publik tentang suatu masalah, seperti Penghapusan kontroversial James O'Keefe terhadap ACORN dan skandal baru-baru ini yang melibatkan video yang dibuat-buat yang menggambarkan reporter CNN Jim Acosta menyerang seorang pegawai Gedung Putih .

Kesimpulan akhir Williams adalah bahwa histeria seputar deep fakes agak berlebihan.

'Apa yang saya lihat terjadi adalah, ini akan bekerja dua arah. Jika sebuah video keluar dan itu nyata, orang akan mengklaim itu palsu. Jika sebuah video keluar dan itu palsu, orang akan mengklaim itu nyata. Setiap kasus mengasumsikan sejumlah kebenaran yang ditetapkan ke video [itu sendiri]. Sulit untuk mengetahui ke arah mana semua ini akan menuju. Jika Pita Kencing benar-benar keluar, misalnya, Anda tahu persis apa yang akan terjadi: Separuh orang akan berkata, 'Ini banteng - t, itu beberapa aktor!' dan separuh orang akan berkata, 'Itu dia! Itu nyata!' Jadi tidak ada yang benar-benar berubah. Itu cenderung menjadi apa yang terjadi dengan teknologi baru: Hal-hal tidak berubah sebanyak yang orang pikirkan. '

[Foto: SAUL LOEB / AFP / Getty Images]

Pesan Populer