Sistem CSAM Apple ditipu, tetapi perusahaan memiliki dua perlindungan

Pembaruan: Apple menyebutkan inspeksi kedua server, dan perusahaan visi komputer profesional menguraikan kemungkinan apa yang dapat dijelaskan dalam "Bagaimana inspeksi kedua dapat bekerja" di bawah ini.
Setelah pengembang merekayasa balik bagian-bagiannya, versi awal sistem CSAM Apple telah ditipu secara efektif untuk menandai gambar yang tidak bersalah.Namun, Apple menyatakan bahwa mereka memiliki perlindungan tambahan untuk mencegah hal ini terjadi di kehidupan nyata.
Perkembangan terakhir terjadi setelah algoritma NeuralHash dipublikasikan ke situs web pengembang open source GitHub, siapa pun dapat bereksperimen dengannya…
Semua sistem CSAM bekerja dengan mengimpor database materi pelecehan seksual anak yang diketahui dari organisasi seperti National Center for Missing and Exploited Children (NCMEC).Basis data disediakan dalam bentuk hash atau sidik jari digital dari gambar.
Meskipun sebagian besar raksasa teknologi memindai foto yang diunggah di cloud, Apple menggunakan algoritma NeuralHash pada iPhone pelanggan untuk menghasilkan nilai hash dari foto yang disimpan, dan kemudian membandingkannya dengan salinan nilai hash CSAM yang diunduh.
Kemarin, seorang pengembang mengklaim telah merekayasa balik algoritma Apple dan merilis kode ke GitHub-klaim ini secara efektif dikonfirmasi oleh Apple.
Dalam beberapa jam setelah GitHib dirilis, para peneliti berhasil menggunakan algoritme untuk membuat positif palsu yang disengaja—dua gambar yang sama sekali berbeda yang menghasilkan nilai hash yang sama.Ini disebut tabrakan.
Untuk sistem seperti itu, selalu ada risiko tabrakan, karena hash tentu saja merupakan representasi gambar yang sangat disederhanakan, tetapi mengejutkan bahwa seseorang dapat menghasilkan gambar dengan begitu cepat.
Tabrakan yang disengaja di sini hanyalah bukti konsep.Pengembang tidak memiliki akses ke basis data hash CSAM, yang akan memerlukan pembuatan positif palsu dalam sistem waktu nyata, tetapi ini membuktikan bahwa serangan tabrakan pada prinsipnya relatif mudah.
Apple secara efektif mengkonfirmasi bahwa algoritme adalah dasar dari sistemnya sendiri, tetapi memberi tahu motherboard bahwa ini bukan versi final.Perusahaan juga menyatakan bahwa mereka tidak pernah bermaksud untuk merahasiakannya.
Apple memberi tahu Motherboard dalam email bahwa versi yang dianalisis oleh pengguna di GitHub adalah versi umum, bukan versi final yang digunakan untuk deteksi CSAM Foto iCloud.Apple mengatakan juga mengungkapkan algoritma.
"Algoritme NeuralHash [...] adalah bagian dari kode sistem operasi yang ditandatangani [dan] peneliti keamanan dapat memverifikasi bahwa perilakunya sesuai dengan deskripsi," tulis dokumen Apple.
Perusahaan melanjutkan dengan mengatakan ada dua langkah lagi: menjalankan sistem pencocokan sekunder (rahasia) di servernya sendiri, dan peninjauan manual.
Apple juga menyatakan bahwa setelah pengguna melewati ambang batas 30 pertandingan, algoritma non-publik kedua yang berjalan di server Apple akan memeriksa hasilnya.
“Hash independen ini dipilih untuk menolak kemungkinan bahwa NeuralHash yang salah cocok dengan database CSAM terenkripsi pada perangkat karena gangguan permusuhan dari gambar non-CSAM dan melebihi ambang batas yang cocok.”
Brad Dwyer dari Roboflow menemukan cara untuk membedakan dengan mudah antara dua gambar yang diposting sebagai bukti konsep serangan tabrakan.
Saya ingin tahu bagaimana gambar-gambar ini terlihat dalam KLIP dari ekstraktor fitur saraf OpenAI yang serupa tetapi berbeda.CLIP bekerja mirip dengan NeuralHash;dibutuhkan gambar dan menggunakan jaringan saraf untuk menghasilkan satu set vektor fitur yang memetakan ke konten gambar.
Tetapi jaringan OpenAI berbeda.Ini adalah model umum yang dapat memetakan antara gambar dan teks.Ini berarti bahwa kita dapat menggunakannya untuk mengekstrak informasi gambar yang dapat dipahami manusia.
Saya menjalankan dua gambar tabrakan di atas melalui CLIP untuk melihat apakah itu juga tertipu.Jawaban singkatnya adalah: tidak.Ini berarti bahwa Apple harus dapat menerapkan jaringan pengekstrak fitur kedua (seperti CLIP) ke gambar CSAM yang terdeteksi untuk menentukan apakah gambar tersebut asli atau palsu.Jauh lebih sulit untuk menghasilkan gambar yang menipu dua jaringan secara bersamaan.
Terakhir, seperti yang disebutkan sebelumnya, gambar ditinjau secara manual untuk mengonfirmasi bahwa itu adalah CSAM.
Seorang peneliti keamanan mengatakan bahwa satu-satunya risiko nyata adalah bahwa siapa pun yang ingin mengganggu Apple dapat memberikan kesalahan positif kepada pengulas manusia.
“Apple sebenarnya merancang sistem ini, sehingga fungsi hash tidak perlu dirahasiakan, karena satu-satunya hal yang dapat Anda lakukan dengan 'non-CSAM sebagai CSAM' adalah mengganggu tim respons Apple dengan beberapa gambar sampah hingga mereka menerapkan filter untuk menghilangkannya. analisis Sampah-sampah yang ada di dalam pipa itu adalah positif palsu,” Nicholas Weaver, seorang peneliti senior di Institut Ilmu Komputer Internasional di Universitas California, Berkeley, mengatakan kepada Motherboard dalam sebuah obrolan online.
Privasi adalah masalah yang semakin mengkhawatirkan di dunia saat ini.Ikuti semua laporan yang terkait dengan privasi, keamanan, dll. dalam pedoman kami.
Ben Lovejoy adalah penulis teknis Inggris dan editor UE untuk 9to5Mac.Ia dikenal dengan artikel kolom dan buku hariannya, menjelajahi pengalamannya dengan produk Apple dari waktu ke waktu untuk mendapatkan ulasan yang lebih komprehensif.Dia juga menulis novel, ada dua thriller teknis, beberapa film fiksi ilmiah pendek dan rom-com!


Waktu posting: 20 Agustus-2021