Sistem CSAM Apple diapusi, nanging perusahaan kasebut duwe loro perlindungan

Nganyari: Apple nyebutake pamriksan kaping pindho ing server, lan perusahaan visi komputer profesional nyatakake kemungkinan apa sing bisa diterangake ing "Carane inspeksi kapindho bisa ditindakake" ing ngisor iki.
Sawise pangembang mbalikke bagean sing direkayasa, versi awal sistem Apple CSAM wis diapusi kanthi efektif kanggo menehi tandha gambar sing ora salah.Nanging, Apple nyatakake yen nduweni pangayoman tambahan kanggo nyegah kedadeyan kasebut ing urip nyata.
Pangembangan paling anyar kedadeyan sawise algoritma NeuralHash diterbitake menyang situs web pangembang open source GitHub, sapa wae bisa nyoba ...
Kabeh sistem CSAM bisa digunakake kanthi ngimpor database bahan pelecehan seksual bocah sing dikenal saka organisasi kayata Pusat Nasional kanggo Bocah-bocah Ilang lan Dieksploitasi (NCMEC).Basis data kasebut diwenehake kanthi bentuk hash utawa sidik jari digital saka gambar.
Sanajan akeh raksasa teknologi mindai foto sing diunggah ing méga, Apple nggunakake algoritma NeuralHash ing iPhone pelanggan kanggo ngasilake nilai hash saka foto sing disimpen, banjur mbandhingake karo salinan sing diundhuh saka nilai hash CSAM.
Wingi, pangembang ngaku wis mbalikke algoritma Apple lan dirilis kode kanggo GitHub-klaim iki èfèktif dikonfirmasi dening Apple.
Ing sawetara jam sawise GitHib dirilis, para peneliti kasil nggunakake algoritma kasebut kanggo nggawe gambar positif palsu sing disengaja - loro gambar sing beda banget sing ngasilake nilai hash sing padha.Iki diarani tabrakan.
Kanggo sistem kasebut, mesthi ana risiko tabrakan, amarga hash mesthi minangka perwakilan gambar sing disederhanakake, nanging kaget yen ana wong sing bisa ngasilake gambar kasebut kanthi cepet.
Tabrakan sing disengaja ing kene mung minangka bukti konsep.Pangembang ora duwe akses menyang database hash CSAM, sing mbutuhake nggawe positip palsu ing sistem wektu nyata, nanging mbuktekake manawa serangan tabrakan relatif gampang ing prinsip.
Apple èfèktif dikonfirmasi sing algoritma punika basis saka sistem dhewe, nanging marang motherboard sing iki ora versi final.Perusahaan kasebut uga nyatakake yen dheweke ora duwe tujuan kanggo njaga rahasia kasebut.
Apple ngandhani Motherboard ing email yen versi sing dianalisis dening pangguna ing GitHub minangka versi umum, dudu versi final sing digunakake kanggo deteksi iCloud Photo CSAM.Apple ujar manawa uga ngumumake algoritma kasebut.
"Algoritma NeuralHash [...] minangka bagean saka kode sistem operasi sing ditandatangani [lan] peneliti keamanan bisa verifikasi manawa prilaku kasebut cocog karo deskripsi," tulis dokumen Apple.
Perusahaan kasebut ujar manawa ana rong langkah liyane: mbukak sistem pencocokan sekunder (rahasia) ing server dhewe, lan review manual.
Apple uga nyatakake yen sawise pangguna ngliwati ambang 30 pertandhingan, algoritma non-publik kapindho sing mlaku ing server Apple bakal mriksa asil kasebut.
"Hash independen iki dipilih kanggo nolak kemungkinan NeuralHash sing salah cocog karo database CSAM sing dienkripsi ing piranti kasebut amarga gangguan gambar non-CSAM lan ngluwihi ambang sing cocog."
Brad Dwyer saka Roboflow nemokake cara kanggo gampang mbedakake antarane rong gambar sing dikirim minangka bukti konsep kanggo serangan tabrakan.
Aku kepengin weruh kepiye gambar kasebut katon ing CLIP saka OpenAI extractor fitur saraf sing padha nanging beda.CLIP kerjane padha karo NeuralHash;njupuk gambar lan nggunakake jaringan syaraf kanggo generate pesawat saka vektor fitur sing peta kanggo isi gambar.
Nanging jaringan OpenAI beda.Iku model umum sing bisa peta antarane gambar lan teks.Iki tegese kita bisa nggunakake kanggo ngekstrak informasi gambar sing bisa dingerteni manungsa.
Aku mlayu loro gambar tabrakan ndhuwur liwat CLIP kanggo ndeleng yen uga diapusi.Jawaban singkat: ora.Iki tegese Apple kudu bisa ngetrapake jaringan extractor fitur kapindho (kayata CLIP) menyang gambar CSAM sing dideteksi kanggo nemtokake manawa nyata utawa palsu.Luwih angel ngasilake gambar sing ngapusi rong jaringan bebarengan.
Pungkasan, kaya sing wis kasebut sadurunge, gambar kasebut dideleng kanthi manual kanggo konfirmasi manawa CSAM.
Peneliti keamanan ujar manawa siji-sijine risiko nyata yaiku sapa wae sing pengin ngganggu Apple bisa menehi positip palsu kanggo para panaliti manungsa.
"Apple bener-bener ngrancang sistem iki, mula fungsi hash ora perlu didhelikake, amarga mung siji-sijine sing bisa sampeyan lakoni karo'non-CSAM minangka CSAM' yaiku ngganggu tim respon Apple kanthi sawetara gambar sampah nganti ngleksanakake saringan kanggo ngilangi. analisis Sing uwuh ing pipeline positif palsu, "Nicholas Weaver, peneliti senior ing Institut Ilmu Komputer Internasional ing Universitas California, Berkeley, marang Motherboard ing chatting online.
Privasi minangka masalah sing nambah keprihatinan ing jagad saiki.Tindakake kabeh laporan sing ana gandhengane karo privasi, keamanan, lan sapiturute ing pedoman kita.
Ben Lovejoy minangka panulis teknis Inggris lan editor EU kanggo 9to5Mac.Dheweke misuwur amarga kolom lan artikel diary, njelajah pengalaman karo produk Apple liwat wektu kanggo njaluk review luwih lengkap.Dheweke uga nulis novel, ana rong thriller teknis, sawetara film fiksi ilmiah cekak lan rom-com!


Wektu kirim: Aug-20-2021