Ağustos 2021'de Apple, iPhone'ları çocuk cinsel istismarı görüntüleri için tarama planlarını açıkladı. Hareket, çocuk koruma gruplarından alkış aldı, ancak gizlilik ve güvenlik uzmanları arasında özelliğin kötüye kullanılabileceğine dair endişeleri artırdı.

Apple başlangıçta iOS 15'te Çocukların Cinsel İstismarı Malzemesi (CSAM) tarama teknolojisini dahil etmeyi planlıyordu; bunun yerine, tam sürümden önce geri bildirim almak için özelliğin kullanıma sunulmasını süresiz olarak erteledi.

Peki, CSAM algılama özelliği neden hararetli bir tartışma konusu haline geldi ve Apple'ın piyasaya çıkışını ertelemesine ne sebep oldu?

Apple'ın Fotoğraf Tarama Özelliği Ne Yapar?

Apple, çocuk cinsel istismarıyla mücadele umuduyla fotoğraf tarama özelliğini uygulamaya koyduğunu duyurdu. Apple kullanıcılarının cihazlarındaki tüm fotoğraflar, Apple tarafından oluşturulan "NueralHash" algoritması kullanılarak pedofili içerik açısından taranacaktır.

Ayrıca, çocuklar tarafından kullanılan herhangi bir Apple cihazı, otomatik olarak devreye girecek bir güvenlik özelliğine sahip olacaktır. bir çocuk tarafından alınırsa yetişkin resimleri bulanıklaştırır ve açmaya çalışırsa kullanıcı iki kez uyarılır onlara.

instagram viewer

Yetişkinlere yönelik içeriğe maruz kalmayı en aza indirmenin yanı sıra, ebeveynler çocuklarına ait cihazları ek güvenlik, çocuğun herhangi birinden müstehcen içerik alması durumunda ebeveynler bilgilendirilecektir. internet üzerinden.

Devamını oku: Apple'ın Çocuk Güvenliği Korumaları Hakkında Bilmeniz Gerekenler

Siri'yi çocukları cinselleştiren herhangi bir şey aramak için kullanan yetişkinlere gelince, Siri bu aramayı yapmaz ve bunun yerine başka alternatifler önermez.

Algoritmalar tarafından şüpheli görülen 10 veya daha fazla fotoğraf içeren herhangi bir cihazdan gelen verilerin şifresi çözülecek ve insan incelemesine tabi tutulacaktır.

Cihazdaki bu fotoğraflar veya başka herhangi bir şey, tarafından sağlanan veri tabanından herhangi bir şeyle eşleşirse Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi, yetkililere bildirilecek ve kullanıcının hesabı askıya alınacaktır.

Fotoğraf Tarama Özelliğiyle İlgili Temel Endişeler

CSAM algılama özelliği, Eylül 2021'de iOS 15'in piyasaya sürülmesiyle yayına girecekti, ancak yüz yüze Yaygın tepki üzerine Apple, geri bildirim toplamak ve bu konuda iyileştirmeler yapmak için daha fazla zaman ayırmaya karar verdi. özellik. Burada Apple'ın tam açıklaması gecikme üzerine:

"Geçen ay çocukları kötü niyetli yırtıcılardan korumaya yardımcı olmayı amaçlayan özellikler için planlar duyurduk. Onları işe almak ve istismar etmek için iletişim araçlarını kullanın ve Çocukların Cinsel İstismarının yayılmasını sınırlandırın Malzeme.

Müşterilerden, savunuculuk gruplarından, araştırmacılardan ve diğerlerinden gelen geri bildirimlere dayanarak, daha fazla zaman ayırmaya karar verdik. Bu kritik öneme sahip çocuk güvenliğini piyasaya sürmeden önce girdi toplamak ve iyileştirmeler yapmak için önümüzdeki aylarda özellikleri".

Apple'ın fotoğraf tarama özelliğiyle ilgili endişelerin neredeyse yarısı gizlilikle ilgili; argümanların geri kalanı, algoritmaların olası yanlışlığını ve sistemin veya boşluklarının olası kötüye kullanımını içerir.

Dört parçaya ayıralım.

Olası Kötüye Kullanım

Çocuk pornografisi veya bilinen çocuk cinsel istismarı görüntüleri ile eşleşen herhangi bir materyalin bir cihazı "şüpheli" listeye sokacağını bilmek, siber suçluları harekete geçirebilir.

Bir kişiyi uygunsuz içerikle iMessage, WhatsApp veya başka yollarla kasıtlı olarak bombalayabilir ve bu kişinin hesabını askıya alabilirler.

Apple, bir yanlış anlaşılma nedeniyle hesaplarının askıya alınması durumunda kullanıcıların itirazda bulunabileceklerini garanti etti.

İçeriden Kötüye Kullanım

Hayırsever bir amaç için tasarlanmış olsa da, bu özellik, bazı kişiler için cihazlarının arızalanması durumunda tam bir felakete dönüşebilir. iletişimlerini takip etmek isteyen yakınları tarafından, bilgisi olsun veya olmasın, sisteme kaydedilir.

Bu olmasa bile Apple, kullanıcıların verilerini günün sonunda erişilebilir kılmak için bir arka kapı oluşturdu. Artık insanların diğer insanların kişisel bilgilerine erişmesi bir motivasyon ve kararlılık meselesidir.

İlgili: Arka Kapı Nedir ve Ne İşe Yarar?

Yalnızca büyük bir mahremiyet ihlalini kolaylaştırmakla kalmaz, aynı zamanda kötüye kullanım, toksik veya kontrol etme yolunu da açar. akrabalar, veliler, arkadaşlar, sevgililer, bakıcılar ve eski sevgililer, birinin kişisel alanını daha fazla istila etmek veya özgürlük.

Bir yandan, çocukların cinsel istismarıyla mücadele etmek içindir; diğer yandan, diğer istismar türlerini daha da sürdürmek için kullanılabilir.

Devlet Gözetimi

Apple, kendisini her zaman rakiplerinden daha mahremiyet bilincine sahip bir marka olarak lanse etti. Ama şimdi, şeffaflığın hiç bitmeyen taleplerini yerine getirmek zorunda olmanın kaygan bir eğimine giriyor olabilir. hükümetler tarafından kullanıcı verileri.

Pedofili içerikleri tespit etmek için oluşturduğu sistem, telefonlardaki her türlü içeriği tespit etmek için kullanılabiliyor. Bu, kült zihniyete sahip hükümetlerin, ellerine geçerlerse kullanıcıları daha kişisel bir düzeyde izleyebileceği anlamına gelir.

Baskıcı olsun ya da olmasın, hükümetin günlük ve kişisel hayatınıza müdahale etmesi sinir bozucu olabilir ve mahremiyetinizin ihlalidir. Bu tür istilalar için yalnızca yanlış bir şey yaptıysanız endişelenmeniz gerektiği fikri hatalı bir düşüncedir ve yukarıda bahsedilen kaygan eğimi görmez.

Yanlış alarm

Resimleri veritabanıyla eşleştirmek için algoritma kullanmanın en büyük endişelerinden biri yanlış alarmlardır. Hashing algoritmaları, aynı olmasalar bile yanlışlıkla iki fotoğrafı eşleşme olarak tanımlayabilir. "Çarpışmalar" olarak adlandırılan bu hatalar, özellikle çocuk cinsel istismarı içeriği bağlamında endişe vericidir.

Apple, görüntüleri taramak için algoritmayı kullanacağını açıkladıktan sonra araştırmacılar "NeuralHash" da birkaç çarpışma buldular. Apple, yanlış alarmlarla ilgili soruları, sonucun sonunda bir insan tarafından inceleneceğini, bu yüzden insanların endişelenmesine gerek olmadığını belirterek yanıtladı.

Apple'ın CSAM Duraklatma Kalıcı mı?

Apple'ın önerdiği özelliğin birçok artısı ve eksisi var. Her biri orijinaldir ve ağırlık tutar. Apple'ın eleştirmenlerini tatmin etmek için CSAM tarama özelliğine ne gibi değişiklikler getirebileceği hala belirsiz.

Taramayı, kullanıcıların cihazlarını dahil etmek yerine paylaşılan iCloud albümleriyle sınırlayabilir. Şirket genellikle planlarından vazgeçmeye meyilli olmadığı için Apple'ın bu planları tamamen bırakması pek olası değildir.

Ancak, yaygın tepkiden ve Apple'ın planlarını ertelemesinden açıkça görülüyor ki, şirketler, özellikle test edilmemiş bir araştırma topluluğu için, en baştan araştırma topluluğunu dahil etmelidir. teknoloji.

PaylaşCıvıldamakE-posta
İnternet Güvenliği: Çocuklarınızı İnternette Güvende Tutmak için 50'den Fazla İpucu

Çocuklar, çevrimiçi yırtıcılar ve siber zorbalar için başlıca hedeflerdir. Bu kullanışlı ipuçları, ebeveynlere onları çevrimiçi ortamda nasıl güvende tutacaklarını öğretebilir.

Sonrakini Oku

İlgili konular
  • Güvenlik
  • iPhone
  • Akıllı Telefon Gizliliği
  • elma
  • Çevrimiçi Gizlilik
  • Gözetim
Yazar hakkında
Fawad Ali (19 Makale Yayınlandı)

Fawad bir BT ve İletişim mühendisi, hevesli bir girişimci ve bir yazardır. 2017 yılında içerik yazma alanına girdi ve o zamandan beri iki dijital pazarlama ajansı ve çok sayıda B2B & B2C müşterisi ile çalıştı. İzleyicileri eğitmek, eğlendirmek ve ilgisini çekmek amacıyla MUO'da Güvenlik ve Teknoloji hakkında yazıyor.

Fawad Ali'dan Daha Fazla

Haber bültenimize abone ol

Teknik ipuçları, incelemeler, ücretsiz e-kitaplar ve özel fırsatlar için bültenimize katılın!

Abone olmak için buraya tıklayın