Sizin gibi okuyucular MUO'yu desteklemeye yardımcı oluyor. Sitemizdeki bağlantıları kullanarak bir satın alma işlemi gerçekleştirdiğinizde, bir ortaklık komisyonu kazanabiliriz. Devamını oku.

Apple, çocukları avcıların istismarından korumak için Ağustos 2021'de iCloud içeriğinizi çocukların cinsel istismarı materyali (CSAM) için taramayı planladığını duyurdu.

Şirket, iCloud Photos'ta bu tür içerikleri tarayacak ve kullanıcı gizliliğini korurken eşleşen görüntüleri Apple'a bildirecek yeni bir CSAM algılama özelliği başlatmayı planlıyordu.

Ancak yeni özellik karışık tepkilerle karşılandı. Apple, ilk duyurudan bu yana bir yılı aşkın bir süredir iCloud Fotoğraflarını CSAM için tarama planından resmen vazgeçiyor.

Apple, Çocuk İstismarı Materyalleri için iCloud'u Tarama Planından Vazgeçti

tarafından hazırlanan bir rapora göre KABLOLU, Apple, çocuk istismarı içeriği için iCloud'unuzu tarama planından uzaklaşıyor. Araç, çocuk güvenliği kuruluşları tarafından tanımlanan bilinen CSAM görüntüleriyle eşleşenleri bulmak için iCloud'da depolanan fotoğrafları tarar. Daha sonra bu görüntüleri bildirebilir çünkü CSAM görüntülerine sahip olmak, ABD de dahil olmak üzere çoğu yargı alanında yasa dışıdır.

instagram viewer

Apple, iCloud Fotoğraflarını Tarama Planını Neden İptal Etti?

2021'deki ilk duyurunun ardından Apple, dünya çapında dijital gizlilik ve güvenliği savunan müşterilerden, gruplardan ve bireylerden gelen tepkilerle karşılaştı. iPhone'lar genellikle Android cihazlardan daha fazla güvenlik sunarve birçoğu bunu bir geri adım olarak gördü. Çocuk güvenliği kuruluşları için bir kazanç olsa da, 90'dan fazla politika grubu aynı ayın sonunda Apple'a açık bir mektup yazarak şirkete planı iptal etmesini söyledi.

Mektup, araç niyetinde iken savundu çocukları istismardan korumak, ifade özgürlüğünü sansürlemek ve kullanıcı gizliliğini ve güvenliğini tehdit etmek için kullanılabilir. Artan baskı nedeniyle Apple, geri bildirim toplamak ve özellikte gerekli ayarlamaları yapmak için lansman planlarını durdurdu. Bununla birlikte, geri bildirim, Apple'ın iCloud Fotoğraflarını tarama planını desteklemedi, bu nedenle şirket resmi olarak planları tamamen bırakıyor.

WIRED'e yapılan açıklamada şirket şunları söyledi:

"Sahibiz... iCloud Fotoğrafları için önceden önerdiğimiz CSAM algılama aracımızı kullanmamaya karar verdik. Şirketler kişisel verileri taramadan da çocuklar korunabilir ve hükümetler, çocuk savunucuları ve gençleri korumaya, mahremiyet haklarını korumaya ve interneti çocuklar ve bizim için daha güvenli bir yer haline getirmeye yardımcı olacak diğer şirketler Tümü."

Apple'ın Çocukları Korumaya Yönelik Yeni Planı

Apple, Ağustos 2021'de duyurulan ve aynı yılın Aralık ayında kullanıma sunulan İletişim Güvenliği özelliklerini iyileştirme çabalarını yeniden yönlendiriyor.

İletişim Güvenliği isteğe bağlıdır ve çocukları iMessage'da müstehcen görüntüler gönderip almaktan korumak için ebeveynler ve veliler tarafından kullanılabilir. Bu özellik, bu tür fotoğrafları otomatik olarak bulanıklaştırır ve çocuk, içerdiği tehlikeler konusunda uyarılır. Ayrıca, Apple cihazlarında CSAM aramaya çalışan herkesi uyarır.

Bir CSAM tespit aracı başlatma planları iptal edildiğinden şirket, özelliği daha da geliştirmeyi ve daha fazla iletişim uygulamasına genişletmeyi dört gözle bekliyor.