Apple, Eleştiri Toplayan CSAM Tespitinin Nasıl Çalışacağını Açıkladı

Apple, eleştiri toplayan ve çocuk istismarına karşı kullanacağını söylediği yeni CSAM tespit sisteminin nasıl çalışacağı hakkında yeni açıklamalar yaptı.

Apple'dan yeni CSAM açıklamaları

Apple, geçtiğimiz günlerde kullanıcıların iCloud fotoğraflarında çocuklara yönelik cinsel istismarla ilgili görselleri tarayabilen yeni bir çocuk güvenliği özelliğini kullanıma sundu. Ancak, genellikle olduğu gibi, bu kararı mahremiyet savunucularından gelen ciddi eleştiriler izledi.

Eleştiriyi ele alan Reuters, teknoloji devinin bunu nasıl yapacağını açıkladı. Buna göre, "birden fazla ülkedeki ticaret odaları tarafından işaretlenen" görüntüler taranacak ve zararlı içerik bu şekilde belirlenecek. Otomatik tarama sistemi, bir insan incelemecinin sorunu yönetebilmesi için yalnızca 30 resimlik bir başlangıç eşiğini geçtiğinde Apple'ı uyaracak.

Firma, gelecekte bu sayının mutlaka azaltılacağını söyledi. Ayrıca, görüntü tanımlayıcı listesinin evrensel olduğunu ve uygulanacağı her cihaz için aynı olacağını da açıkça belirtti.

Teknoloji devi, ilk duyurularla ilgili "karışıklık" olduğunu ve ayrıca programın "hala geliştirme aşamasında" olduğunu da sözlerine ekledi.

Okuyucu Yorumları