Apple, Eleştiri Toplayan CSAM Tespitinin Nasıl Çalışacağını Açıkladı

Apple, eleştiri toplayan ve çocuk istismarına karşı kullanacağını söylediği yeni CSAM tespit sisteminin nasıl çalışacağı hakkında yeni açıklamalar yaptı.

Apple, geçtiğimiz günlerde kullanıcıların iCloud fotoğraflarında çocuklara yönelik cinsel istismarla ilgili görselleri tarayabilen yeni bir çocuk güvenliği özelliğini kullanıma sundu. Ancak, genellikle olduğu gibi, bu kararı mahremiyet savunucularından gelen ciddi eleştiriler izledi.Facebook, Sahibi Olduğu Popüler Hizmeti Satmak Zorunda Kalabilir!Birleşik Krallık'ta alınması muhtemel bir karar ile Facebook, GIF paylaşım hizmeti Giphy'yi satmak zorunda kalabilir!

Eleştiriyi ele alan Reuters, teknoloji devinin bunu nasıl yapacağını açıkladı. Buna göre, "birden fazla ülkedeki ticaret odaları tarafından işaretlenen" görüntüler taranacak ve zararlı içerik bu şekilde belirlenecek. Otomatik tarama sistemi, bir insan incelemecinin sorunu yönetebilmesi için yalnızca 30 resimlik bir başlangıç eşiğini geçtiğinde Apple'ı uyaracak.

Firma, gelecekte bu sayının mutlaka azaltılacağını söyledi. Ayrıca, görüntü tanımlayıcı listesinin evrensel olduğunu ve uygulanacağı her cihaz için aynı olacağını da açıkça belirtti.

Teknoloji devi, ilk duyurularla ilgili "karışıklık" olduğunu ve ayrıca programın "hala geliştirme aşamasında" olduğunu da sözlerine ekledi.Samsung'un Yuvarlanabilir Ekranlı Telefon Patentini Böyle "Canlandırdılar"Samsung, yeni bir "yuvarlanabilir ekranlı" telefon patenti daha aldı.

Sonraki Haber

Forum