Yapay zekânın ‘Gördüğünü’ tanımlarken oluşan önyargı azaltılabilir mi?
Sony AI, yapay zekâ modellerindeki önyargıyı tespit etmek için tamamen izinle toplanmış, küresel ölçekte çeşitliliğe sahip yeni bir görüntü değerlendirme seti yayımladı. FHIBE, etik veri toplamanın mümkün olduğunu kanıtlamayı hedefliyor.
Sony, yapay zekâ modellerinin insanları tanımlarken ortaya çıkan önyargılarını ölçmek için tamamen izinle toplanmış yeni bir standart veri seti geliştirdi. Fair Human-Centric Image Benchmark (FHIBE), insan merkezli bilgisayarlı görü görevlerinde adalet değerlendirmesi yapmak üzere kamuya açık, küresel çeşitliliğe sahip ilk etik veri seti olarak tanımlanıyor. Sony AI’nin Yapay Zekâ Yönetişim Başkanı Alice Xiang, bilgisayarlı görünün nesnel olmadığına; verilerdeki önyargıların modellerin çıktısını çarpıtabileceğine dikkat çekiyor. Örneğin, bazı modeller kadın doktorları hemşire olarak sınıflandırabiliyor veya belirli fiziksel özellikleri belirli mesleklerle yanlış ilişkilendirebiliyor.
Xiang, Çin’de yüz tanıma sistemlerinin aile bireylerinin telefonları yanlışlıkla açmasına izin verdiği örnekleri hatırlatarak bunun, Asyalı bireylerin eğitim verilerinde yetersiz temsil edilmesinden ya da gizli model önyargılarından kaynaklanmış olabileceğini söylüyor. Meta’nın FACET veri seti gibi başka test kaynakları olsa da Xiang, bu veri setlerinin çoğunun izinsiz internet madenciliği ile toplandığını, etik sürecin belirsiz olduğunu ve çeşitliliğin sınırlı kaldığını vurguluyor. Nature’da yayımlanan bir araştırma da 27 bilgisayarlı görü veri setinin büyük kısmının internetten kazındığını, yedisinin ise etik nedenlerle geri çekildiğini doğruluyor.
81 ülkeden 10 bin görsel ve yeni bulgular
FHIBE, 81’den fazla ülke ve bölgeden toplanmış 1.981 farklı kişiye ait 10.318 görüntü içeriyor. Bu görsellerde detaylı sınırlayıcı kutular, segmentasyon maskeleri ve kamera ayarları gibi açıklamalar yer alıyor. Sony AI araştırmacıları, FHIBE kullanarak bazı modellerin “She/Her/Hers” zamirlerini kullanan kişilerde saç stili çeşitliliği nedeniyle daha düşük doğruluk gösterdiğini tespit etti. Ayrıca modellerin, meslek hakkında nötr bir soru sorulduğunda dahi belirli grupları suç faaliyetleriyle ilişkilendirerek zararlı stereotipleri yeniden üretebildiği görüldü.
Önyargılar kaçınılmaz ama azaltılabilir
Sony, bu çalışma ile etik veri toplama, kullanım ve yönetim süreçlerinin güçlendirilmesini hedefliyor. ABD’de federal düzeyde bu konuda ciddi bir yönlendirme bulunmazken, Xiang AB Yapay Zekâ Yasası ve bazı ABD eyalet düzenlemelerinin yüksek riskli alanlarda önyargı değerlendirmesini teşvik ettiğini belirtiyor. Sony’nin bazı iş birimleri FHIBE’i kendi yapay zeka etik inceleme süreçlerine dahil etmiş durumda.
Xiang, FHIBE’in geliştiricilere sistemlerindeki önyargıyı denetleme imkânı sunmasının yanı sıra, izin ve veri sahiplerine ödeme gibi etik veri toplama pratiklerinin de uygulanabilir olduğunu gösterdiğini söylüyor. “Veri nihilizmi” olarak tanımladığı, “ileri düzey yapay zekâ için veri haklarından vazgeçilmesi gerektiği” fikrine karşı çıkan Xiang, FHIBE’in küçük ölçekli bir değerlendirme veri seti olsa da sektörün etik veri kürasyonu için daha fazla çaba ve kaynak ayırmasını teşvik etmeyi amaçladığını belirtiyor.