Yapay Zekadan Endişelendiren Başarı: İstenmeyen Bilgileri Bile Verebiliyor!

Görüntü kalitesi yüksek olmayan röntgen filmlerini inceleyen yapay zekânın kendisinden istenmeden ortaya koyduğu bilgiler, araştırmacıları endişelendiriyor!

Yapay zekadan endişelendiren başarı

Yeni araştırmalar, röntgen filmlerini analiz eden yapay zekanın (AI) hastaların ırkını şaşırtıcı derecede doğrulukla tanımlayabildiğini, ancak aynı görüntüyü inceleyen insanların bunu yapamayacağını buldu. Gıda ve İlaç İdaresi (FDA), tıbbi kullanım için daha fazla algoritmayı onaylarken, araştırmacılar AI'nın ırksal önyargıların devam etmesine neden olabileceğinden endişe duyuyorlar. Özellikle, makine öğrenimi modellerinin, aşırı derecede bozuk ve düşük çözünürlüklü görüntülerden bile ırkı nasıl tanımlayabildiğini tam olarak çözememekten endişeli olduklarını söylüyorlar.

Arxiv'de yayınlanan çalışmada, uluslararası bir doktor ekibi, derin öğrenme modellerinin tıbbi görüntülerden ırkı nasıl tespit edebildiğini araştırdı. Özel ve kamuya açık göğüs röntgenlerini ve ırk ve etnik kökene ilişkin kullanıcının kendi bildirdiği verileri kullanarak, ilk önce bu algoritmaların ne kadar doğru olduğunu değerlendirdiler, ardından da mekanizmayı araştırdılar.

Ekip, araştırmalarında şöyle yazdı: "Model bir hastanın ırkını tanımlayabiliyorsa, bu, modellerin doğrudan bu görev için eğitilmemesine rağmen, ırksal bilgileri tanımayı dolaylı olarak öğrendiğine işaret ediyor."

Daha önceki çalışmalarda olduğu gibi, makine öğrenimi algoritmalarının hastaların Siyah, Beyaz veya Asyalı olup olmadığını yüksek doğrulukla tahmin edebildiğini buldular. Ekip daha sonra algoritmanın bu bilgiyi toplayabilmesi için birkaç olası yolu test etti. Yapılan tüm incelemeler sonucunda, yapay zekânın ırkı düşük kaliteli görüntülerde bile doğru olarak tahmin ettiği, ancak bunu nasıl başardığının hala anlaşılamadığı ortaya çıktı. Ancak, istenmeden de olsa sağlanan bu ek bilginin olası sorunlar çıkarabileceğine de işaret ediliyor.

Araştırmanın yazarları, "Tıbbi görüntü analiziyle ilgilenen tüm geliştiricilerin, düzenleyicilerin ve kullanıcıların derin öğrenme modellerinin kullanımını son derece dikkatli bir şekilde düşünmelerini şiddetle tavsiye ediyoruz" diyor ve ekliyor: "Irk bilgisi özel olarak sağlanmamış olsa bile, makinenin bunu ortaya koyuyor olması, mevcut tıbbi uygulamada var olan ırksal eşitsizliklerin sürdürülmesine veya hatta daha da kötüleştirmek için doğrudan bir mekanizma olarak ortaya çıkmasına neden olabilir."

Okuyucu Yorumları

Toplam 1 Yorum

Saçma, modelde tanımlamadığınız sürece size bu bilgiyi veremez.

Sen de yorum yaz