Google, yapay zekanın "halüsinasyon görme" sorununu SAFE ile çözecek

Yapay zekanın kafasına göre yalanlar uydurup cevaplar verdiği "halüsinasyon" durumu daha önce değişik senaryolarda test edildi, onaylandı. Google ise şimdi, bunu önlemek için bir mekanizma geliştirdi.

Google, yapay zekanın "halüsinasyon görme" sorununu SAFE ile çözecek

Yapay zeka destekli sohbet robotlarının en çok eleştirilen davranışlarından biri, bir soruyu ikna edici bir şekilde yanıtlarken size gerçekte yanlış bilgiler vermesi. Bu duruma halüsinasyon deniliyor.

Yani yapay zeka halüsinasyon görüyor ama bu sanrısını karşısındaki insana da çok gerçekçi şekilde anlatıp ikna ediyor. Basitçe söylemek gerekirse, yapay zeka kullanıcısını tatmin etmek için gerçekle bağlantısı olmayan bir şeyler uyduruyor.

Resim veya video oluşturmak için üretken yapay zeka kullanan araçlarda böyle bir sorun söz konusu değil, en nihayetinde bunlar sanatsal sonuçlar ortaya koyuyorlar. Ancak sohbet robotları için bu çok büyük bir problem ve hatta OpenAI'den kısa bir süre önce ayrılan ünlü uzman Andrej Karpathy, halüsinasyon yeteneğinin, üretken yapay zekanın temel teknolojisi olan büyük dil modellerinin (LLM'ler) en büyük özelliği olduğunu da itiraf etti. Yani yapay zeka bu işi şans eseri yapmıyor. Kasten, sonuç üretmek için yapıyor. Doğruluğu da kontrol etmiyor. Korkutucu olansa çoğu kullanıcının bu halüsinasyonları fark etmesinin imkansız olması.

Yapay zekanın halüsinasyon görmesini engellemek teknolojik bir zorluk ve bu sorunu çözmek hiç de kolay değil. Ancak Google DeepMind ve Standford Üniversitesi bir tür geçici çözüm bulmuş gibi görünüyor. Araştırmacılar, yapay zeka sohbet robotları tarafından üretilen uzun formlu yanıtları esasen kontrol eden LLM tabanlı bir sistem - Search-Augmented Factuality Evaluator veya SAFE - geliştirdiler.

SAFE nasıl işliyor?

Sistem cevapları dört adımda analiz ediyor, işliyor ve değerlendirerek doğruluğunu teyit ediyor. İlk olarak, SAFE cevabı tek tek gerçeklere ayırıyor, bunları gözden geçiriyor ve Google Arama'dan gelen sonuçlarla karşılaştırıyor. Sistem ayrıca tek tek gerçeklerin orijinal soruyla ilgisini de kontrol ediyor.

SAFE'nin performansını değerlendirmek için araştırmacılar yaklaşık 16.000 bilgiden oluşan bir veri kümesi olan LongFact'i oluşturdular. Ardından sistemi dört farklı aileden (Claude, Gemini, GPT, PaLM-2) 13 LLM üzerinde test ettiler.

Vakaların %72'sinde SAFE, insan notlandırıcılarla aynı sonuçları verdi. Anlaşmazlık durumlarında ise SAFE %76 oranında doğru sonuç verdi. Bunun da ötesinde, araştırmacılar SAFE kullanımının insan kontrolcülerden 20 kat daha ucuz olduğunu ve böylece, yapay zekanın her an ürettiği milyarlarca cevabı kontrol etmenin mümkün olacağını vurguluyor.

Tabi SAFE'in, yapay zeka algoritmalarıyla entegre olabilmesi için, şirketlerin Google ile anlaşmalar yapması da gerekecek ve muhtemelen geliri paylaşmak zorunda olacaklar. Ya da kendi güvenlik sistemlerini geliştirmeye çalışacaklar. Ancak artık kimse yapay zekanın halüsinasyon görmediğine emin olmadan, aldığı cevaplara inanmak istemiyor. Bakalım bu sorun efektif olarak ne zaman çözülecek?