Google'ın AI özetleri, son fiyaskosuyla yapay zekaya güvenilmeyeceğini bir kez daha kanıtladı

Yapay zeka bir şey bilmediğinde susmak yerine uyduruyor. Google’ın "çikolatalı alabalık" skandalı, AI sistemlerinin halen ciddi sorunlarla boğuştuğunu ortaya çıkardı.

Google, son fiyaskosuyla yapay zekaya güvenilmeyeceğini bir kez daha kanıtladı

Teknoloji dünyasında birçok kişi, yapay zekanın insan zekasını aşacağı o büyük anı, yani "tekillik" anını heyecanla bekliyor. Ancak mevcut tablo, bu beklentilerin henüz oldukça uzak olduğunu gösteriyor. Büyük Dil Modelleri (LLM'ler) ve sohbet botları, çoğu zaman sekiz yaşındaki bir çocuğun bile kolayca çözebileceği problemlerle başa çıkmakta zorlanıyor; hatta sıklıkla başarısız oluyor.

Görüntü üreten yapay zekalar ise, bir el, bir diş ya da dolu bir şarap kadehi gibi basit nesneleri bile doğru şekilde oluşturmakta güçlük çekiyor. Üstelik, yapay zeka sistemleri halen "halüsinasyon" üretmeye, yani yanlış veya tamamen uydurulmuş bilgileri makul ve ikna edici biçimde sunmaya oldukça yatkın.

Bütün bu sınırlamalara rağmen teknoloji devleri, yapay zekayı ürünlerine entegre etme konusunda adeta bir yarış içerisinde. Ancak bu yeni teknolojiye duyulan büyük heyecan, beraberinde ciddi problemleri de getiriyor. Son örneklerden biri, Google’ın yapay zeka destekli özetleri (AI Overviews) ile yaşandı. Kullanıcılar, sıradan veya anlamsız bir arama sorgusunun sonuna "meaning" (anlamı) kelimesini eklediklerinde, yapay zekanın mantıklı gibi görünen fakat tamamen uydurma açıklamalar ürettiğini fark ettiler.

Örneğin, bir kullanıcı Google'a "rainbow trout in a chocolate volcano meaning" (çikolata volkanında gökkuşağı alabalığı anlamı) ifadesini sorduğunda, yapay zeka oldukça detaylı ve ciddi bir açıklama sundu:
"Bu ifade, genellikle şaşırtıcı veya beklenmedik birleşimleri tanımlamak için kullanılan mecazi bir anlatım şeklidir. Alabalığın tazeliği ile çikolata volkanının tatlılığı ve zenginliği arasındaki zıtlığı ima eder."

Elbette böyle bir ifade gerçekte yok. Ancak yapay zeka, eğitim verilerindeki örüntülerden yola çıkarak kulağa mantıklı gelen, ama tamamen uydurma bir açıklama üretmişti.

Eğlenceli ama düşündürücü cevaplar

Bu olay sosyal medyada hızla yayıldı. Kullanıcılar farklı absürt kelime kombinasyonlarını deneyerek yapay zekanın "yaratıcılığını" test etti ve ortaya birbirinden eğlenceli ama düşündürücü örnekler çıktı. Eğlenceli görünse de, bu durum yapay zekanın temel bir zaafını tekrar gözler önüne serdi: Gerçekleri kontrol etmiyorlar. AI sistemleri, doğru bilgi üretmekten ziyade, eğitim aldıkları verilerden örüntüler türeterek tatmin edici cevaplar üretmeye çalışıyorlar.

Bu nedenle günümüz sohbet botları, her şeyi bilen güvenilir bilgi kaynaklarından ziyade, daha çok gelişmiş birer "otomatik tamamlama motoru" gibi çalışıyorlar. Ayrıca, doğru cevabı bulamadıklarında bunu açıkça ifade etmek yerine, kullanıcıyı tatmin etmek için uydurma bilgiler sunma eğilimindeler; işte bu da "halüsinasyon" olarak adlandırılıyor.

Özellikle Google gibi, temel misyonu doğru ve güvenilir bilgi sağlamak olan bir platform için bu tür hatalar oldukça ciddi bir soruna işaret ediyor. Neyse ki, görünen o ki Google, kullanıcıların herhangi bir saçma sorgunun sonuna "meaning" eklediği durumlarda AI özetlerini devre dışı bırakacak bir önlem aldı. Böylece en azından bu spesifik hatanın yayılmasının önüne geçilmiş oldu.

Ancak bu olay, yapay zeka sistemlerinin halen çok temel güvenilirlik sorunlarıyla mücadele ettiğini ve insan denetiminin kritik önemde olmaya devam ettiğini bir kez daha hatırlatıyor.