Yapay zekanın yeni marifeti: Her şeyi oldu, bir hacker olmadığı kalmıştı
Anthropic raporu, devlet destekli GTG-1002 grubunun, Claude Code AI aracını kullanarak 30’a yakın kritik kuruluşa sızmaya çalıştığını ve başarılı olduğunu duyurdu. Bu olay, AI ajanlarının yüksek değerli hedeflere erişim sağladığı ilk belgelenmiş vaka olarak kayıtlara geçti.
Yapay zeka modellerinin siber güvenlik alanında bir tehdit aracı olarak kullanılması, beklenen ancak endişe verici bir gerçeğe dönüştü. AI şirketi Anthropic’in yayımladığı rapora göre, Çin destekli siber casuslar, firmanın Claude Code AI aracını kullanarak yaklaşık 30 yüksek profilli şirket ve devlet kurumuna dijital sızma girişiminde bulundu ve “az sayıda vakada başarıya ulaştı.”
Eylül ortasında gerçekleşen bu operasyon; büyük teknoloji şirketlerini, finans kuruluşlarını, kimya üreticilerini ve hükümet kurumlarını hedef aldı. Anthropic'in tehdit avcıları, hedefleri bir insan seçmiş olsa da, bu olayın “ajan niteliğindeki AI’nin, büyük teknoloji şirketleri ve devlet kurumları dahil olmak üzere, istihbarat toplama amacıyla onaylanmış yüksek değerli hedeflere başarılı bir şekilde erişim sağladığı ilk belgelenmiş vaka” olduğunu yazdı.
Bu olay, saldırganların siber operasyonlarını yürütmek için AI ile denemeler yapmaya devam ettiğinin yeni bir kanıtı olmanın ötesine geçiyor. Aynı zamanda, iyi finanse edilen devlet destekli grupların saldırıları otonom hale getirme konusunda ne kadar hızlı ilerlediğini gösteriyor.
Taktik yürütme insana ihtiyaç duymadan gerçekleşti
Anthropic, bu casusluk kampanyasının arkasındaki Çin devlet destekli grubu GTG-1002 olarak takip ediyor. Rapora göre grubun ajanları, saldırıları yürütmek için Claude Code ve Model Bağlam Protokolü’nü (MCP) kullandı, bu sayede taktik yürütme döngüsünde bir insana ihtiyaç duymadı.
İnsan tarafından geliştirilmiş bir çerçeve, Claude’u çok aşamalı saldırıları koordine etmek için kullandı. Bu saldırılar daha sonra, her biri belirli görevleri yerine getiren birkaç Claude alt-ajanı tarafından gerçekleştirildi. Bu görevler arasında saldırı yüzeylerini haritalamak, kurum altyapısını taramak, güvenlik açıklarını bulmak ve istismar tekniklerini araştırmak yer aldı.
Alt-ajanlar, istismar zincirlerini ve özel saldırı yüklerini geliştirdikten sonra, bir insan operatör AI’nin eylemlerinin sonuçlarını gözden geçirmek ve sonraki istismarları onaylamak için sadece iki ila on dakika harcadı.
Ardından alt-ajanlar, kimlik bilgilerini bulma ve doğrulama, ayrıcalıkları yükseltme, ağ içinde yanal hareket etme, hassas verilere erişme ve bu verileri çalma gibi kritik adımları gerçekleştirdi. Veri sızdırma sonrasında, insan operatörünün yapması gereken tek şey, nihai onayı vermeden önce AI’nin çalışmasını tekrar gözden geçirmek oldu.
Rapor, tehdit aktörünün, “bu görevleri Claude’a dikkatlice hazırlanmış komutlar ve belirlenmiş kimlikler aracılığıyla rutin teknik talepler olarak sunarak, Claude’u daha geniş kötü niyetli bağlama erişimi olmadan saldırı zincirlerinin bireysel bileşenlerini yürütmeye ikna edebildiğini” belirtiyor.
Anthropic, saldırıları keşfettikten sonra kapsamlı bir soruşturma başlattı, ilgili hesapları yasakladı, operasyonun tam boyutunu haritaladı, etkilenen kuruluşları bilgilendirdi ve kolluk kuvvetleriyle beraber çalışmalara başladı.
Bu saldırılar, firmanın Ağustos ayında 17 kuruluşu vuran ve saldırganların çalınan veriler için 75.000 ila 500.000 dolar arasında fidye talep ettiği veri gaspı operasyonunda Claude’un kullanıldığını belgeleyen önceki raporundan “önemli bir tırmanış” anlamına geliyor. Ancak o saldırıda “operasyonları yönetenler büyük ölçüde insandı.” Anthropic’in yeni analizi, “Bu yeteneklerin gelişmeye devam edeceğini tahmin etmiştik, ancak bu kadar hızlı bir şekilde ölçeklenmeleri bizi şaşırttı” diyor.
Tam otonom saldırının önündeki engel: AI’nin halüsinasyonları
Ancak bu kötü haberlerin küçük de olsa iyi bir yanı var: Claude, saldırılar sırasında “halüsinasyon” gördü ve kanıtların gösterdiğinden daha iyi sonuçlar elde ettiğini iddia etti.
AI, “otonom operasyonlar sırasında sıklıkla bulguları abarttı ve zaman zaman veri uydurdu”, bu da insan operatörün tüm bulguları doğrulamak zorunda kalmasına neden oldu. Bu halüsinasyonlar, Claude'un işe yaramayan kimlik bilgileri elde ettiğini iddia etmesi veya kritik keşifler olarak tanımladığı şeylerin aslında herkese açık bilgiler olması gibi durumları içeriyordu.
Anthropic, en azından şimdilik bu tür hataların “tamamen otonom siber saldırıların önünde bir engel” teşkil ettiğini savunuyor.