MIT'nın yeni PhotoGuard'ı, fotoğraflarınızı istenmeyen AI düzenlemelerine karşı koruyor

MIT'nın yeni "PhotoGuard" tekniği, fotoğraflarınızı yapay zeka ile manipüle etmek isteyenlere karşı benzersiz bir savunma sağlıyor.

Dall-E ve Stable Difusion sadece başlangıçtı. Üretken yapay zeka sistemleri çoğaldıkça ve şirketler tekliflerini rakiplerinden farklı kılmak için çalıştıkça, internetteki sohbet robotları, Shutterstock ve Adobe gibilerinin öncülük etmesiyle görselleri düzenlemenin yanı sıra yeni görseller oluşturma gücü de kazanıyor. Ancak yapay zeka destekli bu yeni yetenekler, mevcut çevrimiçi çizimlerin ve görsellerin izinsiz olarak değiştirilmesi veya doğrudan çalınması gibi tanıdık tuzakları da beraberinde getiriyor. Filigran teknikleri, çalıntı risklerini hafifletmeye yardımcı olabiliyorken, MIT CSAIL tarafından geliştirilen yeni “PhotoGuard” tekniği, izinsiz değiştirmeleri önlemeye yardımcı olabilir.

PhotoGuard nasıl çalışıyor?

PhotoGuard, bir görüntüdeki seçili pikselleri, yapay zekanın görüntünün ne olduğunu anlama yeteneğini bozacak şekilde değiştirerek çalışıyor. Araştırma ekibinin adlandırdığı şekliyle bu “düzensizlikler” insan gözüyle görülemez ancak makineler tarafından kolayca okunabilir. Bu yapıları ortaya çıkaran “kodlayıcı” saldırı yöntemi, algoritmik modelin, bir görüntüdeki her pikselin konumunu ve rengini tanımlayan karmaşık işlemi olan hedef görüntünün gizli temsilini hedef alıyor ve esasen yapay zekanın neye baktığını anlamasını engelliyor.

Daha gelişmiş ve hesaplama açısından yoğun olan “difüzyon” saldırı yöntemi ise, bir görüntüyü yapay zekanın gözünde farklı bir görüntü olarak kamufle ediyor. Bu yöntem, bir hedef görüntüyü tanımlıyor ve hedefine benzeyecek şekilde görüntüdeki düzensizlikleri optimize ediyor. Bir yapay zekanın bu dayanıklı görüntüler üzerinde yapmaya çalıştığı herhangi bir düzenleme, sahte “hedef” görüntülere uygulanarak gerçekçi olmayan bir görüntü oluşmasına neden oluyor.

MIT doktora öğrencisi ve çalışmanın baş yazarı Hadi Salman, Engadget ile yaptığı görüşmede “Kodlayıcı saldırısı, modelin giriş görüntüsünün (düzenlenecek) başka bir görüntü (örneğin gri bir görüntü) olduğunu düşünmesine neden oluyor” diyor ve devam ediyor: “Difüzyon saldırısı ise, difüzyon modelini bazı hedef görüntülere (gri veya rastgele bir görüntü de olabilir) yönelik düzenlemeler yapmaya zorlar.

Salman yaptığı açıklamada, “Model geliştiricileri, sosyal medya platformları ve politika yapıcıları içeren işbirlikçi bir yaklaşım, yetkisiz görüntü manipülasyonuna karşı güçlü bir savunma sunuyor. Bu acil konu üzerinde çalışmak bugün büyük önem taşıyor” diyor ve sözlerini “bu çözüme katkıda bulunmaktan memnuniyet duysam da, bu korumayı pratik hale getirmek için daha fazla çalışma gerekiyor. Bu modelleri geliştiren şirketlerin, bu yapay zeka araçlarının yol açtığı olası tehditlere karşı sağlam önlemler tasarlamaya yatırım yapması gerekiyor” diyerek tamamlıyor.

Sonraki Haber

Forum