Yapay zeka sistemleri, makineli tüfeklerle çevrili askeri üslerde mi korunacak?

Eski Google CEO'su Eric Schmidt, yapay zekâ ile ilgili bazı endişe verici fikirler paylaştı. Schmidt, yapay zekanın ABD ve Çin'de makineli tüfeklerle çevrili askeri üslerde yer alacağını düşündüğünü söyledi.

Yapay zeka sistemleri, makineli tüfeklerle çevrili askeri üslerde mi korunacak?

Google'ın eski icra kurulu başkanı Eric Schmidt, en güçlü yapay zeka sistemlerinin yakın gelecekte ABD ve Çin'de makineli tüfeklerle çevrili askeri üslerde yer alacağını düşünüyor.

Arama motorunu 2001'den 2011'e kadar yöneten eski Google patronu, yapay zeka sistemlerinin önümüzdeki birkaç yıl içinde çok hızlı bir şekilde bilgi edineceğini ve sonunda birlikte çalışmaya başlayacaklarını dile getirdi. Bloomberg Milyarderler Endeksi tarafından net serveti 33,4 milyar dolar olarak değerlendirilen Schmidt, Amazon destekli yapay zeka girişimi Anthropic'in de yatırımcılarından biri.

Önümüzdeki birkaç yıl içinde yapay zeka bilgisinin yaygınlaşmasının düzenleyiciler için zorluklar yaratacağını söyleyen Schmidt, “Burada bilim kurgu tarafından ortaya atılan sorulara giriyoruz" dedi. Ayrıca yapay zeka ajanlarını yeni bir şeyler öğrenebilen büyük dil modelleri olarak nitelendirdi. Schmidt'e göre bu ajanlar gerçekten güçlü olacak ve bunlardan milyonlarca olacak.

Schmidt, “İşte bu noktada modellerin ne yaptığını anlayamayacağız. Ne yapmalıyız? Fişi mi çekelim?” ifadelerini kullandı. 69 yaşındaki eski yönetici, “Ajanlar, biz insanların anlamadığı şekillerde iletişim kurmaya ve bir şeyler yapmaya başladığında gerçekten bir sorun olacak. Bana göre sınır bu” diye ekledi.

Schmidt, teknoloji şirketlerinin yeni teknolojinin düzenlenmesi konusunda Batılı hükümetlerle birlikte çalıştığını da belirtti. Yapay zeka ile uğraşan Batılı şirketlerin iyi yönetildiğini ve davalara müdahil olduklarını, böylece riski en aza indirdiklerini söyledi.

Ancak Schmidt, dünyada araçları insanlara zarar vermek için kullanacak kötü insanlar olduğu konusunda uyardı. Tüm teknolojiler iki taraflı kullanılabilir diyen eski yönetici, tüm bu icatların kötüye kullanılabileceğini ve yaratıcıların bu konuda şeffaf olmaları gerektiğini söyledi. Zira Schmidt'e göre, yapay zeka ve deepfake'ler aracılığıyla yanlış bilgi yayma sorunu “çözülemez” bir sorun.

Geçtiğimiz yıl OpenAI, Google DeepMind, Anthropic ve diğer laboratuvarlardan bir grup teknoloji lideri, gelecekteki yapay zeka sistemlerinin insanlığa salgın hastalıklardan ve nükleer silahlardan daha ölümcül bir tehdit oluşturabileceği konusunda uyarıda bulundu. Kar amacı gütmeyen Center for AI Safety tarafından yapılan açıklamada, “Yapay zeka kaynaklı yok olma riskinin azaltılması, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerle birlikte küresel bir öncelik olmalı” denildi.