Microsoft, OpenAI ve diğerleri: Dev şirketler, yapay zeka konusunda anlaşmaya vardı

Microsoft, OpenAI, Google ve diğer pek çok büyük teknoloji devi, yapay zeka güvenliği konusunda önemli bir anlaşmaya vardıklarını duyurdular.

Microsoft, OpenAI ve diğerleri: Dev şirketler, yapay zeka konusunda anlaşmaya vardı

Büyük teknoloji şirketleri, yapay zeka gelişimini güvenli bir şekilde ilerletmek için resmi taahhütlerde bulunmak üzere bir araya geldi. Güney Kore ve Birleşik Krallık liderleri tarafından düzenlenen sanal bir küresel toplantıda, OpenAI, Microsoft, Google ve diğer şirketlerin temsilcileri çalışmalarında şeffaflık ve denetim taahhüdünde bulundular.

On altı şirket, yapay zekanın potansiyel olarak çok büyük olan faydalarını ve kötüye kullanılması veya insanlara zarar vermesi durumunda ortaya çıkabilecek riskleri kabul etti. Bu görüşmede anlaşmaya varılan pratik adımlar arasında güvenlik çerçevelerinin yayınlanması, yönetilemez risklere sahip modellerden kaçınılması ve uluslararası düzenleyicilerle koordinasyon sağlanması bulunuyordu. Bu kararların temel amacı, yapay zeka sistemlerinin etik bir şekilde davranmasını ve teknoloji geliştikçe herhangi bir istem dışı zarardan kaçınılmasını sağlamak olarak belirtiliyor.

Çin ve Orta Doğu’dan Tencent, Meituan, Xiaomi ve Samsung gibi şirketler de batılı teknoloji devlerine katıldı. Araştırmacılar ve mühendisler, grupları dezavantajlı duruma düşürebilecek önyargılar veya diğer sorunlar için sistemleri değerlendirecekler. Tüm şirketler, yapay zeka modellerini dikkatle izlemeyi ve devreye almadan önce riskler konusunda birden fazla perspektif elde etmeyi planlıyor.

ABD, AB, Avustralya ve diğer ülkelerden siyasi liderler de bu taahhütleri desteklediler ve gelişmeyi sürdürmek için gelecekte yapılacak toplantılar planladılar. Gönüllü taahhütler iyi bir başlangıç olsa da, politikacılar zamanla bazı düzenlemelerin de gerekli olacağını düşünüyorlar.

Atılan bu adım, son zamanlarda yapay zeka güvenliği konusunda tartışmalar yaşayan OpenAI için özellikle önemli olabilir. OpenAI, geçtiğimiz hafta, yapay zekanın güvenli bir şekilde davranmasını sağlamak için çalışan “süper uyum” ekibini sonlandırdı.

Kısa bir süre önce OpenAI’nin iki önemli ismi, Ilya Sutskever ve Jan Leike, şirketten ayrılmıştı. Bu ayrılma sonrasında Leike, X üzerinde yaptığı bir paylaşımda, şirketin güvenliğe yeterli önemi vermediğini düşündüğü için ayrıldığını söylemiş ve güvenlik ekibinin çalışmalarını yürütmek için ihtiyaç duydukları kaynakları almakta zorlandığını belirtmişti.

Daha sonra Sam Altman ve Greg Brockman, Jan Leike’nin yapay zeka güvenliği konusundaki endişelerine yanıt vererek, şirketin “titiz testler, dikkatli değerlendirmeler ve dünya çapında güvenlik önlemleri” ile taahhütte bulunduğunu kamuoyuna açıkladılar.