Microsoft'un yapay zekası Tay tuzağa düştü!

Microsoft'un Twitter üzerinde yayına soktuğu yapay zakası Tay, troll'lerin kurbanı olmaktan kaçamadı

Microsoft'un yapay zekası Tay tuzağa düştü!

Microsoft'un "dijital kişisel asistanı" Cortana'yı Türkçe bilmediği için çoğumuz kullanmasak da tanıyoruz. Windows, Android ve iOS cihazlarında çeşitli görevleri sesli komutlarla yerine getirmenize izin veren Cortana'yla konuşmaya çalışanlar, onun sohbet yeteneklerinin çok iyi olmadığını bilirler.

Ancak Microsoft, Twitter'dan konuşabileceğiniz yeni bir yapay zekayla sizi "kıt anlayışlı" Cortana'dan kurtarabilir; en azından bir süre için kurtarabilirdi. Tay adlı yapay zeka, size alarm kurup rezervasyon yapmasa da, herhangi bir konuda konuşabiliyor. Elbette Türkçe değil, yine İngilizce yazmanız gerekiyor.

Twitter'da @TayAndYou hesabından veya tay.ai web sitesinden ulaşılabilen yeni yapay zeka, Microsoft'un iddiasına göre "konuştukça akıllanıyor". Ancak her yapay zekada olduğu gibi Tay da cümlelerinize kusursuz cevaplar veremeyebiliyor. Yapay zeka, birkaç cevaptan sonra sohbeti direkt mesajlara taşımak istediğini, sohbetin buradan daha kolay takip edilebileceğini söylüyor.

Gelelim, haberin başında neden "kurtarabilirdi" dediğimize... Tay, verdiği cevaplar için birikimi, çoğunlukla gelen mesajlardan ediniyor. Bazı Twitter troll'leri ise, cinsel ayrımcı, ırkçı veya üfür içeren mesajları yağdırmaya başlayınca, Tay'ın da gelen mesajlara verdiği cevaplar bu yöne doğru kaydı. Microsoft da, yayına girmesinden kısa süre sonra Tay'ı "dinlenmeye" almak zorunda kaldı.

Microsoft'un Tay hakkında daha fazla bilgiyi yakında bizlerle paylaşmasını ve yeni yapay zekasını tekrar yayına almasını bekliyoruz. 

Zeynel A. Öztürk

Okuyucu Yorumları

Toplam 11 Yorum

Ne kadar boş beleş adam varsa onların halt yemesi işte. Eğlence sanıyorlar halbuki saçmalıyorlar. Trollemek bilmem ne bunlarla uğraşanlar kadar boş adam yoktur şu kainatta!

ahaha microsoftun zekası işte.

kullanan insanların inekliği, teknolojinin gelişmesine yardım etmek yerine anca cortanayı siriyi açıp küfür ediyorsunuz

telefonu kişiyi heran dinleyip kişiyi ikinci kişi gibi sanal yapay kişi yaratmada telefonu kişi heran dinlemeden komug alıp bunu uygulamadan yanılan komutlu hatanız çok olur.kişiyi heran dinleyip derin muhassebe edip.googlede!!!kişiyi! Kişinin görüştüyü 3 cü kişiye 2 ci kişi birinci tanıdıgını nasıl aktarıyor bu muhassebenin bindelenişi ile kişinin cep telefonunun kişiyi heran dinlemesi ile yanılgı payı önemli derecede düşer.bunun dışındaki adımlar tekrarlanan robotik adımlar olur

@25 Mart 2016 00:41 ooh, yeah! :)

@25 Mart 2016 00:41 Ne diyorsun kardeşim ? Türkçe yazsana.

Bu yollu yol alışın dışındaki adımlar iyileştirme geliştirmeler yoran ve sık hatalı ve tekrarlatan robotik girişler olur.YUMUŞAK DOKU DÜŞÜNÜŞLÜ İŞ OLMAZ.

Microsoft neyi doğru yaptı ki??

@25 Mart 2016 11:55 Windows 7 ve Vista dışındaki tüm diğer eski sürümler..

Aslinda MS projeyi dallandirip bu surumu devam ettirse sosyal medyanin genel psikoloji ile ilgili cok sayida veri eldebilirdi. Tabii cesitli kuruluslarin baskisi altinda by haliyle devam ettiremez ama.

Gelin siz Microsoft düşmanları gelin de yargılayın! Kötülemeseniz olmaz zaten....

Sen de yorum yaz

CHIP'i Takip edin
E-Posta listemize katılın

İlginizi çekebilir