BİLİM, TEKNOLOJİ

Google'ın yapay zekasından tehlikeli yanıtlar: Köprüden atla dedi, taş yemesini önerdi

Teknoloji devi Google, yeni bir yapay zeka özelliğini kullanıma sunmaya başladı. Ancak "AI Overviews" isimli yapay zeka aracı, bazı sorulara verdiği cevaplarla tam bir felaket!

Çeviri: Hilal Bardakcı / Editör

Google, Chrome, Firefox ve Google uygulama tarayıcısındaki en yeni deneysel arama özelliğini yüz milyonlarca kullanıcıya sundu. "AI Overviews" adlı özellik, arama sonuçlarının özetlerini sağlamak için rakibi ChatGPT'nin temelindeki üretken yapay zeka teknolojisini kullanarak kullanıcıları bağlantılara tıklamaktan kurtarıyor. 

"Muzları nasıl daha uzun süre taze tutabileceğinizi" sorduğunuzda cevap olarak bunları serin, karanlık bir yerde ve elma gibi diğer meyvelerden uzakta saklamak gibi faydalı ipuçlarının özetini oluşturmak için yapay zekayı kullanıyor. Ancak bazı sorulara verdiği cevaplar tam anlamıyla felaket! 

Google şu anda bu sorunları tek tek çözmeye çalışıyor ancak sistemin verdiği bazı 'tehlikeli' cevaplar, arama devi için kritik bir tanıtım sorunu haline geldi. 

YAPAY ZEKAYA GÖRE AY'DA KEDİ VAR

Bir kullanıcı, AI Overviews'e sorduğu sorunun ardından aldığı cevap karşısında hayrete düştü. Çünkü yapay zeka sistemi ona "astronotların Ay'da kedilerle karşılaştığını" ve hatta Ay'da kedilerle oyun oynadığını söylüyordu. Google'ın yapay zekasına göre, Ay'a ayak basan ilk insan olan Neil Armstrong'un "İnsan için küçük bir adım" dediği adım aslında bir kedi adımıydı. Yapay zeka aracı, bir diğer astronot Buzz Aldrin'in ise Apollo 11 görevinde kedilere yer verdiğini söyledi.

Google'ın AI Overviews'i bir başka kullanıcıya ise kayaların hayati bir mineral ve vitamin kaynağı olduğunu, bu nedenle günde en az bir küçük taş yemesi gerektiğini belirtti. Ayrıca bir başka soruya verdiği cevapta ise yapay zeka aracı, kullanıcıya, pizzanın üzerine yapıştırıcı koymasını önerdi. Google'ın yapay zekası depresyondaki bir kullanıcıya ise Golden Gate Köprüsü'nden atlamasını tavsiye etti.

YAPAY ZEKA NEDEN TEHLİKELİ YANITLAR VERİYOR?

Bu konudaki temel sorunlardan biri, üretken yapay zeka araçlarının neyin doğru olduğunu bilmemesi, verdiği cevaplarda neyin popüler olduğunu bilerek davranması. Örneğin, internette taş yemekle ilgili çok fazla makale yok çünkü bunun kötü bir fikir olduğu aşikar ancak The Onion'da taş yemekle ilgili çok okunan bir hiciv makalesi mevcut. Bu nedenle Google'ın yapay zekası doğruluktan ziyade popülerliğe dayanarak yorum yapıyor. 

Diğer bir sorun ise üretken yapay zeka araçlarının bizim değerlerimize sahip olmaması, bunun yerine Web'in büyük bir kısmı üzerinde eğitilmesi.