Kullanıcılarla "arkadaş" gibi konuşabilen, sorularına cevap veren, belli konularda yardımcı olan ve çok daha fazlasını yapabilen yapay zeka tabanlı sohbet robotları son dönemde çok popüler hale geldi. Ancak kusursuz da değiller ve hepsinin ortak bir sorunu var; okudukları bir metni yanlış anlamaları.
Bu konuda bir araştırma yapan BBC, yaygın kullanılan dört farklı yapay zeka modeli: ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity AI sohbet robotlarını inceledi. Uygulamaların okuduğunu ne kadar doğru anlayabildiklerini ortaya çıkarmayı amaçlayan araştırmaya göre, bu programlar sınıfta kaldı.
Sohbet robotlarına 100 farklı haber metni okutuldu ve ardından içerikle ilgili sorular yöneltildi. Yanıtların doğruluğunu değerlendiren uzman gazeteciler, cevapların yüzde 51'inde "ciddi sıkıntılar" olduğunu tespit etti. Hataların yüzde 19'unun ise sayı, tarih ve ifade yanlışlarından oluştuğu belirlendi.
Araştırma sonucunda yapay zeka sohbet robotlarının yalnızca yanlış bilgi üretmekle kalmayıp, nesnel ve öznel bilgiyi de birbirinden ayırmakta zorlandığı görüldü. Ayrıca Microsoft Copilot ve Google Gemini uygulamalarının, OpenAI'a bağlı ChatGPT'ye ve Jeff Bezos'un yatırımcılarından biri olduğu Perplexity AI'a göre "daha büyük sorunlara" sahip olduğu ifade edildi.
Bu hatalara örnek olarak, ChatGPT ve Copilot yanıtlarında İngiltere eski Başbakanı Rishi Sunak'ın ve eski İskoçya Bölgesel Başbakanı Nicola Sturgeon'ın hâlâ görevde olduğunu söyledi.