Google'ın yapay zekasına kullanıcılar tepki gösterdi: Yalan yanlış bilgiler veriyor!
"Yapay zeka çılgınlığı" Google'ın web sonuçlarına da yansıdı. Artık bir konuyu bizim yerimize yapay zeka "Google'layacak" fakat yeni özellik, yalan yanlış bilgiler verdiği iddiasıyla eleştiriliyor. İşte ayrıntılar...
Teknoloji devi Google, "Arama'nın Geleceği" olarak görülen yapay zeka destekli yeni arama deneyimini geçtiğimiz hafta düzenlediği I/O 2024 etkinliğiyle birlikte tanıtmıştı.
"AI Overviews" isimli özellik, kullanıcılar bir konu hakkında arama yaptıklarında, ilgili web sonuçlarını gösteriyor ve bu sayede zaman kazanmalarını ve bilgilere daha kolay ulaşmalarını sağlamayı amaçlıyor. Ancak özelliği deneyenler, beklendiği gibi çalışmadığını belirtiyor.
YAPAY ZEKALI GOOGLE, ELEŞTİRİ OKLARININ HEDEFİNDE
Tech Times sitesinin aktardığına göre, teknolojinin en büyük dezavantajı, yapılan sorguya geç cevap vermesi olarak belirtiliyor. Daha da kötüsü, yanlış veya yanıltıcı bilgiler içeren cevaplar verecek kadar da "yoldan çıktığı" ifade ediliyor.
Örneğin bir kullanıcı, böbrek taşlarını hızlı bir şekilde nasıl düşürebileceğini sorduğunda, aldığı karşılık "İki litre su içmelisin" olmuş.
Google, "AI Overviews"i Amerika Birleşik Devletleri'ndeki kullanıcılarına yayınladı. Önümüzdeki günlerde diğer ülkelere de dağıtıma çıkacak özellik, üretken yapay zeka uygulamalarının ortak sorunundan muaf değil gibi görünüyor: yanlış/yanıltıcı/eksik bilgi üretmek.
Tam da bu sebeple, özellikle de insan sağlığını ilgilendiren konulardan yapay zekanın verdiği bilgilere koşulsuz şartsız güvenilmemesi, sağlık sorunları söz konusu olduğunda mutlaka uzman bir doktordan destek alınması büyük önem taşıyor.
Bu konuda ChatGPT, hastalığını nasıl tedavi edeceğini soran kullanıcılara genel geçer çözüm önerileri sunduktan sonra "Bir doktora başvurmanızda fayda var" hatırlatması yapıyor. 6 Mayıs'ta OpenAI, en yeni yapay zeka modeli GPT-4o ile dünyada ses getirmişti. Şu anda "Plus" abonelere açılan model önümüzdeki haftalarda ücretsiz kullanıcılar için dağıtıma çıkacak.