Tgrt Haber

Yapay zekadan sakın tavsiye almayın! Bilim insanları uyardı: 5 cevaptan 1'i ölümcül!

Editör: Ömer Faruk Doğan / Kaynak: Daily Mail
12 Ekim 2024 10:57 - Güncelleme : 12 Ekim 2024 11:20
Yapay zekadan sakın tavsiye almayın! Bilim insanları uyardı: 5 cevaptan 1'i ölümcül!

Yeni bir araştırmaya göre, yapay zeka destekli sohbet botlarının tıbbi tavsiyelerinin hatalı olabileceği ve her beş vakadan birince ölüme yol açabilecek tavsiyeler verdiği ortaya çıktı. Uzmanlar, sağlık tavsiyesi almak için bu tür araçlara güvenilmemesi gerektiğini söyledi.

Bir hastalığa yakalandığımızda, internette belirtilerimizi araştırıp okuduğumuz yazılardan yola çıkarak kendi kendimize teşhis koymaya çalışmak, çoğumuzun yaptığı bir durum. Yeni bir araştırmaya göre, yapay zeka​ (YZ) destekli arama motorları ve chatbot'lar, tıbbi tavsiye verirken tehlikeli hatalara yol açabilir ve hastaların sağlıklarını riske atabilir.

"YAPAY ZEKA CEVAPLARINA GÜVENMEYİN"

Alman araştırmacılar, yapay zeka destekli chatbot'ların, yaygın reçeteli ilaçlarla ilgili sorulara verdiği cevapların beşte birinden fazlasının 'ölüme veya ciddi zarara yol açabileceğini' tespit etti. Uzmanlar, daha güvenilir bilgiler veren araçlar çıkana kadar, kullanıcıların doğru ve güvenli bilgiye ulaşmak için bu tür araçlara güvenmemeleri gerektiğini belirtti.

Çalışmada, Erlangen-Nürnberg Üniversitesi'nden bilim insanları, ABD'de en çok reçete edilen 50 ilaç için en sık sorulan 10 hasta sorusunu belirledi. Bu sorular arasında ilaçların yan etkileri, kullanım talimatları ve kontrendikasyonlar (yani ilacın neden alınmaması gerektiğiyle ilgili sebepler) yer alıyordu.

Yapay zekadan sakın tavsiye almayın! Bilim insanları uyardı: 5 cevaptan 1'i ölümcül! - 1. Resim


BING COPILOT ARACI, TUTARSIZ BİLGİLER VERDİ

Araştırmacılar, Microsoft tarafından geliştirilen yapay zeka destekli sohbet robotu özelliklerine sahip bir arama motoru olan Bing Copilot'u kullanarak, farmakoloji alanında uzman klinik eczacılar ve doktorlar tarafından verilen cevaplara karşı 500 cevabın tamamını değerlendirdi. 

Cevaplar ayrıca güncel ve hakemli bir ilaç bilgi sitesiyle de karşılaştırıldı. Araştırmacılar, chatbot cevaplarının dörtte birinden fazlasında (yüzde 26) referans verilerle eşleşmediğini ve yüzde 3'ünden biraz fazlasında tamamen tutarsız olduğunu buldu. 20 cevapta yapılan daha detaylı analiz, yüzde 42'sinin orta veya hafif zarara yol açabileceği ve yüzde 22'sinin ölüme veya ciddi zarara neden olabileceğini gösterdi.

Yapay zekadan sakın tavsiye almayın! Bilim insanları uyardı: 5 cevaptan 1'i ölümcül! - 2. Resim


YAPAY ZEKANIN CEVAPLARINI ANLAMAK DA ÇOK ZOR

Sohbet botlarının cevaplarının okunabilirliğini de değerlendiren bilim insanları, bu cevapları anlamak için genellikle üniversite düzeyinde bir eğitim gerektiğini ifade etti. BMJ Quality and Safety dergisinden araştırmacılar şunları söyledi:

"Chatbot cevaplarının okunması büyük ölçüde zordu ve cevaplar tekrar tekrar bilgi eksikliği veya yanlışlıklar gösteriyordu. Bu da muhtemelen hasta ve ilaç güvenliğini tehdit ediyordu. Sohbet botları her zaman hatasız bilgi üretemeyebileceğinden, hastaların sağlık​ uzmanlarına danışmaları çok önemlidir. Daha yüksek doğruluk oranlarına sahip araçlar çıkana kadar yapay zeka destekli arama motorlarının tavsiye edilmesinde dikkatli olunmalıdır."

Yapay zekadan sakın tavsiye almayın! Bilim insanları uyardı: 5 cevaptan 1'i ölümcül! - 3. Resim


COPILOT NEDEN HATALI BİLGİLER VERİYOR?

Konuyla ilgili Microsoft'tan da açıklama geldi. Şirket sözcüsü, Copilot'un birden fazla kaynaktan gelen bilgileri tek bir cümlede özetleyerek soruları cevapladığını belirterek, "Copilot bu cevaplara bağlantılı alıntılar sağlar, böylece kullanıcılar geleneksel aramada olduğu gibi daha fazla keşif ve araştırma yapabilir. Tıbbi tavsiyelerle ilgili sorular için her zaman bir sağlık uzmanına danışılmasını tavsiye ediyoruz" dedi.

Bu arada bilim insanları, çalışmanın "gerçek hasta deneyimlerinden yararlanılmadığı gerçeği" de dahil olmak üzere çeşitli sınırlamaları olduğunu da kabul etti. Hastaların chatbot'tan, sordukları soruyla ilgili daha fazla net bilgiler vermesini isteyebilecekleri belirtildi.

Kaynak: Daily Mail

300
UYARI: Küfür, hakaret, bir grup, ırk ya da kişiyi aşağılayan imalar içeren, inançlara saldıran yorumlar onaylanmamaktır. Türkçe imla kurallarına dikkat edilmeyen, büyük harflerle yazılan metinler dikkate alınmamaktadır.
Ebru12 Ekim 2024 11:00

Yapay zeka bunca hızlı gelişirken dikkatli olunması gereken noktalar varmış sanki Yoksa ya herkese ilaç tarif eden botlar mı dolaşacak

Sonraki Haber Yükleniyor...