Tgrt Haber

Hastanelerde kullanılan yapay zeka halüsinasyon görüyor

Editör: Safa Keser / Kaynak: tgrthaber.com
26 Ekim 2024 10:44 - Güncelleme : 26 Ekim 2024 10:50
Hastanelerde kullanılan yapay zeka halüsinasyon görüyor

Yapay zeka devi OpenAI, Whisper adını verdiği ve “insan düzeyinde doğruluk” sunduğunu belirttiği yapay zeka destekli ses transkript aracını övüyor. Ancak Whisper, büyük bir sorunla gündemde: Yazılı metinlere gerçek dışı ifadeler ekleyebiliyor. Konu ile ilgili açıklama birçok yazılım mühendisi, geliştirici ve araştırmacı bu durumun oldukça yaygın olduğunu ve Whisper'ın transkriptlerde "hayal ürünleri" ya da endüstride bilinen adıyla "halüsinasyonlar" üretebildiğini belirtiyor.

YAPAY ZEKALARIN GENEL VE ÇÖZÜLEMEYEN SORUNU

Halüsinasyon olarak adlandırılan bu yanlış bilgiler, kimi zaman ırkçı yorumlar, şiddet içerikli ifadeler ya da hayali tıbbi tedaviler şeklinde ortaya çıkabiliyor. Bu, aracı birçok farklı sektörde kullananlar için ciddi bir sorun. Whisper, dünya genelinde mülakatların çevrilmesi, video alt yazılarının üretilmesi ve farklı dillere transkript oluşturulması gibi pek çok alanda kullanılıyor.

Hastanelerde kullanılan yapay zeka halüsinasyon görüyor - 1. Resim


ENDİŞE VERİCİ DURUMLAR ORTAYA ÇIKIYOR

En endişe verici durum ise, bazı hastanelerin doktor ve hasta görüşmelerini kaydetmek için Whisper tabanlı araçları kullanmaya başlamış olması. Oysa OpenAI, bu tür yüksek risk taşıyan alanlarda Whisper’ın kullanılmaması konusunda uyarılarda bulunuyor. Michigan Üniversitesi'nde kamu toplantılarını inceleyen bir araştırmacı, Whisper’ın sekiz transkriptten altısında ciddi hata ürettiğini gözlemlediğini belirtiyor. Bir diğer yapay zeka​ mühendisi ise, analiz ettiği 100 saatlik ses kaydının yarısında yanlış ifadeler bulduğunu ifade etti.

Hastanelerde kullanılan yapay zeka halüsinasyon görüyor - 2. Resim



Bu hatalar, kısa ve net ses kayıtlarında dahi ortaya çıkabiliyor. Bilgisayar bilimcileri tarafından yapılan bir araştırmada, incelenen 13.000 ses kaydında 187 yanlış bilgi bulundu. Uzmanlar, bu durumun milyonlarca ses kaydı üzerinde on binlerce hatalı transkripte yol açabileceğini düşünüyor. Princeton'daki İleri Çalışmalar Enstitüsü profesörü Alondra Nelson, “Hiç kimse yanlış bir teşhis istemez,” diyerek hastanelerde yapılan bu hataların ciddi sonuçlar doğurabileceğini vurguluyor.

Hastanelerde kullanılan yapay zeka halüsinasyon görüyor - 3. Resim


Whisper’ın bir diğer kullanım alanı da işitme engelli bireyler için altyazı oluşturmak. Gallaudet Üniversitesi’nde teknoloji programını yöneten ve kendisi de işitme engelli olan Christian Vogler, işitme engellilerin yanlış bilgilerle karşılaşmasının büyük bir risk olduğunu belirtiyor. Çünkü onlar bu yanlış bilgileri fark etme şansına sahip değiller.

Hastanelerde kullanılan yapay zeka halüsinasyon görüyor - 4. Resim

Whisper, teknolojideki güçlü özellikleri kadar bu tür büyük riskleri de beraberinde getiriyor. Özellikle sağlık​ sektörü gibi kritik alanlarda kullanımı arttıkça, bu yanlış transkriptlerin yol açabileceği olumsuz sonuçlara karşı daha dikkatli olunması gerektiği ortada.

Kaynak: tgrthaber.com

300
UYARI: Küfür, hakaret, bir grup, ırk ya da kişiyi aşağılayan imalar içeren, inançlara saldıran yorumlar onaylanmamaktır. Türkçe imla kurallarına dikkat edilmeyen, büyük harflerle yazılan metinler dikkate alınmamaktadır.
Sonraki Haber Yükleniyor...